Resúmenes por Área


Cargando resúmenes...

Área I: Física, Matemáticas y Ciencias de la Tierra

Acosta Angulo Jim Gerardo, Universidad Autónoma de Sinaloa
Asesor: Dr. Jorge K. Barrera Ballesteros, Universidad Nacional Autónoma de México

FOTOMETRíA DE ALTA RESOLUCIóN ESPACIAL COMO COMPLEMENTO A DATOS DE ESPECTROSCOPíA DE CAMPO INTEGRAL POR CALIFA.


FOTOMETRíA DE ALTA RESOLUCIóN ESPACIAL COMO COMPLEMENTO A DATOS DE ESPECTROSCOPíA DE CAMPO INTEGRAL POR CALIFA.

Acosta Angulo Jim Gerardo, Universidad Autónoma de Sinaloa. Asesor: Dr. Jorge K. Barrera Ballesteros, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Las observaciones realizadas por CALIFA son de la técnica observacional llamada espectroscopía de campo integral de alrededor de 800 galaxias cercanas. Esta novedosa técnica observacional permite el estudio angularmente resuelto del gas ioinizado del medio interestelar en galaxias y de poblaciones estelares. Entre los objetivos más importantes es fundamental determinar la distribución espacial de la formación estelar en el universo cercano. Debido a la resolución especial de los datos CALIFA (~ 2.5 arcsec) dicha distribución de formación estelar es degradada respecto a imágenes de alta resolución espacial. El problema se presenta cuando la baja resolución espacial no permite distinguir regiones de formación menores de escalas de kpc, además de que su rango de estudio en longitud de onda se encuentra entre 370nm y 700nm, lo que no permite determinar con mejor precisión propiedades de la población estelar ni de el potencial ionizante en el caso de las regiones de formación estelar. Por eso, en este proyecto se pretenden complementar las observaciones de espectroscopía de campo integral anteriormente mencionadas con datos fotométricos de alta resolución del Hubble Space Telescope (HST) de las mismas galaxias en longitudes de onda de luz ultravioleta y líneas de emisión (como las de hidrógeno y oxígeno). MUSE (espectrógafo instalado en el Very Large Telescope) también se utilizó para obtener datos de alrededor 600 galaxias mediante espectroscopía de campo integral, pero también presenta el problema que las longitudes de onda con las que trabaja se encuentran entre 480nm y 930nm, por lo que datos esenciales para el estudio de formación estelar carecen. De manera que estos espectros se busca que sean complementados con datos del telescopio GALEX, que es un telescopio espacial el cual toma imágenes de galaxias en luz ultravioleta. Así como es necesario imágenes de galaxias en la región ultravioleta del espectro electromagnético también se presenta de manera complementaria el conseguir datos del arreglo de radiotelescopio ALMA, uno de los instrumentos con la mejor resolución espacial en el mundo. Este arreglo observa galaxias mediante espectroscopía en longitudes de onda asignadas al radio. Esto para conseguir espectros donde se puedan observar indicios de ciertas moléculas (CO y HCN) en las galaxias de interés. Dichas moléculas tienen una alta relación con la cantidad de hidrógeno molecular (H2) en las galaxias, el cuál es el material escencial para la formación estelar.



METODOLOGÍA

Ante el problema, se sugiere utilizar una técnica la cual involucra el conseguir imágenes en longitudes de onda pertenecientes a la luz ultravioleta y líneas de emisión importantes de alta resolución de las galaxias anteriormente observadas por CALIFA pero esta vez por el HST. La forma en la que se consigue la información requerida, es ingresando a la base de datos de Hubble Legacy Archive por medio de un código realizado en python, el cual, realiza una búsqueda en toda la colección de información. Es utilizado un módulo conocido como astropy, el cuál tiene una librería que permite la búsqueda de objetos astronómicos tomados por diferentes telescopios en el Mikulski Archive for Space Telescopes (MAST). Se ingresa en el programa de una manera automática las coordenadas de las galaxias observadas por CALIFA anteriormente colocadas en un archivo de texto. Además se le asigna un valor de búsqueda y ciertos parámetros para encontrar con mayor oportunidad los datos pertinentes al proyecto. Entre estos están solicitar datos calibrados para nivel científico, descartar datos en longitudes de onda de luz infrarroja, imágenes tomadas específicamente por el HST, etc. También, de manera automatizada el programa descarga los datos y crea directorios donde colocará las imágenes y tablas con información sobre las mismas, como el tiempo de exposición de la imagen y el nombre del filtro con el que fue tomada. Respecto a los datos de ALMA, también es un programa de python el cual realiza la búsqueda de una manera automatizada utilizando una tabla de coordenadas de galaxias observadas por MUSE. Después arroja una relación entre los espectros de ALMA y los de MUSE, para posteriormente seleccionarse únicamente los estudios que se hayan tomado para realizar estudios de las moléculas CO y HCN, para su posterior obtención.


CONCLUSIONES

Con el programa que se llevó a cabo se encontraron datos fotométricos de 118 galaxias de CALIFA en la colección de datos del HST. Se espera que con los datos fotométricos obtenidos de diferentes instrumentos observados por el HST se pueda obtener mayor información de las regiones de formación estelar, para que con los espectros de las galaxias vistas por CALIFA, dar un mayor estudio de estas zonas. Lo que respecta para las galaxias de la muestra de MUSE, se espera que con los datos complementarios recabados de GALEX y ALMA den un mayor entendimiento en el estudio de formación estelar para galaxias cercanas. Con ambos proyectos se busca también es realzar la reputación para la espectroscopía de campo integral y así solicitar el realizar más estudios de galaxias con diferentes tipos de filtros los cuáles puedan dar lugar a información para identificar formación estelar y el estudio de éstas zonas galácticas.
Acosta Esparza Marco Aurelio, Universidad Autónoma de Zacatecas
Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara

DEGRADACIóN FOTOCATALITICA DE AZUL DE METILENO EN DIOXIDO DE TITANIO DECORADO CON GRAFENO BAJO IRRADACIóN DE LUZ VISIBLE


DEGRADACIóN FOTOCATALITICA DE AZUL DE METILENO EN DIOXIDO DE TITANIO DECORADO CON GRAFENO BAJO IRRADACIóN DE LUZ VISIBLE

Acosta Esparza Marco Aurelio, Universidad Autónoma de Zacatecas. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Dioxido de Titanio (TiO2) es un excelente fotocatalizador en la region ultravioleta, sin embargo, para la region del visible no existe interacción con la luz debido a su amplio band gap (3.2eV). Para activar el Dioxido de Titanio en el rango visible, este puede ser combinado con diferentes materiales, por ejemplo el Grafeno con sus grandes propiedades como semiconductor puede realizar una catalisis más eficiente. La actividad fotocatalitica del material con el semiconductor puede acelerar el proceso de degradacion en la region ultravioleta y hacerlo en el visible.



METODOLOGÍA

sTres muestras de polvos de Dioxido de Titanio de aproximadamente 50 nanometros han sido sintetizadas por hidrotermal y combinadas con polvos de Grafeno. La combinacion de los polvos de Dioxido de Titanio y Grafeno fueron tratados a diferentes temperaturas (100 °C y 200 °C) con el objetivo de investigar la degradacion fotocatalitica del Azul de Metileno. Todas las muestras fueron analizadas por espectroscopia Raman y difracción de rayos X. Una cantidad de .01 gr de los polvos fueron mezclados en 20 ml de una solucion de Azul de Metileno y agua bidestilada, teniendo inicialmente el azul de Metileno con una concetracion molar de 9.73x10-4 M  para despues ser disuelto en 200 ml de agua bidestilada, posteriormente separados en porciones de 20 ml y combinarlos con los polvos para exponerlos a luz utravioleta y luz visible aproximadamente por siete horas y media. La actividad fotocatalitica de las muestras bajo la radiacion ultravioleta y visible fue evaluada por espectroscopia Uv-vis cada media hora.


CONCLUSIONES

Bajo la radiacion ultravioleta se observó una degradación mucho más rápida que solo utilizando Dioxido de Titanio, además llegando a un porcentaje de degradación mucho más alto rondando el  valor de 80% de degradación, alcanzando el valor máximo que se obtiene de degradar el azul de metileno solo con Dioxido de titanio en tan solo 3 horas, aproximadamente. Bajo la radiación visible se observó que el Dioxido de Titanio por si solo no degrada mientras que se obtuvo una degradacion fotocatalitica significativa en la combinacion de Dioxido de Titianio con Grafeno alcanzando un valor de 46% ocasionado por la combinación de ambos materiales que genera un intercambio de cargas entre ellos lo que genera la degradacion. 
Aguilar Estrada Ricardo, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara

ANÁLISIS DE SERIES DE TIEMPO DE DATOS GENERADOS POR UNA ESTACIÓN METEOROLÓGICA AUTOMÁTICA, VARIABLE ESTUDIADA: RADIACIÓN SOLAR.


ANÁLISIS DE SERIES DE TIEMPO DE DATOS GENERADOS POR UNA ESTACIÓN METEOROLÓGICA AUTOMÁTICA, VARIABLE ESTUDIADA: RADIACIÓN SOLAR.

Aguilar Estrada Ricardo, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los datos meteorológicos son de gran importancia en diferentes áreas y actividades diarias de las personas, es por ello que se busca contar con información de calidad que ayude a una buena toma de decisiones en las diferentes actividades que se desarrollen entorno a este tema, una de las principales barreras en la obtención de información de calidad es que las bases de datos se encuentran en su mayoría con información incompleta. Esto puede deberse a errores en los sensores de las estaciones meteorológicas y/o mal mantenimiento en las mismas, por lo que fue necesario realizar un análisis estadístico a las bases de datos con el fin de identificar las principales anomalías que se presentan en la estación meteorológica del CUC (Centro Universitario de la Costa), y aplicar el método de relleno de datos ausentes en la base de datos.



METODOLOGÍA

Se realizó un análisis visual de los datos, con el fin de detectar anomalías en la información, posteriormente al ser identificados estos problemas los cuales constan de celdas sin información o fuera de rango se marcaron para su fácil visualización, los datos con información fuera de rango fue necesario depurarla y solo dejar la que coincidía con lo programado a la estación, se realizó una búsqueda del mejor método que se ajustara a nuestras necesidades, el cual consiste en utilizar información de una estación cercana que contara con la información completa, para ello fue necesario realizar un análisis de correlación (Curva de doble masa) y determinar si son aptos para aplicar el método de rellenado (Método de los promedios). Con esta ecuación se logró rellenar de forma adecuada las celdas con datos ausentes utilizando datos de referencia de otra estación.


CONCLUSIONES

El método desarrollado de análisis estadístico es apto para el trabajo de grandes cantidades de información ya que no genera resultados con gran porcentaje de error, lo que lo hace un método confiable, sin embargo, existen una gran variedad de herramientas que pueden realizar este tipo de corrección, la utilización de ellos será determinada por el usuario dependiendo de las necesidades del trabajo a realizar, esto permitirá contar con datos meteorológicos de calidad, es por ello por lo que se recomienda aplicar siempre un control de calidad ya que contar con malos datos puede verse reflejado en una toma de decisiones inadecuada, independientemente del ramo en el que es utilizado en ese momento.
Aguilar González Martín, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla

ESTUDIO Y SOLUCIóN DE ECUACIONES DIFERENCIALES PARCIALES MEDIANTE SIMULACIóN COMPUTACIONAL EN MATLAB Y COMSOL MULTIPHYSICS


ESTUDIO Y SOLUCIóN DE ECUACIONES DIFERENCIALES PARCIALES MEDIANTE SIMULACIóN COMPUTACIONAL EN MATLAB Y COMSOL MULTIPHYSICS

Aguilar González Martín, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Existen muchos tipos de ecuaciones diferenciales y se clasifican de distintas maneras, por ejemplo existen ecuaciones diferenciales parciales parabólicas, elípticas e hiperbólicas y estas se diferencian de acuerdo a su estructura, las ecuaciones diferenciales parciales se utilizan ampliamente en muchas áreas de la física, ingeniería y matemáticas para modelar o describir el comportamiento de sistemas muy complejos y como estos evolucionan con el tiempo entre otros aspectos. Uno de los problemas más grandes e importantes de las ecuaciones diferenciales yace en encontrar una solución analítica de la ecuación, sin embargo no siempre es posible hallar una solución del problema directamente pues, la forma de la ecuación diferencial puede involucrar funciones muy complejas de resolver entre otros factores, es por ello que en algunos casos se recurren a métodos numéricos para poder hallar una solución aproximada a la solución de la ecuación diferencial parcial que se trata de resolver, es por ello que en este trabajo nos centramos en estudiar los métodos para resolver numéricamente varios problemas físicos que involucran ecuaciones diferenciales parciales enfocándonos en la paquetería computacional de COMSOL Multiphysics y MATLAB.



METODOLOGÍA

Se hizo una revisión de las ecuaciones diferenciales parciales, su clasificación y algunas de sus propiedades, así como su forma general. Posteriormente comenzamos a trabajar simulando ecuaciones diferenciales simples en MATLAB y graficando las curvas de solución. Una vez estudiado el proceso de solución en MATLAB, se reprodujeron varios problemas físicos en COMSOL Multiphysics utilizando sus diferentes interfaces para simular varios problemas gobernados por ecuaciones diferenciales parciales tales como el flujo de sangre en una arteria, o la concentración de algún fármaco en el flujo sanguíneo, el potencial al que se somete el somete el corazón durante un proceso de desfibrilación cardiaca, la absorción de radiación y el aumento de temperatura en la cabeza cuando hablamos por teléfono móvil debido a la radiación producida por este, etc. Finamente se estudió el proceso por el cual se lleva a cabo la simulación y solución numérica de las ecuaciones diferenciales parciales utilizadas en COMSOL tal método se conoce como elemento finito.


CONCLUSIONES

Durante el verano de investigación desarrollamos habilidades para el manejo de los programas MATLAB y COMSOL Multiphysics para la solución de ecuaciones diferenciales parciales mediante métodos numéricos. Se discutieron varios sistemas físicos principalmente problemas de fisiología humana descritos por ecuaciones diferenciales. Se estudió el método de diferencias finitas y de elemento finito a detalle.
Aguilar Ortiz Honorio, Universidad Autónoma de Guerrero
Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa

ESTUDIO Y ANÁLISIS DE MULTIPATH PARA PSEUDO-DISTANCIAS SOBRE 5 ESTACIONES DE LA RED GEODÉSICA NACIONAL ACTIVA (RGNA)


ESTUDIO Y ANÁLISIS DE MULTIPATH PARA PSEUDO-DISTANCIAS SOBRE 5 ESTACIONES DE LA RED GEODÉSICA NACIONAL ACTIVA (RGNA)

Aguilar Ortiz Honorio, Universidad Autónoma de Guerrero. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La Red Geodésica Nacional Activa (RGNA) es el conjunto de estaciones de monitoreo continuo de datos del Sistema Global de Navegación Satelital (GNSS) con cobertura nacional, las cuales cuentan con coordenadas de la mayor exactitud posicional disponible en el marco geodésico oficial. Estudios demuestran que: Todos los sitios de GPS se ven afectados en cierta medida por los efectos multitrayecto, que surgen cuando las señales del satélite GPS reflejadas llegan a la antena receptora, interfiriendo y ocultando la señal directa utilizada para un posicionamiento preciso. Este efecto puede variar lentamente en una base estacional, o abruptamente debido a eventos naturales como nevadas. (Vázquez, Bennett, & Spinler, 2013) En esta investigación se analizarán los cambios y el comportamiento del multipath o multirruta sobre 5 estaciones de referencia de la RGNA, denominadas; MEXI (Mexicali), COL2 (Colima), TOL2 (Toluca), OAX2 (Oaxaca) y MERI (Mérida).



METODOLOGÍA

En este estudio los archivos de observación que registran las estaciones; se descargaron en el sitio web de la red CORS (Continuously Operating Reference Stations). CORS es una red de Estaciones de Referencia de Operación Continua que proporciona datos del Sistema Global de Satélites de Navegación (GNSS, por sus siglas en inglés) que consisten en mediciones de la fase de la portadora y el rango de códigos en apoyo de tres dimensiones.  De las 31 estaciones que consta la RGNA, 11 de ellas están incluidas dentro de la red CORS y para llevar a cabo este estudio se descargaron  datos de 5 estaciones: MEXI (Mexicali), COL2 (Colima), TOL2 (Toluca), OAX2 (Oaxaca) y MERI (Mérida). Para llevar a cabo el estudio se ocuparon software como: TEQC (Test of Quality Check) del UNAVCO (University NAVstar COnsortium), crx2rnx y MATLAB, además, se desarrollaron unos códigos en el sistema operativo de LINUX, para poder descargar todos los datos que se analizaron. El estudio se hizo en un periodo de tres años que comprende del 2016 al 2018. El análisis se efectuó sobre los errores promedios medios cuadráticos diarios  que registran las estaciones en las frecuencias del pseudorango o pseudo-distancias identificados como; MP1 y MP2.


CONCLUSIONES

Todas estas estaciones de referencias de la RGNA del INEGI tuvieron un comportamiento inusual en el mes de mayo, pero dicho comportamiento se presentó debido al cambio de equipo que se hizo en las estaciones. Por otro lado entre el mes Julio - Septiembre de 2017, se llevó a cabo un cambio de Firmware lo que pudo causar la mínima que registraron las estaciones de COL2, OAX2 Y TOL2, durante esa fecha. Pero las alteraciones registradas en las estaciones, fuera de ese periodo como la MEXI en ya depende de otros factores. Que bien pudo ser por una obstrucción, el clima o un fenómeno que haya ocurrido cerca de la zona en tal fecha. También al analizar las dos frecuencias en el periodo del antes y después del cambio de equipo en el mes de mayo de 2016, se puede decir que; en la antena receptora de estas estaciones antes de ese mes registraba más ruido o error de pseudo-distancias, que en las nuevas que se colocaron. Las antenas con las que contaba el INEGI en esa fecha eran TRIMBLE 5700 con constelación GPS nomas, actualmente cuentan con antenas  LEIAR10 que captan señales del GPS, GLONASS y GALILEO, lo cual puede ser la causa de que: cuando se cambiaron estas antenas las diferencia entre las frecuencias  y  disminuyeron notoriamente, al igual que su variación empezó a ser casi similar. Al realizar una comparación en cada una de las estaciones, se puede decir que; la denominada MERI registra una mayor afectación de multipath que cualquier otra, seguido está la TOL2 y la OAX2 que registran una afectación menor, y por último se encuentran la MEXI y la COL2.
Aguilar Valdez Sofía Alejandra, Universidad de Guadalajara
Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México

MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA


MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA

Aguilar Valdez Sofía Alejandra, Universidad de Guadalajara. Jiménez Salado Isabel, Instituto Politécnico Nacional. Morales Ramírez Natalia, Instituto Politécnico Nacional. Navarro Salazar Fidel Alejandro, Universidad de Sonora. Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se estudiará la detección de alimentos procesados por radiación a través de diferentes métodos. Se discutirán los conceptos que gobiernan la propiedad de luminiscencia del estado  sólido como un punto inicial para estudiar materiales con aplicaciones dosimétricas. De esta forma, podremos demostrar las ventajas de la irradiación de alimentos en México a partir de medidas de PSL (fotoluminiscencia) en orégano y TL (termoluminiscencia) en calcita naranja a diferentes dosis de radiación gamma.  Se trabajó con orégano debido a su importancia en el mercado mexicano, ya que se cosechan anualmente cerca de 4000 toneladas; de las cuales el 85% es exportado a Estados Unidos, el 10% se utiliza en el mercado doméstico y el 5% a países europeos y asiáticos. Debido a que las exigencias del mercado extranjero han de cumplirse en su totalidad, un método de esterilización viable es el de procesar a los alimentos por irradiación gamma. Aunado a lo anterior, también se trabajó con calcita naranja por sus propiedades luminiscentes como dosímetro natural. Las propiedades de TL de la calcita tienen aplicación en datación geológica, dosimetría ionizante y ultravioleta, así como en la evaluación de dosis gamma usadas para la preservación de comida.



METODOLOGÍA

Se trabajaron varias muestras de calcita naranja y orégano expuestas a diferentes dosis de radiación gamma de Cs137, en un rango de 50-3000 Gy, a través del irradiador autocontenido Gammacell 3000.  Para analizar las muestras de calcita y orégano, se utilizaron los métodos de TL y PSL respectivamente. Además, se revisaron varios conceptos que gobiernan la propiedad de luminiscencia del estado sólido; entre ellos  la teoría de bandas y su relación con la estructura cristalina de los materiales, la interacción de la luz con la materia, y la energía de activación. Esta última se obtuvo con la ecuación de Arrhenius de acuerdo al método de levantamiento inicial. En consecuencia, a partir de los resultados experimentales fue posible calcular el factor de frecuencia y la energía de activación. Para el estudio de las ocho muestras de orégano a diferentes dosis, se empleó el método de PSL a través del equipo SURRC Pulsed PSL System de la compañía SUERC. Dicho instrumento hace uso de un arreglo de diodos infrarrojos para detectar la señal emitida por la presencia de feldespato en las muestras de orégano. De los datos obtenidos de orégano irradiado fue posible observar que la evolución de la cuenta de fotones tiende a aumentar con respecto a la dosis. Así mismo, por medio del PSL se determinó que las muestras se encontraban irradiadas a partir de una dosis de 250 Gy. La evolución de la cuenta total con respecto a la dosis presenta en primera instancia un comportamiento lineal en las dosis de 50-500 Gy, seguido de un comportamiento exponencial De la misma forma, se trabajó con el desvanecimiento de la señal a través del tiempo para las muestras de orégano con dosis de 250, 1000, 2000 y 3000 Gy. Se trabajaron con estas dosis puesto que la muestra de 250 Gy fue la primera categorizada como positiva. Se realizó un estudio de las cuentas por segundo con respecto al tiempo para la señal de cada dosis en un intervalo de 34 días después de ser irradiadas. Se observó que las cuentas por segundo disminuyen con el tiempo; así mismo, la cuenta total decreció de forma lineal con una pendiente más pronunciada a mayor dosis. Sin embargo, fue posible presenciar una recuperación de las cuentas por segundo y cuenta total en cada dosis debido a la participación de trampas previamente inactivas. Adicionalmente, para muestras mayores a 250 Gy era posible obtener un resultado positivo mediante el método PSL debido a la alta concentración de poliminerales como feldespatos. Las dosis utilizadas de calcita fueron de; 50, 100, 250, 500, 1000, 1500, y 2000 Gy. Para obtener resultados con mayor fiabilidad, se utilizaron dos muestras por cada dosis y doce adicionales con dosis de 1000 Gy con la finalidad de estudiar la pérdida de señal. Los picos de las curvas de brillo se encuentran en un rango de temperatura de 134-153°C. Así mismo, la respuesta de la intensidad termoluminiscente es directamente proporcional a la dosis a la que fueron expuestas las muestras; dado que se espera que a mayor dosis, habría mayor respuesta termoluminiscente. Con respecto a los parámetros de atrapamiento, se observó un comportamiento exponencial para la energía de activación y el factor de frecuencia. La respuesta TL disminuye conforme pasan los días, mostrando un decaimiento del 57%. De la misma forma, la banda de reatrapamiento aumenta provocando que la banda principal disminuya; es decir, el rango de la temperatura máxima de la respuesta TL cambia a 143-175°C después de 34 días.


CONCLUSIONES

El método de PSL demostró ser sensible y eficiente para el análisis de muestras irradiadas de orégano, detectando material irradiado en un plazo de 34 días para muestras mayores a 250 Gy. Debido a una alta concentración de poliminerales, como feldespatos y silicatos, presentes en el orégano. En consecuencia, el método de PSL es útil para la detección a largo plazo de alimentos secos irradiados conservados en ambientes obscuros.  Por otro lado, a través del método de TL se obtuvo que la calcita naranja mantiene su señal por más de un mes de ser irradiada. Por este motivo se recomienda el material como dosímetro natural para el estudio de irradiación de alimentos y datación geológica.  A través del verano de investigación, logramos entender la participación de los materiales con aplicaciones dosimétricas en la detección de alimentos irradiados. Comprendimos que la transferencia de la metodología a la industria es importante, ya que en este caso el fomentar dicha práctica en México como control de calidad es una necesidad dadas las aplicaciones de la calcita mineral en la industria química y la alta demanda del orégano como producto de exportación y de consumo interno en la alimentación.
Alba Valenzuela Xiomara Natalie, Universidad Autónoma de Nayarit
Asesor: Dr. Jorge Armando Ojeda Sánchez, Universidad de Colima

DISEñO DE INTERCAMBIADORES DE CALOR CON MICROCANALES MEDIANTE USO DE NANOFLUIDOS.


DISEñO DE INTERCAMBIADORES DE CALOR CON MICROCANALES MEDIANTE USO DE NANOFLUIDOS.

Alba Valenzuela Xiomara Natalie, Universidad Autónoma de Nayarit. Asesor: Dr. Jorge Armando Ojeda Sánchez, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Para el diseño de la transferencia de calor en una tubería, es necesario definir las condiciones de flujo del fluido de trabajo, en este caso un nanofluido. Un nanofluido está compuesto por un fluido base y partículas de tamaño nanometrico, generalmente de óxidos metálicos. Dicha sustancia presenta una conductividad térmica mayor a la del fluido base, las propiedades térmicas se pueden expresar mediante expresiones algebraicas. Para definir la transferencia de calor en la tubería, es necesario definir la ecuación diferencial con dichas relaciones del nanofluido, de tal manera que como resultado se obtiene la distribución radial y axial de la temperatura. 



METODOLOGÍA

Se realizó una investigación documental sobre los conceptos de propiedades de transferencia de calor y mecánica de fluidos tales como viscosidad, densidad calor específico y conductividad térmica las cuales se pueden expresar mediante las propiedades del fluido. Todo fluido tiene estas propiedades. El calor específico nos ayudará para saber la cantidad  de energía que le tengo que dar al material. Al igual que en la viscosidad hay que saber que tan viscoso es el fluido. En el cual se utilizará la ley de potencia ya que nuestro modelo de Ostwald de Waele será un flujo no-newtoniano. Se leyó las ecuaciones de cantidad de movimiento y la ecuación de la energía. Consideramos un tubo cilíndrico con radio Ro y longitud Lo el cual entra en un flujo laminar de un fluido modelado con la ley de potencia, donde el flujo presenta una distribución parabólica. La relación del esfuerzo cortante, es determinada por el producto de la viscosidad del fluido y la rápiddez de deformación, definida como la razón de variación de la velocidad en la dirección del movimiento. Solo analizaremos cuando el fluido va en distribución parabólica ya que después va en turbulencia y eso ya no nos interesa. Sabiendo ya nuestro concepto empezaremos con la ecuación de movimiento, se le aplicó la derivada y condiciones de fuerza para llegar a la velocidad promedio. Integrando la velocidad promedio obtenemos el perfil de velocidad que será la velocidad con la que entra el flujo al tubo. La temperatura del fluido varia en ambas direcciones, creando así una capa delgada térmica en le superficie interna del tubo, se asume que las propiedades del flujo son constantes. Utilizando la serie de Taylor en la ecuación de perfil de velocidad obtenemos la velocidad característica del flujo. Sustituyendo la velocidad característica y considerando el número de Pleclet se determina el espesor térmico de la capa límite. El número de Pleclet únicamente contiene la velocidad promedio del flujo base. El espesor de la tubería se considera muy pequeño, por lo que las propiedades del material de la tubería y sus efectos en la transferencia de calor se consideran despreciables. El calor por conducción entra al tubo calentando el fluido, generando una capa limite térmica, que es definida a partir de las ecuaciones de cantidad de movimiento  y la ecuación de la energía. Como las propiedades del nanofluido son función de las propiedades del fluido base, de las partículas y de la fracción volumétrica, estas determinan la distrbución de temperatura a partir de la definición de la ecuación diferencial que gobierna el fenómeno. Para diferentes valores de la fracción volumétrica se definen diferentes escenarios de la transferencia de calor en la tubería expuesta a un flujo de calor externo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre propiedades de transferencia de calor y mecánica de fluidos, así como las aplicaciones de ecuaciones diferenciales parciales en las ecuaciones de cantidad de movimiento y la ecuación de la energía. Se definieron las escalas representativas de la capa límite térmica del nanofluido en una tubería, definiendo la ecuación diferencial a resolver. La solución de dicha ecuación diferencial define la distribución de la temperatura en las direcciones radial y longitudinal en función de la presencia de las nanoparticulas y la modificación de sus respectivas propiedades, en consecuencia, el proceso de transferencia de calor.
Alfaro Barrientos Luis Angel, Instituto Tecnológico de Tláhuac
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

PROTOTIPO DE ECOBLOCK ESTRUCTURAL ALIGERADO, BASADO EN UN ALMA DE PET.


PROTOTIPO DE ECOBLOCK ESTRUCTURAL ALIGERADO, BASADO EN UN ALMA DE PET.

Alfaro Barrientos Luis Angel, Instituto Tecnológico de Tláhuac. Garcia Contreras Juan Daniel, Tecnológico de Estudios Superiores de San Felipe del Progreso. Hernández Martínez Danny Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Actualmente México es uno de los principales países que producen más desechos, siendo el primer consumidor de botellas plásticas del mundo (INEGI, 2018),  la mayoría de estos se genera en viviendas, edificios, calles, avenidas, parques y jardines.  Gran parte de los desechos acaban en basureros o en el mar lo que ocasiona la contaminación, ya sea del aire, suelo o agua. Los productos plásticos que tienen un elevado consumo, tales como: las botellas de plástico, que normalmente se elaboran de PET (Tereftalato de Polietileno), así como las bolsas de algunos alimentos que en su mayoría están elaboradas de polipropileno junto con polietileno. A lo largo de los últimos años se ha considerado implementar el plástico en el área de la construcción, ya que recientemente lo que se busca es disminuir el daño al medio ambiente buscando materiales alternos como los son los Eco-block, aprovechando que el block es uno de los elementos más usados en la construcción se tomó en cuenta para la fabricación de un bloque estructural que sea de tipo ecológico.



METODOLOGÍA

Durante esta investigación se empleó una metodología experimental de tipo cuantitativa debido a que el proyecto se considera factible considerando los datos obtenidos. Uno de los datos más importantes es el que se obtenga de la prueba de resistencia a la compresión, la cual es realizada en la máquina universal gracias a esta máquina se pueden hacer pruebas de compresión y tracción para medir la resistencia de la carga que se le aplica al block.   Para llegar a obtener este resultado fue necesario conocer las Normas Oficiales Mexicanas que estandarizan la fabricación de los bloques, así  como las pruebas de calidad a las que están sometidos. Una de las principales normas es la NOM-404-ONNCCE-2012 para piezas de uso estructural, hace referencia a las especificaciones del block tales como: dimensiones, partes de la pieza, métodos de ensayo que deben cumplir los bloques, establecida por el Organismo Nacional de Normalización y Certificación de la Construcción y Edificación (ONNCCE). Este organismo tiene el propósito de contribuir a la mejora de la calidad y de la competitividad de los productos, procesos, servicios y sistemas relacionados con la industria de la construcción.   Para obtener la  dosificación adecuada del block  se realizaron dos procedimientos, el primero consistió en guiarse de la dosificación recomendada por el fabricante del cemento, y el segundo, se empleó el método del módulo de fineza de la combinación de los agregados que consiste en efectuar un diseño de una mezcla para alcanzar la resistencia deseada del block, tomando en cuenta los agregados principales, los cuales pueden causar una variación de la resistencia. En el caso de los agregados se usaron los siguientes: Grava o Tepojal, Arena, Cemento, Agua También se incluyeron botellas de PET, que se recolectaron recolectaron dentro del Tecnológico de Estudios Superiores de Valle de Bravo, una vez conseguido el material suficiente, se seleccionó un tamaño adecuado para que cumpliera las especificaciones del área neta de un block hueco, sin embargo se considera como un block hibrido, ya que el área bruta incluye el material utilizado, junto con el PET. Los tamaños elegidos fueron botellas de un litro y de 355 ml. las cuales fueron rellenadas con otros plásticos, los cuales habían sido recolectados previamente. Para llenar un envase de litro se necesitó un aproximado de entre 25 a 30 botellas de PET, lo cual corresponde a 1569 ml. Antes de realizar la mezcla para el prototipo se requirió hacer una prueba de granulometría para el agregado grueso (grava o tepojal). Con el objetivo de seleccionar el tamaño nominal solicitado por norma. Ya que se tenían todos los materiales necesarios para hacer la mezcla se procedió a realizar el prototipo físico, se empleó la dosificación ocupada, además el plantel tiene una bloquera, la cual ya cuenta con un apartado de moldeado de block con una medida estándar de 12x20x40 cm, por medio de ella se pudo realizar la compactación y el vibrado del material para que el block quedará con las medidas adecuadas, la mezcla se hizo de manera manual. Para colocar los envases de PET en el interior del block primero se colocó una capa de mezcla en el molde, luego se incluyó la botella de plástico para finalizar se cubrió con otra capa de mezcla, dándole un varillado en los extremos. Para un mejor muestreo se realizaron 7 blocks, de los cuales 4 fueron con tepojal y los 3 restantes con grava. Como se ocuparon dos dosificaciones los prototipos tienen diferentes características. Las características físicas de cada uno son: Block con agregado de Tepojal Menor adherencia de la mezcla, mejor dimensión, peso medio de 10 kg, tuvo más oquedades y  mayor disgregación Block con agregado de Grava Mayor compactación al momento de fraguado, reducción en medidas exteriores de un aproximado de 1 a 2 cm,  peso medio  de 15 kg, tuvo menos oquedades y menor disgregación.  Y  dándole pasó a la prueba de compresión en un lapso de 28 días para el análisis de datos. 


CONCLUSIONES

Las pruebas a resistencia a la compresión  se realizaron en tres especímenes. Los resultados obtenidos son los siguientes.                   Peso aplicado                        Resistencia a la compresion  Prueba 1      11967.9 kgf                           24.93 kg/cm2 Prueba 2       4016 kgf                              8.36 kg/cm2 Prueba 3      8383.2 kgf.                          17.46 kg/cm2   Terminando con las pruebas necesarias al block, se realizó un presupuesto en el cual se dedujo que que el precio del block para su proceso de elaboración es de 7.45 pesos. Como resultado final concluimos que no se alcanzó totalmente la resistencia a la compresion  establecida en la NOM-C-404-ONNCCE, obteniendo nosotros una resistencia promedio de 16.91 kg/cm2.  Sin embargo su uso no sera de manera estructural, aunque podra utilizarse como block ligero, se observó en la prueba de compresión que el PET no sufrió deformación total, ayudo a reducir el peso del bloque a 10kg y la cantidad de materia prima, así mismo a ocupar los desperdicios sólidos. Los datos de estas pruebas se pueden mejorar, en la modificación del cálculo de la mezcla disminuyendo la cantidad de volumen del PET.  
Alfaro Santos Jesús Marcel, Universidad de Sonora
Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla

MéTODOS NUMéRICOS PARA RESOLVER Y SIMULAR ECUACIONES DIFERENCIALES PARCIALES ORIENTADOS A MODELOS DE LA FISIOLOGíA DEL CUERPO HUMANO IMPLEMENTADOS EN MATLAB Y COMSOL MULTIPHYSICS.


MéTODOS NUMéRICOS PARA RESOLVER Y SIMULAR ECUACIONES DIFERENCIALES PARCIALES ORIENTADOS A MODELOS DE LA FISIOLOGíA DEL CUERPO HUMANO IMPLEMENTADOS EN MATLAB Y COMSOL MULTIPHYSICS.

Alfaro Santos Jesús Marcel, Universidad de Sonora. Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La modelación matemática es una técnica basada en el análisis numérico, utilizada en muchos campos de estudio, principalmente en ciencias e ingenierías desde los años 60 para validar o refutar modelos conceptuales propuestos a partir de observaciones en la naturaleza o derivados de teorías anteriores. Un modelo numérico permite predecir el fenómeno estudiado a través de resultados cuantitativos, mismos que son obtenidos a partir de realizar experimentos al cambiar o agregar parámetros, y de esta forma conocer la interrogante a cualquier situación que nos planteemos. En nuestro trabajo nos limitamos a modelar principalmente la fisiología del organismo humano y realizar distintos experimentos para lograr predecir y conocer problemas relacionados a la salud o el funcionamiento de ciertas partes del cuerpo.



METODOLOGÍA

Primeramente, se estudiaron tanto la definición y ejemplos de las ecuaciones diferenciales ordinarias para lograr modelar con éxito los distintos problemas que se planteaban como por ejemplo el modelo de FitzHugh-Nagumo, Roger McCulloch, Hodgkin-Huxley y el modelo de Noble. Se presentó y estudio el lenguaje de programación Matlab y el software Comsol Multiphysics, que fueron las principales herramientas con las que se trabaron. En Comsol se simulo el Modelo de Mono dominio y bidominio acoplado con el modelo iónico de FitzHugh-Nagumo además de ondas espirales de rentrada en tejido cardiaco, modelos de difusión y transferencia de calor, la simulación de entrega de una droga en una vena coronaria y la simulación de ablación Auricular.Se programo en MATLAB el mecanismo cardiacos la revisión de materiales hiperelásticos y la simulación de Cizalla del miocardio.


CONCLUSIONES

Podemos advertir que la ayuda que trae la simulación de los modelos orientados a la fisiología del organismo humano a través de métodos numéricos es de suma importancia en la vida real , ya que de este modo se predicen situaciones que en muchos casos no podrían ser llevadas a cabo físicamente, por limitaciones que van desde el costo monetario a el riesgo a la vida de un ser humano , sin embargo con ayuda de lenguajes de programación y software como lo es MATLAB y Comsol Multiphysics (respectivamente) si que es posible realizar estos experimentos que sin duda traen un bien al desarrollo integral de esta sociedad.
Alonso Contreras Guadalupe, Instituto Politécnico Nacional
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

INCENDIOS FORESTALES EN EL MUNICIPIO DE SAN GABRIEL, JALISCO.


INCENDIOS FORESTALES EN EL MUNICIPIO DE SAN GABRIEL, JALISCO.

Alonso Contreras Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con CONAFOR en 2017 se reportaron 3941 incendios forestales en 31 estados del país entre los que se encontraban el Estado de México, Michoacán, Ciudad de México, Puebla, Hidalgo y Jalisco, siendo este último uno de los estados con mayor índice de incendios forestales. De acuerdo con Peláez (2019) el municipio de San Gabriel, Jal, en junio de 2019 presencio el desbordamiento de uno de sus principales ríos y generó la entrada de una caudalosa corriente de agua y lodo que arrastro decenas de automóviles y afecto un amplio numero de casas La subcuenca donde se ubica el área de estudio ha pasado por un proceso histórico de desforestación, que ha eliminado gran parte de la cobertura boscosa y disminuido la retención del agua, ocasionando escurrimientos. Por lo que, con la realización de éste proyecto se busca determinar las causas y efectos de los incendios forestales que han ocurrido en el municipio de San Gabriel durante el periodo del 2013 al 2018.



METODOLOGÍA

Para cumplir con los objetivos planteados en éste proyecto se realizó un amplia investigación bibliográfica sobre el municipio (características físico-geográficas), se buscaron los incendios ocurridos durante el 2013 y 2018 en la página web de Medio Ambiente y Desarrollo Territorial del Gobierno de Jalisco y de aquí mismo se obtuvo las causas y efectos de tales incendios; y por último, se realizó un mapa en el que se representaron los principales ríos que rodean a la zona urbana. Todo esto con la intensión de realizar un análisis sobre el efecto de los Incendios Forestales y su relación con el crecimiento urbano en el municipio de San Gabriel.


CONCLUSIONES

Al analizar las gráficas obtenidas podemos concluir que los años con mayores cantidades de incendios fueron 2013 con 16 registros, al igual que en 2016; y  2018 con 13 registros. Los resultados que se obtuvieron sobre las causas de estos fenómenos coincidieron con la hipótesis planteada, la cual explicaba que los incendios forestales, en su mayoría, son a causa del descuido del ser humano y las principales actividades que los generan son la quema agropecuaria no controlada y las fogatas. Y por último, entre las principales afectaciones encontramos al bosque de pino encino, sufriendo mayores incendios en 2013, 2016 y 2018; y al bosque de pino con mayor presencia de incendios en 2017.
Alva Aviles Yzack, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Aldo Iván Ramírez Orozco, Instituto Tecnológico y de Estudios Superiores de Monterrey

ANáLISIS HISTóRICO DE LAS ENVOLVENTES DE GASTOS MáXIMOS EN MéXICO


ANáLISIS HISTóRICO DE LAS ENVOLVENTES DE GASTOS MáXIMOS EN MéXICO

Alva Aviles Yzack, Consejo Sudcaliforniano de Ciencia y Tecnología. Alvarez Esquivel Linda Yaffeth, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Aldo Iván Ramírez Orozco, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

El método de las envolventes nos permite tener una estimación gruesa de los gastos máximos que puedan ocurrir en determinada región. Este método ha encontrado cabida dentro de la hidrología superficial debido a que es efectivo al momento de proyectar obras hidráulicas, esto porque solamente toma en cuenta dos parámetros asociados con el escurrimiento superficial, estos son el área de la cuenca y el gasto máximo. La primer variable puede ser calculada con diversos métodos aunque, actualmente se cuentan con herramientas digitales que facilitan de gran manera esta acción. Además, el área se considera como la misma para todos los eventos de precipitación que ocurran, sin embargo no se descarta un cambio de este valor debido a factores provocados por la naturaleza misma o por el hombre. En cuanto a los gastos máximos estos son registrados por las estaciones hidrométricas que se encuentran situadas en sitios de interés como los son ríos o arroyos, cabe señalar que estas estaciones existen en las salidas de presas o en canales, para fines del análisis estas estaciones no brindan datos relevantes ya que no son precisamente escurrimientos debidos a una precipitación instantánea.  Teniendo como datos a estas dos variables podemos obtener coeficientes como lo son el de Lowry (CL), Creager (CC) y Francou-Rodier (k). Luego, obteniendo cada uno de estos coeficientes se puede trazar una envolvente que representa el gasto máximo unitario (q) por área (A). 



METODOLOGÍA

Se obtuvieron los datos de las estaciones hidrométricas de diversas fuentes, desde los primeros registros históricos, aproximadamente de 1905 hasta el 2010 fueron obtenidos de la plataforma de la Comisión Nacional del Agua (CONAGUA) denominado Banco Nacional de Datos de Aguas Superficiales o BANDAS, donde se obtuvieron los gastos máximos registrados por año de cada una de las estaciones. Los datos actualizados del 2000 hasta el 2018 de algunas de las estaciones, fueron proporcionados directamente de la Gerencia de Aguas Superficiales e Ingeniería en Ríos (GASIR), departamento de la CONAGUA. Una vez teniendo la base de datos completa, se realizó un filtro de las estaciones que no tenían la información suficiente para obtener su evolución histórica, en algunas regiones no se encontraron registros, por lo que tambien se descartaron.   Se obtuvo su envolvente por zona, es decir, por regionalización, en este caso se hizo por región hidrólogica, para ello obtuvimos su gasto unitario. Sin embargo se encontraron datos dónde las estaciones no contaban con un área, la cual es necesaria. Se obtuvieron el área de dichas subcuencas en base a la localización geográfica de la estación mediante la plataforma SIATL del Instituto Nacional de Estadística y Geografía (INEGI) , la cual es un simulador de flujos de agua y cuenta con herramientas necesarias para poder realizar una estimación de este tipo de datos. Una vez teniendo el gasto unitario, mediante un despeje, se procedió a obtener los coeficientes de Lowry, Creager y Francou-Rodier, de cada uno de los gastos máximos de las estaciones por cada región hidrólogica.  Se graficaron los valores mediante puntos, para poder trazar la envolvente de cada uno de los coeficientes y poder observar la manera en la que se comportan los datos, los ejes deben estar en escala logarítmica, debido a que esta función es la que tiene mas semejanza al comportamiento de los datos hidrólógicos. Este procedimiento se realizó con cada región hidrólogica y posteriormente se realiza la envolvente nacional de México.  A continuación, se comenzó con la evolución histórica de los coeficientes, para ello, se obtuvieron los coeficientes de Lowry, Creager y Francou-Rodier, de cada gasto máximo que se tiene registro, desde 1905 hasta 2018 de cada región hidrológica. Por lo que, el coeficiente obtenido se mantuvo en los demás años, hasta que hubiera un año en el que el gasto fuera mayor, tal que provocara que dicho coeficiente aumentara. Esto se hizo para poder observar mediante una gráfica, los años en los que se presentaron los mayores saltos en cada uno de los coeficientes, para posteriormente poder analizar, dichos años y poder relacionar si este incremento fue debido a una gran avenida o algun otro fenómeno natural.  Por ultimo, se realizaron mapas con el programa QGIS, se hicieron tres mapas, uno para cada coeficiente, para poder ver el coeficiente de cada una de las regiones hidrólogicas hasta el año 2018. También se hicieron mapas por lustro y década, desde su primer registro en 1905  hasta el 2018, para ver la manera en la que estos coeficientes han ido cambiado en cada una de las regiones.    


CONCLUSIONES

Se observó que en algunas regiones hubo un cambio en las envolventes, es decir, estas se desplazaron lo que indica que en algún año reciente ocurrió un evento de tal magnitud que aumentó los coeficientes señalados. Cabe mencionar que la evolución de cada coeficiente es similar ya que los tres tienen un comportamiento logarítmico por lo que su evolución es muy parecida. Es importante hacer este tipo de análisis debido a que con este método de las envolventes se puede obtener una estimación rápida del gasto máximo que pueda ocurrir, si bien no son métodos exactos que no serán los que dicten finalmente los cálculos de cualquier obra hidráulica, si nos pueden dar una idea del dimensionamiento de estas.  También, se observó que en la República Mexicana se cuenta con pocas estaciones hidrométricas. Esto se puede asegurar con el hecho de que existen en operación las mismas que en las décadas de los sesenta y setenta. Además, hay regiones que están completamente en el olvido, estas son principalmente los extremos del país, o sea la península de Baja California y la península de Yucatán. Es cierto que son las regiones en donde se presenta menos escurrimiento y que los eventos de precipitación son principalmente los provocados por fenómenos meteorológicos como los huracanes o tormentas tropicales, pero aún así es necesario tener datos de estas regiones para conocer el comportamiento que tendrían en caso de una avenida importante.  
Alvarado Garduño Omar, Instituto Politécnico Nacional
Asesor: Dr. Sofía Ortega Castillo, Centro de Investigación en Matemáticas (CONACYT)

MEDIDA DE HAUSDORFF: CURVAS QUE LLENAN EL ESPACIO Y EL CONJUNTO DE BESICOVITCH


MEDIDA DE HAUSDORFF: CURVAS QUE LLENAN EL ESPACIO Y EL CONJUNTO DE BESICOVITCH

Alvarado Garduño Omar, Instituto Politécnico Nacional. Morales Jimenez Rafael, Universidad de Colima. Zárate Zavala Luis Uriel, Universidad de Guadalajara. Asesor: Dr. Sofía Ortega Castillo, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio de las matemáticas se inició con la geometría, y la geometría la entendemos como la ciencia que estudia los objetos geométricos; es decir, objetos que podemos medir.  Cuando uno piensa en medir lo más natural en el plano es tomar dos puntos y calcular la distancia entre estos puntos. Si estamos en una esfera tomamos la distancia mínima de los arcos que unen dichos puntos. Así, sabemos de forma intuitiva como medir o calcular distancias en ciertos conjuntos, aunque, lo último no siempre sea sencillo. Con el paso del tiempo, gracias a A. Cauchy (1789-1857) y B. Riemann (1826-1866) fuimos capaces de formalizar está idea de medir, lo cual nos ayudó a resolver el problema de calcular distancias sobre conjuntos más complicados que una esfera o un plano. Sin embargo, está integral tenía varios defectos; por ejemplo, ciertos subconjuntos de conjuntos con integral nula no son necesariamente integrables. Este y otros problemas se llegaron a resolver con la medida de Lebesgue.   Sin embargo, un estudio más profundo de las propiedades geométricas de ciertos conjuntos muchas veces requiere del análisis de su "masa" más allá de lo que se puede obtener en términos de la medida de Lebesgue. Es aquí donde la medida de Hausdorff con la noción de dimensión (que puede ser fraccionada) y su medida asociada juegan un rol crucial. Recientemente la medida de Hausdorff ha tenido un gran incremento en la importancia dentro de las ciencias. Mandelbrot fue de los primeros en deducir su uso en modelos de distintas áreas de estudio; algunas de sus aplicaciones son, por ejemplo, el movimiento Browniano de partículas, turbulencia en fluidos, crecimiento de las plantas, la distribución de las galaxias en el universo, e incluso la fluctuación del precio en el mercado de valores. En 1890 Giuseppe Peano construyó una curva continua que llena completamente un cuadrado en el plano como contraejemplo de que una curva continua no puede ser encerrada en una región arbitrariamente pequeña. Este fue un ejemplo temprano de lo que hpy se conoce como fractal.  En 1917 Besicovitch mientras trabajaba en problemas de integración de Riemann se encontro con la pregunta: ¿existe algún conjunto compacto que contenga un segmento de línea en cada de dirección tal que su medida de Lebesgue sea cero? Después, en 1919 logró construir dicho conjunto el cual conocemos como "el conjunto de Besicovitch" Existe una condición de regularidad que satisfacen los subconjuntos medibles (con medida finita) en Rd cuando d>2.  Sin embargo, esta condición no se satisface para d=2 por la existencia del conjunto de Besicovitch. Esta condición está relacionada con la transformada de Radon. Esta se usa aquí para calcular la medida de conjuntos en Rd interceptados con ciertos planos en la medida natural sobre dicho plano. 



METODOLOGÍA

Primero estudiamos la medida de Lebesgue y la teoría de la medida general. Enseguida se estudió la teoría de la medida de Hausdorff, así como algunos conjuntos cuya dimensión es fraccionaria, entre estos se encuentra el conjunto de Cantor y la curva de Von Koch. Luego de esto se realizó la construcción de la curva de Peano, la cual es una curva que tiene varias propiedades particulares pero la más interesante es que es una curva que llena por completo el cuadrado unitario en el plano. Para la construcción de esta curva se tuvieron que introducir los conceptos de intervalos cuarticos, cuadrados diádicos y correspondencia diádica y también se probaron varias propiedades de estos, las cual se necesitan para la construcción y prueba de las características de la curva de Peano. También, se estudió análisis de Fourier sobre el espacio de Schwartz para, después, extenderlo al espacio de funciones integrables, L1. Esto ayudó con el estudio de análisis de la transformada de Radón para funciones continuas de soporte compacto.  Se estudiaron también ciertas propiedades de la transformada de Radón para funciones sobre Rd con d>2 que serán cruciales para mostrar que cierta condición de regularidad para subconjuntos de Rd no se satisface cuando d=2. Para finalizar, gracias a esta condición de regularidad es posible comprobar la existencia de los conjuntos de Besicovitch, así como, la construcción de uno de ellos. Lo cual, realizamos haciendo uso del conjunto de Cantor.


CONCLUSIONES

Estudiamos la teoría de medida de Hausdorff, con la cual fuimos capaces de calcular la dimensión de Hausdorff para el conjunto de Cantor, el triángulo de Sierpinski y la curva de Von koch. Se comprobó que cada uno de estos conjuntos tienen asociados funciones de auto-similitud. Para el último conjunto usamos estás funciones para calcular su dimensión. También, realizamos animaciones de estos conjuntos con ayuda del lenguaje de programación java. La propiedad de auto-similitud es de gran ayuda al momento de calcular la dimensión de un conjunto, ya que en ciertos casos estas funciones y los conjuntos abiertos asociados tienen restricciones débiles, lo cual, las hace más fácil de encontrar. Al estudiar la curva de Peano nos dimos cuentas que las propiedades que estudiamos de esta curva coinciden con la teoria que desarrollamos sobre la medida. Además, de que corroboramos que esta curva efectivamente cubre al espacio, es decir, tiene dimensión de Hausdorff dos y medida positiva. La transformada de Radon resultó ser una herramienta natural para probar que la dimensión de los conjuntos de Besicovitch en el plano tienen dimensión dos, ya que cualquier segmento de longitud unitaria se puede pensar como un segmento perpendicular a algún vector en S1.  Así, también se construyó un conjunto de Besicovitch como rotaciones del conjunto de líneas que unen el conjunto de Cantor con disección un medio sobre el eje x y sobre la recta y=1 escalado un medio.
Alvarado González Luis Daniel, Instituto Tecnológico de Reynosa
Asesor: M.C. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey

CARACTERíSTICAS DE LA SEQUíA EN DIVERSAS ESCALAS DE TIEMPO EN EL SUROESTE DE COAHUILA Y NOROESTE DE DURANGO.


CARACTERíSTICAS DE LA SEQUíA EN DIVERSAS ESCALAS DE TIEMPO EN EL SUROESTE DE COAHUILA Y NOROESTE DE DURANGO.

Alvarado González Luis Daniel, Instituto Tecnológico de Reynosa. Asesor: M.C. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La sequía es uno de los fenómenos naturales más complejos y menos predecibles que afecta a un sinfín de personas, tiende a extenderse de manera irregular a través del tiempo y espacio, sus efectos son acumulativos y pueden permanecer aun después de la culminación del evento. La cantidad de lluvia en el norte de México representa menos del 40% de la precipitación total del país, según la CNA en base a los registros de esta área se determinó que la precipitación pluvial es muy variable, se presentan años con cantidades normales o abundantes seguidos por otros escasos. De acuerdo a datos recopilados de las décadas pasadas se ha identificado que las precipitaciones han sido inferiores al promedio histórico, por lo que la sequia requiere de una atención prioritaria. La mayor problemática que se presenta en este tipo de fenómenos es su irregularidad por lo que se analizaran detalladamente los datos obtenidos en campo de registros históricos pertenecientes a algunas áreas de Coahuila, Durango y zonas aledañas, con la finalidad de crear un mayor conocimiento sobre su duración, intensidad y distribución territorial, y a medida que este incremente será posible implementar acciones para mitigar los impactos asociados al fenómeno.



METODOLOGÍA

Se inicio por descargar la Hipsometría en unidades métricas del portal de Geo-información y posteriormente se ubicó y delimito una cuenca hidrográfica comprendida entre Durango y Coahuila, a las cuales pertenecen los siguientes acuíferos respectivamente, Vicente Suarez, Pedriceña-Velardeña, Villa Juárez, Oriente Aguanaval, Nazas y Ceballos a Durango y la Principal-Región Lagunera a Coahuila, con un área territorial total de 40599.29 Km2, en las cuales se ubicaron 75 estaciones climatológicas pertenecientes a esa respectiva área y zonas aledañas. Por medio del software Arcgis en una de sus extensiones llamada ArcMap, se procedió a identificar dichas estaciones, luego de esto se descargaron los registros históricos de precipitaciones mensuales con ayuda de la base de datos llamada Clicom, una vez recopiladas todas las estaciones se continuo con la organización de los datos para facilitar su análisis en futuras pruebas por realizar. Gracias software Google earth se obtuvieron las coordenadas geográficas x,y,z, exactas en UTM las cuales se utilizaron para determinar las distancias entre cada estación, luego se continuo con la obtención del coeficiente de correlación de momento del producto Pearson mediante los puntos de datos conocidos los cuales correspondieron a las estaciones que se encontraban cercanas unas a otras, y con la ayuda mutua de estas se realizó una regresión lineal con la cual se determinaron los valores faltantes debido a algún fallo técnico del equipo, ausencia del operador o cualquier otro inconveniente relacionado. Una vez teniendo completados los registros históricos de precipitaciones se determinaron las precipitaciones medias anuales a las cuales se le aplicaron tres pruebas de análisis estadísticos de ellas dos eran de homogeneidad por medio de secuencias y la prueba de Helmert, y la otra correspondía a los Limites de Anderson, los registros de las estaciones que aprobaron en su totalidad dichas pruebas mencionadas fueron aceptados para obtener sus correspondientes valores SPI en escalas de tres, seis y doce meses, con dichos valores obtenidos se realizaron graficas para determinar algunos comportamientos como la frecuencia, duración e intensidades de las precipitaciones correspondientes a cada estación. Después se determinaron los polígonos de Thiessen con ayuda del software Arcgis a los cuales se les calculo el SPI promedio de su respectiva área y posteriormente se obtuvieron las mismas características de precipitación, pero de manera más general.


CONCLUSIONES

El SPI permite evaluar los impactos asociados a la sequía en función de una escala de tiempo y permite establecer relaciones entre la sequía y ciertos fenómenos de distinta magnitud temporal. Una escala de tiempo de tres meses sería suficiente para relacionar el efecto de la sequía en la ocurrencia de eventos como incendios forestales y en la agricultura temporal. Por otro lado, a una escala mayor a seis meses permitiría evaluar el efecto del déficit de la lluvia. La sequía es un fenómeno natural impredecible por lo que es sumamente importante el desarrollo de información que pueda colaborar a la implementación de estrategias que reduzcan los impactos asociados por la misma.
Álvarez Cruz Luz Itzel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Yalia Divakara Mayya , Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CONDICIóN FíSICA DEL GAS IONIZADO EN NGC1569 USANDO DATOS DEL GTC/MEGARA


CONDICIóN FíSICA DEL GAS IONIZADO EN NGC1569 USANDO DATOS DEL GTC/MEGARA

Álvarez Cruz Luz Itzel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Yalia Divakara Mayya , Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

NGC1569 es una galaxia enana de forma irregular que cuenta con la presencia de dos cúmulos estelares masivos en su centro. Se ha mapeado la zona que abarcan estos dos cúmulos usando el instrumento MEGARA del Gran Telescopio Canarias es importante mencionar que la zona observada está llena de gas ionizado. Por lo que durante el trabajo de verano se analizaron los espectros de estas zonas para determinar parámetros físicos, tales como la temperatura electrónica, la densidad y abundancias de elementos comunes.



METODOLOGÍA

Al obtener la cantidad relativa de metales en el gas es posible determinar el pasado químico y la historia de formación estelar, para realizar este proceso es importante mencionar que se utilizan las líneas de emisión en el espectro óptico debido a que la temperatura de los electrones en el plasma nebular es del mismo orden que el de los fotones en el rango óptico; por lo tanto, para derivar las propiedades físicas, tales como la densidad y temperatura de los electrones, así como las abundancias de los iones de elementos comunes; se utilizó una metodología que permitiera analizar la emisión de línea óptica de un gas ionizado. Para realizar este proceso se deben realizar dos suposiciones básicas:  El gas ionizado se encuentra en equilibrio térmico y de ionización. Toda la emisión del gas ionizado está bien trazada por el espectro observado. El primer paso que se realizó fue medir el flujo de las diferentes líneas de emisión utilizando el programa IRAF con task splot, identificando manualmente las líneas. Con este, se obtuvo el valor de extinction correction que permitiera corregir los valores de las intensidades medidas. Para obtener este valor fue necesario obtener también c(Hß), es decir, la reddening constant que define la cantidad de extinción en la longitud de onda de Hß. Así, una vez obtenidos estos valores se obtiene la corrección de intensidades. Por último se procedió a medir la temperatura de los electrones en la zona de alta excitación, es decir, la más interna que corresponde a t([O III]). Esta estructura térmica puede ser obtenida por la medida de los flujos en sus líneas de emisión con la siguiente fórmula: Ro3 = [I(4959) + I(5007)] / I(4363) con lo que podemos obtener la temperatura de los electrones dada por t([O III]) = 0.7840 - 0.0001357Ro3 + (48.44/Ro3) en unidades de 104K.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de astrofísica, específicamente en regiones ionizadas, lo que permitió realizar análisis de los datos en las regiones observadas, obteniéndose un valor de c(Hß) = 1.70393141, un valor para Ro3 = 245.236, lo que nos proporciona un valor de t([O III]) = 0.9482455E10+4 K = 9482.455 K, que concuerdan con los valores esperados.
Alvarez Esquivel Linda Yaffeth, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Aldo Iván Ramírez Orozco, Instituto Tecnológico y de Estudios Superiores de Monterrey

ANáLISIS HISTóRICO DE LAS ENVOLVENTES DE GASTOS MáXIMOS EN MéXICO


ANáLISIS HISTóRICO DE LAS ENVOLVENTES DE GASTOS MáXIMOS EN MéXICO

Alva Aviles Yzack, Consejo Sudcaliforniano de Ciencia y Tecnología. Alvarez Esquivel Linda Yaffeth, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Aldo Iván Ramírez Orozco, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

El método de las envolventes nos permite tener una estimación gruesa de los gastos máximos que puedan ocurrir en determinada región. Este método ha encontrado cabida dentro de la hidrología superficial debido a que es efectivo al momento de proyectar obras hidráulicas, esto porque solamente toma en cuenta dos parámetros asociados con el escurrimiento superficial, estos son el área de la cuenca y el gasto máximo. La primer variable puede ser calculada con diversos métodos aunque, actualmente se cuentan con herramientas digitales que facilitan de gran manera esta acción. Además, el área se considera como la misma para todos los eventos de precipitación que ocurran, sin embargo no se descarta un cambio de este valor debido a factores provocados por la naturaleza misma o por el hombre. En cuanto a los gastos máximos estos son registrados por las estaciones hidrométricas que se encuentran situadas en sitios de interés como los son ríos o arroyos, cabe señalar que estas estaciones existen en las salidas de presas o en canales, para fines del análisis estas estaciones no brindan datos relevantes ya que no son precisamente escurrimientos debidos a una precipitación instantánea.  Teniendo como datos a estas dos variables podemos obtener coeficientes como lo son el de Lowry (CL), Creager (CC) y Francou-Rodier (k). Luego, obteniendo cada uno de estos coeficientes se puede trazar una envolvente que representa el gasto máximo unitario (q) por área (A). 



METODOLOGÍA

Se obtuvieron los datos de las estaciones hidrométricas de diversas fuentes, desde los primeros registros históricos, aproximadamente de 1905 hasta el 2010 fueron obtenidos de la plataforma de la Comisión Nacional del Agua (CONAGUA) denominado Banco Nacional de Datos de Aguas Superficiales o BANDAS, donde se obtuvieron los gastos máximos registrados por año de cada una de las estaciones. Los datos actualizados del 2000 hasta el 2018 de algunas de las estaciones, fueron proporcionados directamente de la Gerencia de Aguas Superficiales e Ingeniería en Ríos (GASIR), departamento de la CONAGUA. Una vez teniendo la base de datos completa, se realizó un filtro de las estaciones que no tenían la información suficiente para obtener su evolución histórica, en algunas regiones no se encontraron registros, por lo que tambien se descartaron.   Se obtuvo su envolvente por zona, es decir, por regionalización, en este caso se hizo por región hidrólogica, para ello obtuvimos su gasto unitario. Sin embargo se encontraron datos dónde las estaciones no contaban con un área, la cual es necesaria. Se obtuvieron el área de dichas subcuencas en base a la localización geográfica de la estación mediante la plataforma SIATL del Instituto Nacional de Estadística y Geografía (INEGI) , la cual es un simulador de flujos de agua y cuenta con herramientas necesarias para poder realizar una estimación de este tipo de datos. Una vez teniendo el gasto unitario, mediante un despeje, se procedió a obtener los coeficientes de Lowry, Creager y Francou-Rodier, de cada uno de los gastos máximos de las estaciones por cada región hidrólogica.  Se graficaron los valores mediante puntos, para poder trazar la envolvente de cada uno de los coeficientes y poder observar la manera en la que se comportan los datos, los ejes deben estar en escala logarítmica, debido a que esta función es la que tiene mas semejanza al comportamiento de los datos hidrólógicos. Este procedimiento se realizó con cada región hidrólogica y posteriormente se realiza la envolvente nacional de México.  A continuación, se comenzó con la evolución histórica de los coeficientes, para ello, se obtuvieron los coeficientes de Lowry, Creager y Francou-Rodier, de cada gasto máximo que se tiene registro, desde 1905 hasta 2018 de cada región hidrológica. Por lo que, el coeficiente obtenido se mantuvo en los demás años, hasta que hubiera un año en el que el gasto fuera mayor, tal que provocara que dicho coeficiente aumentara. Esto se hizo para poder observar mediante una gráfica, los años en los que se presentaron los mayores saltos en cada uno de los coeficientes, para posteriormente poder analizar, dichos años y poder relacionar si este incremento fue debido a una gran avenida o algun otro fenómeno natural.  Por ultimo, se realizaron mapas con el programa QGIS, se hicieron tres mapas, uno para cada coeficiente, para poder ver el coeficiente de cada una de las regiones hidrólogicas hasta el año 2018. También se hicieron mapas por lustro y década, desde su primer registro en 1905  hasta el 2018, para ver la manera en la que estos coeficientes han ido cambiado en cada una de las regiones.    


CONCLUSIONES

Se observó que en algunas regiones hubo un cambio en las envolventes, es decir, estas se desplazaron lo que indica que en algún año reciente ocurrió un evento de tal magnitud que aumentó los coeficientes señalados. Cabe mencionar que la evolución de cada coeficiente es similar ya que los tres tienen un comportamiento logarítmico por lo que su evolución es muy parecida. Es importante hacer este tipo de análisis debido a que con este método de las envolventes se puede obtener una estimación rápida del gasto máximo que pueda ocurrir, si bien no son métodos exactos que no serán los que dicten finalmente los cálculos de cualquier obra hidráulica, si nos pueden dar una idea del dimensionamiento de estas.  También, se observó que en la República Mexicana se cuenta con pocas estaciones hidrométricas. Esto se puede asegurar con el hecho de que existen en operación las mismas que en las décadas de los sesenta y setenta. Además, hay regiones que están completamente en el olvido, estas son principalmente los extremos del país, o sea la península de Baja California y la península de Yucatán. Es cierto que son las regiones en donde se presenta menos escurrimiento y que los eventos de precipitación son principalmente los provocados por fenómenos meteorológicos como los huracanes o tormentas tropicales, pero aún así es necesario tener datos de estas regiones para conocer el comportamiento que tendrían en caso de una avenida importante.  
Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara
Asesor: Dr. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)

CARACTERIZACIóN DE GUíAS DE ONDA óPTICAS.


CARACTERIZACIóN DE GUíAS DE ONDA óPTICAS.

Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara. Pacheco Castro Santiago, Instituto Tecnológico de Los Mochis. Asesor: Dr. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La óptica integrada consiste en la generación de componentes de tamaños muy reducidos los cuales permiten transmitir información por medio de señales luminosas. Esta rama brinda una alternativa para los componentes electrónicos comunmente usados hasta el día de hoy; con la óptica integrada se transporta información a través de fotones mediante un haz de luz en lugar de electrones como es el caso de los circuitos electrónicos. Uno de los métodos que la óptica ha desarrollado para manipular haces de luz es la creación de pequeños canales dentro de vidrios y cristales los cuales emplean distintos índices de refracción en su interior para así poder llevar una onda electromagnética de un punto a otro a según sea requerido. El proyecto de investigación consiste en hacer una caracterización de guías de onda ópticas en diferentes tipos de materiales, algunos de ellos dopados con tierras raras. El objetivo principal es observar la forma en que las ondas electromagnéticas se propagan a través de los sustratos, analizando a su vez los tipos de pérdidas que pudieran presentarse y cómo influyen los materiales o las técnicas con las que las guías de onda fueron generadas.



METODOLOGÍA

Para llevar a cabo el proyecto de investigación fue necesario hacer mediciones de las diferentes propiedades de las guías de onda encontradas en diversos sustratos que fueron proporcionados por el asesor. Cada medición requirió de un procedimiento específico y un arreglo experimental distinto. Durante el desarrollo de la investigación se hicieron mediciones de los modos de propagación de las guías de onda, así como sus pérdidas de intensidad, su relación con los cambios de índices de refracción y las diferencias generadas según las propiedades del sustrato en el cual fueron fabricadas. Todas las mediciones fueron llevadas a cabo con equipos especiales de medición dentro de los laboratorios del Centro de Investigaciones en Óptica, y los resultados fueron procesados y analizados para posteriormente obtener las conclusiones correspondientes.


CONCLUSIONES

Durante el proceso de investigación fue posible observar de cerca el comportamiento de los diferentes componentes ópticos que conforman la óptica integrada, específicamente con el uso de las guías de onda ópticas. Con la información recabada a través de los experimentos realizados fue posible lograr la caracterización de las guías de onda con las que se trabajó durante el proyecto. Se pudo hacer una valoración de sus diferentes características y funcionalidades para poder comprender su comportamiento. Algunos resultados relevantes obtenidos de este proyecto fueron los tamaños de los modos de las guías de onda, los cuales fueron en promedio de 11, 14 y 21 micrómetros, lo cual corresponde con los tamaños de fabricación prestablecidos para los tres diferentes tipos de guías grabadas en las muestras utilizadas. Además, se obtuvo que al incidir el haz de luz en las guías de onda es posible observar pérdidas de alrededor de 22.06 dB/cm. Finalmente, con ayuda de equipo especializado y una simulación de software se vio que dentro de las guía de onda ópticas existen pequeños cambios de índice de refracción, cerca de 2.18E-03 en su mejor aproximación, los cuales son la razón por la cual las guías de onda funcionan como canales de paso para los haces de luz incidentes. Con este proyecto de investigación se observó la importancia de las diferentes funcionalidades y posibles aplicaciones de las guías de onda ópticas y de la óptica integrada en general.
Angulo Valdez Camila, Universidad Autónoma de Sinaloa
Asesor: Dr. Jorge K. Barrera Ballesteros, Universidad Nacional Autónoma de México

FOTOMETRíA EN EL UV PARA GALAXIAS CON DATOS DE ESPECTROSCOPíA DE CAMPO INTEGRAL DE MUSE


FOTOMETRíA EN EL UV PARA GALAXIAS CON DATOS DE ESPECTROSCOPíA DE CAMPO INTEGRAL DE MUSE

Angulo Valdez Camila, Universidad Autónoma de Sinaloa. Asesor: Dr. Jorge K. Barrera Ballesteros, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Las observaciones astronómicas en el rango óptico del espectro electromagnético comúnmente se dividen en fotometría y espectroscopía. La fotometría cubre un campo de visión amplio con buena resolución espacial pero no obtiene información espectral sobre el objeto observado. En cambio, la espectroscopía obtiene información espectral pero la resolución espacial se pierde parcial o totalmente, dependiendo del método utilizado para realizar las observaciones.  El instrumento MUSE, un espectrógrafo de campo integral desarrollado por la ESO y actualmente instalado en el Very Large Telescope (VLT) combina un campo de visión amplio con un largo rango espectral, permitiendo obtener espectros a lo largo de la extensión óptica de galaxias enteras sin perder resolución espacial.  El problema surge al querer estudiar características que sólo son observables en longitudes de onda fuera del rango en el que opera MUSE (480-930 nm). Para estudiar formación estelar y las propiedades del continuo ionizante en regiones de formación estelar, como se hizo en este proyecto, es necesario observar  en longitudes de onda ultravioleta (122-400 nm), por tal razón es necesario complementar las observaciones de MUSE con las de otro telescopio que opere en el UV.



METODOLOGÍA

Se tomó una lista de los nombres y coordenadas de 571 galaxias que fueron previamente observadas con MUSE y, mediante sus coordenadas, se buscó si habían observaciones realizadas de las mismas con el telescopio GALEX (Galaxy Evolution Explorer), que observa en UV. La búsqueda se realizó en la base de datos MAST, donde se obtuvieron las imágenes FITS de cada  galaxia en el ultravioleta cercano y lejano (Near UV y Far UV, respectivamente) que posteriormente fueron recortadas para obtener una imagen centrada en la galaxia.  Para la descarga de imágenes FITS se utilizó un software realizado en Python proporcionado por la investigadora Sandra Zamora Arenal en la Universidad de Madrid, España, el cual tuvo que ser modificado para que leyera un listado de las coordenadas correspondientes a cada una de las 572 galaxias e hiciera la descarga automática de las FITS, para que realizara la búsqueda en otros catálogos además del New General Catalogue (NGC) y exclusivamente en la base de datos de GALEX. El programa, a partir de las FITS obtenidas, creaba dos imágenes ‘PNG’ centradas en la galaxia que indican la intensidad en cuentas por segundo (counts/sec) de cada pixel en dos longitudes de onda diferentes: ultravioleta cercano (Near UV) y ultravioleta lejano (Far UV).  Con dichas imágenes se creó una tabla en LATEX que enlistaba cuatro imágenes por galaxia, dos obtenidas con MUSE: RGB e Elines (líneas de emisión); y las imágenes mencionadas anteriormente obtenidas por el programa. 


CONCLUSIONES

Al final de la descarga, se determinó que de las 571 galaxias observadas por MUSE, 456 habían sido observadas por GALEX, de las cuales 439 tenían observaciones en UV cercano y lejano, y 17 galaxias sólo tenían observaciones en el UV cercano. También se realizó una tabla comparativa entre las imágenes de MUSE y las imágenes ‘PNG’ en UV cercano y lejano que obtenía el programa.  Una comparación más detallada entre los datos de MUSE y los datos de GALEX debe ser realizada para poder obtener información completa sobre lo fenómenos que ocurren a longitudes de onda que MUSE no puede detectar, para lo cual se deben re-centrar las imágenes de GALEX y sobreponerlas en las imágenes de MUSE para realizar el análisis correspondiente pero debido a la duración de la estancia esto no pudo ser realizado. Esto permitirá determinar las propiedades de la población estelar en aquellas regiones donde el continuo de estrellas jóvenes ionizan el medio interestelar. Dicho trabajo se convertirá en el cartografiado más grande de poblaciones estelares espacialmente resueltas.
Apolinar Hernandez Jesus Efrain, Universidad Veracruzana
Asesor: Dr. Luis Alberto Toro Carvajal, Universidad Autónoma de Manizales (Colombia)

CORRECCIÓN DEL PREDISEÑO DE UN INTERCAMBIADOR DE CALOR DE CORAZA Y TUBOS POR EL MÉTODO BELL-DELAWARE


CORRECCIÓN DEL PREDISEÑO DE UN INTERCAMBIADOR DE CALOR DE CORAZA Y TUBOS POR EL MÉTODO BELL-DELAWARE

Apolinar Hernandez Jesus Efrain, Universidad Veracruzana. Asesor: Dr. Luis Alberto Toro Carvajal, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Saber manipular las variables de operación en la industria es de mucha importancia debido a que podríamos operar un equipo como un intercambiador de calor sin riesgos de perturbar el proceso de forma negativa. En México y Colombia, los estudios de pregrado de ingeniería química abarcan la metodología de D. Kern o Bell-Delaware, los cuales son procesos relativamente largos para su solución analítica lo que impide evidenciar las consecuencias de una variable de operación en el proceso. Por esta razón, se planteó hacer la revisión y corrección cuidadosa de un programa en Matlab que automatiza ambos métodos para poder manipular las variables de entrada que ayuden a los alumnos de pregrado de estos países a analizar los datos obtenidos de una forma más rápida y eficiente.



METODOLOGÍA

Balance de calor Dimensionar el equipo Obtener el coeficiente Masa-velocidad  Obtener número de Reynolds Cálculo del coeficiente de transferencia de calor Cálculo del factor de obstrucción  Cálculo del coeficiente de transferencia de calor global  Cálculo de la caída de presión  


CONCLUSIONES

En el método de Bell-Delaware el coeficiente de transferencia de calor del lado de la coraza de calcula utilizando correlaciones obtenidas por el banco de tubos considerando que todo el caudal que circula por la coraza atraviesa el banco de tubos, por eso la diferencia de presiones en ambas difiere. El patrón de flujo en la coraza de un intercambiador se ve modificado por los orificios de los bafles en el ensamble del intercambiador. Esas fugas reducen el área efectiva y por lo tanto la caída de presión por el lado de la coraza. Y es un análisis que no se realiza en el Kern. Los resultados comparados son una aproximación de la realidad, y dependerá de que tan exacto y preciso sea al momento de leer los datos en las gráficas y los monogramas del método del Kern, o lo robusta que puedan llegar a ser las correlaciones del método Bell-Delaware.
Arias Zepeda Cristian, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Satu Elisa Schaeffer , Universidad Autónoma de Nuevo León

RECONOCIMIENTO DE ESPECIES ARBOREAS MEDIANTE DRONES FORESTALES


RECONOCIMIENTO DE ESPECIES ARBOREAS MEDIANTE DRONES FORESTALES

Arias Zepeda Cristian, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Satu Elisa Schaeffer , Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Los inventarios forestales son un método de recolección y registro de especies arbóreas, por medio de pequeñas parcelas de muestreo. Estos nos permiten realizar de forma ordenada las operaciones de extracción forestal, y con esto, es posible prever un aprovechamiento oportuno, y mayor beneficio económico. La manera tradicional de realizarlos es mediante brigadas de varias personas, las cuales se les asigna un rol correspondiente, y con anotaciones e instrumentos de medición, determinan cuantas especies hay en cada porción de parcela. Se desea estudiar un método alterno de identificación de especies, usando drones como herramienta principal, y elaborando un software capaz de identificar a que familia pertenece cada árbol.



METODOLOGÍA

Se tomaron una serie de fotografías usando drones forestales en la región de Monterrey, y se almacenaron para su posterior uso, se inicio el proceso de creación del algoritmo de reconocimiento clasificador, el cual tiene el propósito de recortar en determinado tamaño la serie de imágenes, a continuación, se continuo con un algoritmo capaz de recortar en determinada orientación y determinado tamaño, esto con el fin de extraer los datos en un DataSet. El DataSet, contiene la información que nos será útil para identificar un árbol de otro, las fotografías actuales consisten en tomas áreas de las regiones de 'cilandrillo' y 'trinidad', de ellas se obtienen los valores más importantes, como lo son la textura base dentro de cada pixel, y su posible tamaño. Con la unión del algoritmo y las imágenes tratadas como DataSet, se pretende poder detectar si un árbol pertenece a cierta especie, y cual es su tamaño posible en el área de estudio.


CONCLUSIONES

Se debe seguir trabajando en el algoritmo para que logre detectar de forma precisa las especie y tamaños de árboles de la imagen, esto con el fin de aplicarlo a inventarios forestales, y ayudar a diversas instituciones y facultades en la región de estudio, que es Monterrey. De igual manera se deberá trabajar en la toma de fotografías y cualidades de arboles que nos ayuden a mejorar el resultado final, una vez hecho esto, se pretende expandir el nivel de reconocimiento a especies poco dominantes, o diferentes árboles de la misma familia.
Armenta García Carlos Gabriel, Universidad de Sonora
Asesor: Dr. Augusto Antonio Rodríguez Díaz, Universidad Nacional Autónoma de México

ASOCIACIONES MINERALES DE ALTERACIóN PARA LA EXPLORACIóN GEOTéRMICA DE LA REGIóN CENTRO-NORTE DEL SISTEMA GEOTéRMICO DE ACOCULCO


ASOCIACIONES MINERALES DE ALTERACIóN PARA LA EXPLORACIóN GEOTéRMICA DE LA REGIóN CENTRO-NORTE DEL SISTEMA GEOTéRMICO DE ACOCULCO

Armenta García Carlos Gabriel, Universidad de Sonora. Asesor: Dr. Augusto Antonio Rodríguez Díaz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El uso excesivo de los hidrocarburos como fuente de energía ha traído graves problemas a tanto a la sociedad como al medio ambiente, esto ha motivado a la búsqueda de recursos energéticos sostenibles como fuentes de energía alternativas, dentro de ellas por su nivel de producción y constancia está la geotermia. La energía geotérmica se produce gracias al vapor derivado del calor interno de la Tierra que sale a la superficie a través de fracturas, debido a las altas presiones que emerge el vapor, es posible accionar turbinas por las cuales se genera energía eléctrica a costos relativamente bajos. El gran potencial de México para producir está energía es alto, considerando su geología y contextos tectónicos activos (Prol-Ledesma y Morán-Zenteno, 2018), debido a este escenario natural y al impulso que se le ha dado a esta industria se han explorado varios sistemas geotérmicos con potencial energético (Hiriart., 2011). Tal es el caso del sistema geotérmico de Acoculco el cual se ubica en el estado de Puebla, a 85 km al noreste de la Ciudad de Puebla y 180 km de la Ciudad de México. El área, que abarca una superficie de 1290 km2 ( López-Hernández et al., 2009; Viggiano-Guerra et al., 2011; Canet et al., 2014). Debido al elevado costo de perforación se debe tener un rigoroso control tanto geológico, mineralógico (alteraciones), estructural, como del material al que se está perforando y geofísico, por lo que un estudio detallado para la exploración es vital.



METODOLOGÍA

A través de campañas de campo, mapeo y muestreo detallado se ubicaron zonas con manifestaciones activas y regiones con alteración en la región centro y norte del sistema geotérmico de Acoculco. Se analizaron 85 muestras de distintos puntos estratégicos mediante la espectroscopía de infrarrojo cercano (SWIR por sus siglas en inglés Short-wave infrared), la técnica consiste en irradiar a la muestra, que por procesos de absorción y reflectancia energética en los componentes dentro de los minerales que constituyen la roca, la energía emitida por esta interacción puede generar un espectro de reflectancia haciendo énfasis en sus picos para determinar mediante una base de datos de que mineral se trata (Thompson et al., 1999). La técnica aplicada a muestras alteradas fue utilizando un espectroradiometro de la marca Orexpress modelo SM-3500. El cual cuenta con una pistola que al accionar el gatillo dispara el haz de luz a la muestra, el resultado de la interacción de la luz y la muestra es captado por un cable de fibra óptica, el cual está conectado al espectroradiometro, el cual a su vez está conectado con un computador, el cual procesa los datos captados. Posteriormente mediante los resultados obtenidos se genero una base de datos y diversos mapas de alteración utilizando el programa ArcMap versión 10.3.


CONCLUSIONES

Los minerales obtenidos en el estudio son: Caolinita, Alunita, Goethita, Montmorillonita, Buddingtonita, Amonio esmectita y Ópalo. Con base en los resultados se pueden concluir que el área presenta alteración de tipo argílica avanzada (Caolinita + Alunita + Ópalo), argílica (Montmorillonita + Budingtonita + Amonio esmectita) Silicificación (Ópalo + Montmorillonita) y oxidación (Goethita). Además, el sistema cuenta con sinter silícicos. Se concluye que las áreas con mayor potencial para exploración geotérmica a detalle son Alcaparrosas y Agua salada, la primera debido a que presentan los minerales de alteración indicadores (alunita, caolinita y budingtonita), producto de la interacción de fluidos de carácter ácidos ricos en CO2 y en la segunda localidad interacción con fluidos neutros sódico-clorurados por la presencia de ópalo presente en depósitos de sinter. Ambos prospectos son adecuados para una exploración más a detalle mediante estudios de perforación de gradiente.
Arreola Rentería Mario Francisco, Universidad de Guadalajara
Asesor: Dr. Ricardo López Esparza, Universidad de Sonora

EFECTO DE LOS IONES EN LA CONDUCTIVIDAD DE LAS MICELAS DE SDS


EFECTO DE LOS IONES EN LA CONDUCTIVIDAD DE LAS MICELAS DE SDS

Arreola Rentería Mario Francisco, Universidad de Guadalajara. Asesor: Dr. Ricardo López Esparza, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El SDS es un una molecula anfifilica capaz de ensamblarse en micelas, las cuales sirven como modelo de membrana celular. Lo que se busca usando este modelo es entender la repercusión que tiene la presencia de una membrana semipermiable en la conductividad de un medio acuoso.



METODOLOGÍA

Se estudió la conductividad del agua en presencia de distintas concentraciones de SDS y realizando un regresión linear para antes y después de alcanzar la concentración micelar crítica. Se registró la conductividad de agua a diferentes concentraciones de NaCl. Se compararon los registros entre si y ante un marco teórico.


CONCLUSIONES

Las membranas celulares indudablemente reducen la conductividad del medio en el que de encuentran, pero la presencia de membranas sin estructuras adicionales la reducen mucho más. Con esto entendemos que para que una neurona posea las cualidades eléctricas necesarias para su funcionamiento es necesaria la regulación de los contenidos ionicos de ambos medios y no solo su aislamiento
Avila Pulido Jesús, Universidad Veracruzana
Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla

CONSTRUCCIóN, EVALUACIóN Y CARACTERIZACIóN DE UN DETECTORE DE PLáSTICO CENTELLADOR BC404


CONSTRUCCIóN, EVALUACIóN Y CARACTERIZACIóN DE UN DETECTORE DE PLáSTICO CENTELLADOR BC404

Avila Pulido Jesús, Universidad Veracruzana. Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Algunos materiales, al ser expuestos a radiación ionizante o partículas, emiten cierta cantidad de fotones. La radiación o las partículas excitan un gran número de átomos y, al volver a su estado fundamental, emiten fotones. En algunos materiales la conversión de energía de excitación a luz es eficiente, a este tipo de materiales se les conoce como centelladores. Un detector centellador cuenta con un material de este tipo como transductor, transforma la radiación en fotones. Se agrega un fotodetector que convierte la luz de centelleo en una señal eléctrica procesable. Un centellador plástico es un tipo de centellador orgánico. Estos compuestos tienen orbitales moleculares donde los electrones no se encuentran asociados a un átomo en particular. La luz de centelleo se genera por transiciones entre niveles de energía de electrones de valencia. Los plásticos centelladores se utilizan en experimentos de física de altas energías, como en los aceleradores de partículas. El grupo MEXnICA propone la construcción de un Beam-Beam Counter Detector (BEBE) en el MPD (Multi Purpose Detector) de NICA (Nuclotron-based ion collider facility). BEBE consiste en dos detectores de hodoscopio (instrumento usado en la detección de partículas cargadas y determinar su trayectoria) localizados a 2 metros del punto de interacción de MPD-NICA, en lugares opuestos, BEBE-1 y BEBE-2. Cada detector compuesto por un arreglo de 162 hexágonos de plástico centellador, agrupados en seis anillos concéntricos. El objetivo del verano de investigación es construir, evaluar y caracterizar un detector de plástico centellador BC404.



METODOLOGÍA

Se comenzó con el pulido de los plásticos centelladores (BC404). El procedimiento es el siguiente: Lijar el centellador previamente humedecido. Movimientos circulares para que el lijado sea uniforme. Esto se realiza para quitar las marcas de la maquiladora que traen los centelladores (a un centellador sin lijar se le notan una serie de círculos en cada lado) y hacerlos más transparentes. Pasarle al centellador una buena cantidad de pasta con ayuda de un algodón. Movimientos circulares con dos dedos. Esto se realiza para quitarle los rayones causados por la lija. Usar guantes. Aplicar a un algodón un poco de alcohol y frotar el centellador contra éste, realizando movimientos circulares con el pulgar. Esto quita los residuos de la pasta y hace que el centellador se vea más transparente. Posteriormente se forraron los plásticos centelladores, para ello se realizó un molde. Primero se forra con una capa de Mylar (parece papel aluminio, película de poliéster transparente y flexible; funciona como una especie de espejo donde se reflejan los fotones capturados), se utilizó cinta adhesiva para pegar las pestañas; luego se ponen dos capas de Tyvek (papel opaco, hace que no entre luz al detector) siguiendo el mismo molde elaborado. Para la evaluación y caracterización, dos de ellos se acoplaron a dos fotosensores (fotomultiplicador de silicio, SiPM). Se colocaron uno arriba del otro dentro de una caja (para que no les entrara luz exterior) Luego se recopilaron datos de rayos cósmicos con ayuda de un osciloscopio, una CFD (constant fraction discriminator, dispositivo de procesamiento de señales, imita la operación matemática de encontrar el máximo de un pulso al encontrar el cero de la pendiente), y una unidad de coincidencia. Interesan los eventos donde las partículas atraviesen los dos detectores y se obtengan las señales respectivas en el osciloscopio, las coincidencias. Después, se analizaron los datos obtenidos mediante ROOT Data Analysys Framework, para obtener la resolución temporal de los detectores. Posteriormente, se agregó un TDC (Time-to-digital converter), se volvió a calcular la resolución temporal. Finalmente, se compararon los resultados con los obtenidos por el equipo de simulación (también participantes en el programa Delfín).


CONCLUSIONES

La resolución temporal obtenida para el detector con un plástico centellador BC404 fue de 12.82pS (sin TDC) con una incertidumbre de 0.46pS. Durante la estancia de verano se lograron adquirir conocimientos teóricos de la física de altas energías, rayos cósmicos, funcionamiento de detectores y simulación. Se aprendió a utilizar diversos aparatos, a recopilar datos y analizarlos mediante software especializado (ROOT Data Analysys Framework). Se obtuvieron conocimientos acerca de la investigación en física experimental de altas energías. Se realizaron otras actividades, incluyendo la visita a las instalaciones de la facultad de física de la BUAP y una visita al HAWC y al GTM. Se participó en la realización de simulaciones de los detectores de plástico centellador.
Aviles Cardos Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León

PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACIóN, TRATAMIENTOS POST-DEPóSITO Y CARACTERIZACIóN)


PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACIóN, TRATAMIENTOS POST-DEPóSITO Y CARACTERIZACIóN)

Aviles Cardos Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología. Gijón Vázquez Mildred Valeria, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Gonzalez Soria Rodolfo, Instituto Tecnológico Superior Purépecha. Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La energía es indispensable en nuestra vida cotidiana, y el Sol es una fuente de luz y energía esencial en el desarrollo de nuestra vida y de todo ser vivo en nuestro planeta. Por medio de los rayos solares podemos obtener la energía suficiente para el funcionamiento de los aparatos electrónicos que se pueden encontrar dentro de la Institución y en ésta ocasión se podría alimentar también sistemas de iluminación, de una manera favorable al medioambiente.



METODOLOGÍA

Para la técnica de depósito de películas por baño químico, uno de los requisitos es que los sustratos en los que se depositarán las películas estén completamente limpios y sin impurezas que puedan afectar el resultado final del experimento y se adhiera de forma correcta la solución a los sustratos. Se realiza la limpieza de los sustratos, con jabón neutro  y agua,  de modo que estos queden limpios. Secando los sustratos con una secadora para eliminar toda humedad que conserven los sustratos. Hecho todo esto los sustratos deberán quedar totalmente transparentes y sin manchas visibles. Para la preparación solución para el baño químico son necesarios los siguientes reactivos: 1 gr. de SnCl22H2O y Disolver en 5 ml. de Acetona SnCl22H2O. Disolver la sal con la acetona por completo antes de agregar los siguientes reactivos. 12 ml. de (TEA) al 50%, 65 ml. de  destilado, 8 ml. de (TA) 1 mol y 10 ml. de Hidróxido de amonio (acuoso) 4 mol. Los reactivos deben ser agregados uno a uno y en el orden en el que están descritos. Una vez preparada la solución que se utilizara, los sustratos ya limpios se acomodaran en un vaso de precipitado de 100 ml, se acomodaran 6 sustratos por cada vaso de precipitado, los sustratos se tendrán que acomodar de una manera en la que queden ligeramente inclinados, ya que la cara del sustrato donde se depositara será la cara de abajo. Se utilizará una máquina para baños de recirculación PolyScience la cual se programará a 40º y se esperara a que la temperatura del interior llegue a la deseada, una vez alcanzada la temperatura se introducirán los vasos de precipitados con los sustratos a la máquina y se tapara. Los tiempos de baño serán de 8h y 17h, se harán 6 muestras de 8h y 6 muestras de 17h. Una vez transcurrido y terminado el tiempo de baño, las muestras se sacarán, se lavarán con agua destilada y se secaran con aire frio. Cuando las muestras estén secas, se tomarán y con un paño con alcohol por el lado donde no hay película depositada se limpiara, cuidando siempre el lado donde hay película depositas. Cabe destacar que desde este paso en adelante es bueno tener siempre identificadas las muestras para que posteriormente no se revuelvan, se recomienda no marcar las muestras con plumón o pincel ya que algunos procesos futuros podrían borrarlos. Ya listas las películas de sulfuro de estaño lo siguiente es doparlas con cobre, para esto se utilizará la maquina (nombre de la maquina). Las muestras se pondrán en un disco el cual se encuentra en el interior, se colocarán con la película hacia la parte de arriba y una vez las muestras colocadas, la puerta se cerrará y se sellará al vacío a un valor de, la maquina empezará a evaporar el cobre, esto se logrará gracias a la corriente y el voltaje que la maquina aplica al cobre para fundirlo. Una vez realizado el dopaje de cobre las muestras se hornearán. El horno de vacío que se implementó para este proceso fue un TM Vacuum products V/IG-803-14, su temperatura con la que se puede trabajar, va desde la temperatura ambiente hasta los 400°C, e incorporando cualquier grado de ambiente de vacío desde la atmósfera hasta 10 -8 torr. Los hornos de vacío de la serie V / IG tienen una cámara que tiene un diseño de "pared caliente", que permite la utilización completa del interior de la cámara de vacío, maximizando la capacidad de carga. Los hornos de vacío mantienen una temperatura de procesamiento estable en el interior de la cámara en todo momento, también ofrece ofrecen válvulas estándar de llenado y ventilación de gas inerte que permiten varios tipos de procesamiento de piezas utilizando un entorno de relleno de gas. Con el PLC de pantalla táctil estándar, el funcionamiento del sistema está completamente automatizado con el registro de datos de los parámetros del proceso. Al tener las películas ya colocadas en las placas Petri, se registrará su ubicación dentro del horno para así evitar confusiones debido a las altas temperaturas que se manejaran y esto hará que, si la película fue marcada con algún plumón de aceite, automáticamente la marca se evaporizara. Ya introducidas las muestras y verificar que la cámara este bien cerrada, se encenderá la bomba mecánica que producirá el vacío, y esperaremos hasta que la cámara llegue a un vacío de 10 -3 torr. Después se tendrá que fijar la temperatura del horneado que manejaremos a 300°C y 400°C con el display que se encuentra en el lado izquierda del horno. El factor tiempo correrá al llegar a la temperatura de 290°C y 390°C y al trascurrir una hora, se apagará el horno y las películas se extraerán hasta que el horno llegue a una temperatura de 50°C y así evitar un choque térmico por la diferencia de temperaturas. El proceso de enfriado de la cámara tiene un lapso de 3 horas. CARACTERIZACIÓN Caracterizacion por SEM, Caracterización por Raman, Caracterización de propiedades ópticas y electricas y Caracterización por XPS.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos. Se puede concluir que, en el trabajo presentado, se obtuvieron resultados esperados según los tratamientos que se llevaron a cabo (tratamiento químico y térmico). La variación del tiempo y de la temperatura con la que se trataron las muestras, mostró cambios importantes en la estructura del SnS:Cu los cuales se pudieron observar con la caracterización en el SEM. Agradecemos previamente al programa Delfín y al Dr. David Avellaneda por habernos brindado esta oportunidad de vivir la experiencia en la investigación.
Aviles Pacheco Rodrigo, Universidad Autónoma de Guerrero
Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur

MAPEO DE DIVERSIDAD FUNCIONAL DE PECES óSEOS DE LA ISLA ESPíRITU SANTO, BAJA CALIFORNIA SUR, LA PAZ, PERIODO JULIO 2019


MAPEO DE DIVERSIDAD FUNCIONAL DE PECES óSEOS DE LA ISLA ESPíRITU SANTO, BAJA CALIFORNIA SUR, LA PAZ, PERIODO JULIO 2019

Aviles Pacheco Rodrigo, Universidad Autónoma de Guerrero. Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

La presente investigación nos mostrara la gran riqueza marina del Parque Natural Espíritu Santo, Estimar la biodiversidad mediante el número de especies o sus funciones ecológicas no es un problema eminentemente académico, refleja la necesidad de la sociedad por saber cuáles áreas tienen más especies, cómo se distribuyen, sus abundancias y qué efectos generan los cambios antrópicos como la fragmentación de comunidades o la pesca  Gracias a los Sistemas de Información Geográfica(SIG) podemos tener una vista más acertada de los principales atractivos que tiene la isla Espíritu Santo, esta misma está rodeada por otros islotes que son la Ballena, El Gallo, La Gallina, este complejo insular está formado por dos islas mayores, La Partida de 18.1325 km2, al norte y Espíritu Santo de 83.084 km2 la mayor y que da nombre al conjunto. El complejo insular es visitado con fines científicos y de investigación, su gran riqueza en biodiversidad marina la hace muy especial e interesante para los estudiantes de universidad o investigadores, con ello se planteó el objetivo de determinar la diversidad funcional de los organismos marinos que habitan en el Archipiélago de Espíritu Santo, Su aislamiento, origen volcánico, belleza escénica, especies de flora y fauna, los contrastes entre el mar y el desierto, cautivan intensamente a quien lo visita. La seductora tranquilidad de sus numerosas playas y lo prístino del entorno son sus principales atractivos,una de las estrategias comprendidas por el gobierno de México para promover la conservación de la biodiversidad del país y detener los procesos de deterioro que la amenazan son las áreas naturales protegidas, lo que indica que su ubicación, límites y extensión están claramente establecidos a través de un instrumento legal, y demarcados en el terreno, para conseguir la conservación a largo plazo de la naturaleza y de sus servicios ecosistémicos y sus valores culturales asociados. El Convenio sobre la Diversidad Biológica (CBD) define un área protegida como un área geográficamente definida que está designada o regulada y gestionada para lograr específicos objetivos de conservación. (ANP).  



METODOLOGÍA

se visitó el complejo insular durante las fechas 5,12 y 16 del presente año, la primera fecha fue un reconocimiento del aérea alrededor del complejo insular con el fin de trazar una logística y colocar los puntos donde el censo se llevaría a cabo, se decidieron oficial mente  siete puntos en la parte Oeste del complejo y juntado datos de antecedentes tres en la parte Este, uno en la parte Norte y uno en el Sur, en total fueron doce puntos alrededor de la isla, esto con el fin de tener una mejor interpolación, el Snorkel fue la base del conteo del área, se lanzó un transecto de forma recta del bote  a la isla  en cada punto se censaba durante diez minutos a las especies que se pudieran identificar, para poder identificar se anotaba en una tabla de acrílico submarina donde anotábamos rasgos comunes de los organismos que se observaban( color, forma de la cola, aletas, franjas, tamaño),para verificar las especies del censo se ocuparon dos fuentes de información la primera se utilizó el libro Reef Fish Identificación baja to panama, Paul Humann,Ned Deloach   el segundo una plataforma web Global Biodiversity Information Facility  gracias a estas fuentes de información se confirmó las especies y su zona  donde habitan. Una vez obtenidos los datos de cada punto en la isla se tomaban las coordenadas con el fin de tener un orden, los datos del censo  se organizaron en una tabla de Excel por columnas, posterior mente se organizaron y se colocaron en un software gratuito para el análisis de datos científicos, con funciones para la manipulación de datos, trazado, estadísticas univariadas y multivariadas, análisis ecológico, series de tiempo y análisis espacial, morfometría y estratigrafía llamado Past3 de esta forma obtuvimos varios índices de diversidad de los cuales se escogió el índice de Simpson esta  una fórmula que se utiliza para medir la diversidad de una comunidad. Comúnmente se usa para medir la biodiversidad, es decir, la diversidad de seres vivos en un lugar determinado. Una vez obtenidos los índices de diversidad de Simpson estos fueron nueva mente ordenados en una tabla de Excel se organizaron conforme al sitio, número de especies, índices de diversidad, coordenada geográfica, con esto se procedió a la introducirlos a un Sistema de Información Geográfica (SIG) se utilizó el software Arcmap para el procesamiento de datos, una ves introducido los datos las coordenadas geográficas WGS 84 Zona 12 N la cual pertenece al estado de Baja California Sur colocaron los puntos en sus respectivas lugares geográficos. Para interpolar se utilizó la herramienta de interpolación un algoritmo de interpolación mediante distancia inversa ponderada (IDW) determina los valores de celda a través de una combinación ponderada linealmente de un conjunto de puntos de muestra. La ponderación es una función de la distancia inversa.una vez obtenido el resultado se cartografió el área determinada y se interpretó en un mapa 


CONCLUSIONES

 Durante la estancia de verano se obtuvieron las técnicas y el conocimiento del importado de censado de diversidad de las zonas marinas, además de utilizar algunos softwares nuevos y lengua de programación con Rstudio, además de herramientas como el snorkel para mejorar los conocimientos de natación para uso de identificación de peces en los arrecifes, la elaboración de mapas con datos marinos son un avance y progreso para nuevos proyectos en el futuro, además de la identificación de peces por su nombre científico y la descarga de datos en páginas web internacionales reconocidas, el verano de investigación fue enriquecedor y útil para el comienzo de nuevas investigaciones científicas.
Bahena Arriaga Jalil, Universidad Autónoma de Guerrero
Asesor: Dr. Sonia Alejandra Torres Sanchez, Universidad Autónoma de San Luis Potosí

RESULTADOS PRELIMINARES SOBRE LA CARACTERIZACIÓN DE LAS ROCAS BASÁLTICAS DEL POZO DEL CARMEN, S.L.P., S.L.P.


RESULTADOS PRELIMINARES SOBRE LA CARACTERIZACIÓN DE LAS ROCAS BASÁLTICAS DEL POZO DEL CARMEN, S.L.P., S.L.P.

Bahena Arriaga Jalil, Universidad Autónoma de Guerrero. Asesor: Dr. Sonia Alejandra Torres Sanchez, Universidad Autónoma de San Luis Potosí



PLANTEAMIENTO DEL PROBLEMA

El área de estudio se encuentra ubicado en el estado de San Luis Potosí específicamente en la localidad de Pozo del Carmen. En este trabajo se busca obtener la caracterización petrológica de las rocas volcánicas las cuales pertenecen al campo volcánico Ventura con una edad cuaternaria.



METODOLOGÍA

Para ejecutar este estudio se realizó una descripción de muestras de mano y posteriormente se recurrió a la preparación de laminas delgadas para poder realizar las descripciones petrográficas de estas muestras y así poder corroborar lo que se aprecia en la muestra de mano y fortalecer la investigación


CONCLUSIONES

De tal manera que tales datos se puedan utilizar para la caracterización de las rocas del área y mas adelante poder entender la evolución de las mismas.
Bahena Ramírez Jannette, Universidad Autónoma de Guerrero
Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

APLICACIóN DE SONDEOS ELéCTRICOS VERTICALES (SEVS) PARA LA LOCALIZACIóN DE AGUA SUBTERRáNEA EN EL MUNICIPIO DE TEQUILA, JALISCO.


APLICACIóN DE SONDEOS ELéCTRICOS VERTICALES (SEVS) PARA LA LOCALIZACIóN DE AGUA SUBTERRáNEA EN EL MUNICIPIO DE TEQUILA, JALISCO.

Bahena Ramírez Jannette, Universidad Autónoma de Guerrero. Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente el manejo de los recursos hídricos debe ser más eficiente para el suministro de los requisitos de la agricultura, la industria y por supuesto de la población, ya que el aumento de ésta, demanda cada vez un mayor volumen de agua para abastecer y satisfacer sus necesidades, lo que conlleva a la búsqueda de nuevos mantos acuíferos para su futura explotación y la distribución de este importante líquido.  Los datos proporcionados para este estudio son del municipio de Tequila, en el Estado de Jalisco, que presenta una compleja problemática de agua, derivada ya sea de las variaciones en la precipitación o la competencia por dicho líquido. Debido a esto, es de suma importancia encontrar nuevas fuentes de agua para abastecer la demanda de este recurso, haciendo uso en este caso, de la exploración geofísica y la aplicación de Sondeos Eléctricos Verticales (SEVs).



METODOLOGÍA

La metodología empleada para la exploración geofísica de agua subterránea fue la aplicación de 7 SEVs con arreglo electródico Schlumberger distribuidos de manera estratégica y con una apertura de alas de 1500 m, para ello se contó con el Resistivímetro Syscal R2 que cuenta con dos consolas, una es el convertidor de corriente y la otra hace la función de emisor y receptor de corriente. Posterior al levantamiento de datos geofísicos, se procede al trabajo de gabinete en el cual se procesan los datos en tablas de Excel y se generan modelos 1D en el software geofísico 1X1D que permite enumerar las capas presentes en el subsuelo y poder caracterizar su configuración y así mismo poder obtener las resistividades y espesores reales para cada sondeo realizado.


CONCLUSIONES

De la presente investigación, se han logrado dar los primeros pasos en la exploración geoeléctrica, ya que en una etapa más avanzada (no realizada en mi estancia de verano), con ayuda de la geología regional y local del área es seguro que puede interpretarse y correlacionar los cortes geoeléctricos obtenidos para generar cortes geológicos que muestren más a detalle los horizontes rocosos que tengan el potencial de almacenar y transmitir el agua subterránea a través de pozos de extracción. Concretamente, la etapa final de dicha interpretación consiste en la correlación de cada uno de los modelos SEVs con la geología local, para lo cual se pueden preparar tablas de resistividad y posible tipo de material que representa o bien especificar geográficamente tipo de roca y rango de resistividades en vez de solamente numerar las capas.
Bahuman Moreida Jonathan Ricardo, Universidad Autónoma de Nayarit
Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima

ANáLISIS DE MODELOS MATEMáTICOS PARA EL COMPORTAMIENTO DE DOS MICROORGANISMOS EN UN PROCESO DE FERMENTACIóN.


ANáLISIS DE MODELOS MATEMáTICOS PARA EL COMPORTAMIENTO DE DOS MICROORGANISMOS EN UN PROCESO DE FERMENTACIóN.

Bahuman Moreida Jonathan Ricardo, Universidad Autónoma de Nayarit. Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

En los procesos de fermentación interactúan microorganismos que realizan cambios fisicoquímicos que hacen posible la producción de etanol. Los microorganismos interactúan con una sustancia llamada sustrato (Glucosa) que es su principal fuente de alimento  y  medio donde se desarrollan. Un ejemplo de este proceso es la fermentación de la savia de coco, este proceso de fermentación se ha venido manifestando durante el trascurso del tiempo y se le conoce como alimento fermentado tradicional. El proceso de fermentación  se ha trasmitida generación tras generación por nuestros ancestros como una costumbre, sin tomar en cuenta el comportamiento microbiano existente. La mayor problemática consiste en encontrar modelos matemáticos que nos permitan analizar la interacción  entre dos microorganismos en un proceso de fermentación.



METODOLOGÍA

Los microorganismos utilizan el proceso de fermentación como mecanismo para producir etanol.  Para describir el análisis de los microorganismos en el proceso de fermentación, se proponen cuatro modelos que describen el comportamiento microbiano en la producción de etanol.  Para el análisis de los cuatro modelos se hizo uso de las siguientes variables: X(t) , Z(t) , P(t) , M(t) , S(t) y G(t). Donde  X(t) y Z(t) son biomasa,  P(t)  y M(t)  es producto, S(t) sacarosa y  G(t) glucosa. Los términos que forman  los modelos son las siguientes: La ecuación µmax (S/ Ks+S) se utilizó para describir la tasa per cápita de crecimiento de la población.  Donde  µmax  es la tasa máxima de crecimiento y Ks es una constante de saturación.  -(1/Yxs)(dX/dt) Esta función nos permite determinar el consumo que realiza el microorganismo de sustrato o de la glucosa según sea el caso.  Vm  Es la tasa máxima de hidrólisis. (Ki/Ki+M) Esta función nos permite determinar inhibición por producto para el crecimiento de biomasa. Cuando  uno de nuestro microorganismo comienza a producir hidrólisis de sacarosa la ecuación utilizada para  la tasa de cambio es:                           dS/dt = -VmX (S/Km+s) La cual nos dice que las moléculas de sacarosa son hidrolizadas por nuestros microorganismos. Para hacer el estudio de los modelos matemáticos se utilizó el método de cambio de valores de los parámetros y cambio de condiciones iniciales. En el primer modelo (modelo 1), la formación de producto depende principalmente de la concentración de sustrato límite y de algunos parámetros como la constante de saturación y la constante de velocidad especifica. Se tomó en cuenta el uso de parámetros para analizar el comportamiento de dicho microorganismo. Se observó que el microorganismo crece  produciendo etanol hasta llegar a su punto límite de saturación. Los siguientes modelos fueron analizados por medios del cambio de parámetros y condiciones iniciales. En el segundo modelo (modelo con dos microorganismos), se analizó el proceso de fermentación con dos microorganismos X y Z  los cuales producen dos tipos de producto, el microorganismo X etanol y el microorganismo Z ácido láctico. Se hizo el análisis por medio de 5 ecuaciones diferenciales que describen el proceso de fermentación. En donde se tomó en cuenta el rendimiento del sustrato, tasa máxima de crecimiento de los microorganismos y rendimiento de la hidrólisis de sacarosa. Se analizó el comportamiento dividiéndolo en cuatro casos donde se le asigno diferente valores a los parámetros establecidos de las ecuaciones diferenciales, para observar el comportamiento. En el tercer modelo (modelo con dos microorganismos donde solo uno produce hidrólisis de sacarosa), al igual que en el modelo 2, cuenta con dos microorganismos X y Z sólo que en este modelo el microorganismo  X produce hidrólisis de sacarosa haciendo que el microrganismo Z se aproveche de la producción del microorganismo X consumiendo la glucosa que este produce. Se  observó que el crecimiento de la biomasa es proporcional al crecimiento de producto y su punto límite de crecimiento está determinado por el valor de la tasa máxima de crecimiento.  El modelo 4 (inhibición por producto para el crecimiento de biomasa), es muy parecido al modelo 3 sólo que en este modelo el primer microorganismo tiene inhibición por producto para el crecimiento de biomasa (Ki/Ki+M). Se analizó estos modelos en 5 casos, donde se le asignaron valores distintos a la constante de inhibición Ki y se hizo uso de diferentes condiciones iniciales. Se observó que a pesar de tener inhibición por producto para el crecimiento de biomasa en el primer microorganismo no afectaba a la producción final de etanol.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los proceso de fermentación y sobre el papel que desempeñan muchos microorganismos en este proceso, así como las aplicaciones de ecuaciones diferenciales ordinarias. También se logró adquirir conocimiento en bases de programación (programa MATLAB), en este programa se hizo el análisis de los modelos matemáticos para observar el comportamiento de los microrganismos. Se esperaba proponer modelos que incluyeran los mecanismos  conocidos para la interacción de dos microorganismos. Si en el proceso de fermentación se tiene datos de microorganismos, entonces con la propuesta de estos modelos se puede analizar la interacción existente entre dos microorganismos.
Baldelomar Cabrera Juan José, Universidad de Guanajuato
Asesor: Dr. Satu Elisa Schaeffer , Universidad Autónoma de Nuevo León

ENFERMEDADES RESPIRATORIAS Y CALIDAD DE AIRE


ENFERMEDADES RESPIRATORIAS Y CALIDAD DE AIRE

Baldelomar Cabrera Juan José, Universidad de Guanajuato. Asesor: Dr. Satu Elisa Schaeffer , Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades respiratorias presentan un problema real para la comunidad de la salud hoy en día. Por esto mismo, se desea estudiar y analizar una de las posibles causas de dichas enfermedades. Es conocido que existe una serie de compuestos cuya presencia, y la de partículas materiales con determinado tamaño, es dañina para la salud del sistema respiratorio. Por esto mismo, se desea estudiar la relación entre la cantidad de diagnósticos de ciertas enfermedades respiratorias y la presencia de dichos compuestos y partículas en el aire que se denotan por contaminantes.



METODOLOGÍA

Los datos a trabajar se componen de dos conjuntos. El primer conjunto de datos es una lista semanal de frecuencias de influenza, neumonía e infección respiratoria aguda, en la ciudad de Monterrey, Nuevo León, que comienza el 4 de enero del 2009 y termina el 27 de febrero del 2016. El segundo conjunto de datos son mediciones por hora de la composición y propiedades del aire en diez estaciones regadas por la ciudad.   Los compuestos a estudiar son monóxido de carbono, monóxido de nitrógeno, dióxido de nitrógeno, óxidos de nitrógeno, ozono y dióxido de azufre. En cuanto a las partículas materiales, estas son clasificadas en partículas con un diámetro aerodinámico inferior a 10 micras y partículas con un diámetro aerodinámico inferior a 2,5 micras.   Para analizar la relación entre las enfermedades y los contaminantes se toman ambos conjuntos de datos como series de tiempo, se reescalan y se comparan, primero convirtiendo las series de los contaminantes a un formato por semana.   Para cambiar el formato de los contaminantes, se procede con dos acercamientos. Primero, se obtiene la moda de un modelo Gamma con los parámetros ajustados a cada semana en cada estación y segundo, se obtienen los valores máximos semanales. Para determinar la calidad del ajuste del modelo Gamma, se utilizan gráficas Cuantil-Cuantil a 95 por ciento de confianza y se permite un error de a lo más 10 por ciento de error del ajuste.   Se generan dos series de tiempo de cada contaminante, una de máximos y otra de modas. Para esto, dado un contaminante y una semana, se toma la mediana de los valores de las estaciones cuyas mediciones estén disponibles y en el caso de las modas es necesario también que se ajuste el modelo estadístico. En dado caso un valor quede indeterminado por la falta de información, se hace interpolación lineal para obtener este valor. Se obtiene el valor promedio de las series de tiempo y se reescala las series fijando este valor en uno.   Para hacer las comparaciones entre series, se utiliza el algoritmo Dynamic Time Warping el cual arroja una medida de distancia entre las series de tiempo.


CONCLUSIONES

Se observó que el ajuste Gamma tuve un porcentaje de éxito del 95% con el dióxido de nitrógeno y los dos tipos de partículas materiales. Por otro lado, el monóxido de nitrógeno y el dióxido de azufre presentaron un porcentaje de 34% y 35% de éxito respectivamente.   Además, respecto a las distancias generadas por el algoritmo Dynamic Time Warping se obtuvieron los siguientes resultados:   La influenza no presenta similitud con ningún contaminante. La moda del dióxido de nitrógeno y la infección respiratoria aguda son las series que mayor relación presentan. La neumonía presenta también mayor relación con la moda del dióxido de nitrógeno.
Ballesteros Ahumada Dalia Anahí, Universidad Autónoma de Nayarit
Asesor: Dr. Leila Villarreal Dau, Universidad Autónoma de Sinaloa

CONSERVAR Y CRECER JUNTOS


CONSERVAR Y CRECER JUNTOS

Ballesteros Ahumada Dalia Anahí, Universidad Autónoma de Nayarit. Dado Oronia Sorayda Francisca, Universidad Autónoma de Nayarit. Sanchez Castro Nora Briseida, Universidad Autónoma de Nayarit. Asesor: Dr. Leila Villarreal Dau, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Conservar y Crecer Juntos Nuestro verano de investigación inicio el día lunes 17 de junio del presente año en la Universidad Autónoma de Sinaloa en el área de arquitectura con la Dra. Leila Villareal Dau. El primer día nos presentamos formalmente con la maestra y de igual forma ella nos dio la bienvenida a la institución, así como también nos presentó con el resto de las compañeras, las cuales eran 2 chicas del área de comunicación una proveniente de la ciudad de Culiacán y la otra de Ensenada Baja California. Posteriormente la maestra dos dio a conocer el tema de patrimonio para que tuviéramos una idea más clara de lo que se iba a llevar acabo, según a sus indicaciones propuestas nos dijo que el tema de investigación se dividiría en dos áreas distintas. Por un lado, el tema en relación a la investigación de tipo aplicada donde se pretendía llevar a cabo un curso dirigido a niños de 8-10 años. Y por otro lado en el área de difusión de la investigación donde las compañeras comunicólogas se encargarían de investigar la información, de manera documental en fuentes primarias y secundarias, pero que al final de cuenta se estaría trabajando en el mismo tema de investigación, pero desde diferentes perspectivas.



METODOLOGÍA

Después de saber lo que se pretendía realizar se comenzó a diseñar la estructura de dicho curso el cual fue realizado en base a investigaciones y estructuraciones gráficas, con ello fue posible armar todo el proceso y que quedara estructurado de una manera entendible. Lo estructuramos con una introducción, justificación, objetivos y perfiles de ingreso y egreso que fue lo primordial en elaborar ya que fue el punto de partida para poder arrancar con el curso, así como también una convocatoria, tríptico, cronograma de actividades y evaluación. Esta estructuración la llevamos a cabo en una semana ya que no encontrábamos la forma de como la maestra lo quería, pero al final encontramos la manera de terminarlo bien para que funcionara como se tenía planeado. Después de esa semana se comenzó a diseñar el cronograma de actividades y la elaboración de las planeaciones correspondientes con los temas que se pretendían dar a conocer durante el curso, así como también el material que se iba a utilizar en las diferentes actividades. Posteriormente ya listo todo se dio inicio al curso titulado Conservar y Crecer Juntos dirigido a niños de 8 - 10 años en las instalaciones de arquitectura que nos prestaron para implementar el curso. Durante el curso nos pudimos dar cuenta que a los niños le resulto interesante aprender de una cultura diferente como lo era la etnia huichol ya que les llamo mucho la atención los temas y actividades que se estuvieron llevando a cabo, así como la manualidad de ojo de dios que se realizó como cierre del curso porque implementaron sus habilidades y destrezas que tienen como personas.


CONCLUSIONES

Fue para nosotros una experiencia muy bonita poder trabajar e interactuar con niños porque compartimos conocimientos de una etnia perteneciente a nuestra región del norte de Nayarit y es muy satisfactorio poder saber que demás personas se interesen y empiecen a conocer un poco sobre las culturas que existen en tu región. Consideramos que esta estancia de verano nos dejó muchos conocimientos para poderlos implementar en nuestra vida personal y laboral.
Bañuelos Navarro José Angel, Universidad Autónoma de Nayarit
Asesor: Dr. Ricardo Francisco Vila Freyer, Centro de Investigación en Matemáticas (CONACYT)

SIGNIFICADO DE LA CURVATURA GAUSSIANA EN SUPERFICIES


SIGNIFICADO DE LA CURVATURA GAUSSIANA EN SUPERFICIES

Bañuelos Navarro José Angel, Universidad Autónoma de Nayarit. Asesor: Dr. Ricardo Francisco Vila Freyer, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se busca lograr el entendimiento de la curvatura gaussiana de superficies, entender desde las definiciones que conllevan a la deducción de la curvatura a través de diferenciales de parametrizaciones locales. 



METODOLOGÍA

Se llevó a cabo el estudio del tema con la ayuda de dos fuentes bibliográficas; Do Carmo, M.,(1976). Differential Geometry of Curves and Surfaces, New Jersey, Estados Unidos: Prentices-Hall Inc. Gray, A., & Abbena, E., & Salamon, S., (2006). Modern differential geometry of curves and surfaces with Mathematica ® (3ra edición), Boca Raton, Estados Unidos: Taylor & Francis Group. Y con la ayuda del asesor a través de sesiones de explicación y resolución de dudas.


CONCLUSIONES

La curvatura Gaussiana se da como resultado de analizar la razón de cambio (diferencial) de la aplicación de Gauss en una superficie regular, dicha aplicación asocia un vector normal unitario a cada punto de la superficie y entonces, analizando la razón en la que este vector cambia de dirección conforme nos movemos se puede obtener una idea de cuál es su curvatura. Más técnicamente, la curvatura gaussiana en un punto p se define como el determinante de la diferencial de la aplicación de Gauss evaluada en p, además al ser la diferencial de la aplicación de Gauss una aplicación lineal autoadjunta, nos permite asociar una forma cuadrática definida en el plano tangente y con ésta, encontrar las curvaturas principales de un punto p, es decir dos curvas que pasan por p y que tienen la curvatura mínima y máxima respectivamente. La curvatura gaussiana en el punto p entonces, también se define como el producto de estas dos curvaturas principales.
Barajas Buenrostro Martha Vanessa, Universidad de Guadalajara
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

CAMBIOS DE COBERTURA VEGETAL POR CAMBIOS ANTROPOGENICOS EN EL MUNICIPIO DE TOMATLAN, JALISCO.


CAMBIOS DE COBERTURA VEGETAL POR CAMBIOS ANTROPOGENICOS EN EL MUNICIPIO DE TOMATLAN, JALISCO.

Barajas Buenrostro Martha Vanessa, Universidad de Guadalajara. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La vegetación es fundamental para mantener un equilibrio en la biodiversidad, al hacer modificaciones en ella pueden existir alteraciones en el medio ambiente. Los cambios de cobertura vegetal por la intervención del ser humano son cada vez más comunes en el mundo, puesto que los espacios naturales son utilizados para distintos fines con la intención de aprovechar al máximo los recursos que los comprenden o rodean. En el caso del municipio de Tomatlán, Jalisco, en las últimas décadas se ha creado en gran medida un cambio de uso de suelo, ya que al predominar selva baja caducifolia, bosque de pino-encino, ahora el pastizal y las áreas de cultivo marcan una importante expansión, representándose como un similar espacio al que se comprende por la cubierta de vegetación tipo bosque. Estos cambios se dan principalmente por la agricultura ya que es la principal actividad económica del municipio. Logrando así que sus espacios naturales sean devastados de una manera explícita.



METODOLOGÍA

Se identificó el área de estudio, sus características, formaciones y funciones. Se buscó información relacionada sobre cambios de cobertura vegetal para plasmar antecedentes que van desde lo internacional hasta local, de los cuales se puedan observar cambios; usando cuatro artículos publicados cada uno en distintas páginas webs. Siguiendo por la descarga de bases de datos de la página oficial de CONABIO para generar un mapa base donde se muestre el área de estudio con los Sistemas de Información Geográfica (SIG), creados por medio del software ArcMap. Se formó un análisis del área de estudio, verificando los puntos de localización y la dispersión que se ha obtenido en la vegetación y en las áreas de cultivos, por medio de Google Earth Pro, luego se compararon los datos descargados de cada uno de los años señalados, generando un nuevo material donde se representaran dichos datos por medio de mapas interpretativos en el cual se consiguieron algunos resultados, que se identificaron como cambios en el tipo de cobertura vegetal por medio de asimilación entre los últimos años.   


CONCLUSIONES

Los cambios de cobertura vegetal debería ser un tema significativo para las sociedades en general, pues la devastación de vegetación en las últimas décadas ha sido muy apreciable y por ende llamativa ya que su principal modificador es el ser humano. A pesar de existir diferentes objetivos en los espacios, la mayoría tiene fines económicos y están sujetos a la explotación de recursos naturales, sin importar la devastación de mantos acuíferos y minerales, contaminación de aguas superficiales y subterráneas, suelos y aire. Tal es el caso de Tomatlán, Jalisco, ya que su modificación en cobertura vegetal es muy representativa, logrando ser un factor muy relevante para que existan a corto o largo plazo alteraciones en el espacio físico de la región.
Barajas Ramirez Mariana, Universidad de Guadalajara
Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas

CáMARA DE NIEBLA


CáMARA DE NIEBLA

Barajas Ramirez Mariana, Universidad de Guadalajara. Garza Landa Fernando, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La cámara de niebla es un dispositivo para detectar radiación ionizante, por lo que el diseño y armado de una es de vital importancia para permitirnos visualizar el paso de astropartículas tales como muones.



METODOLOGÍA

Se hizo un armado desde cero a base de celdas peltier y se fue mejorando conforme fuera necesario en base a pruebas de funcionamiento realizadas constantemente.


CONCLUSIONES

El armado de una cámara de niebla sin el uso de hielo seco presenta un reto considerable pues aunque el experimento en esencia sea simple, si no se alcanzan temperaturas adecuadas no se obtendrán los resultados deseados.
Barradas Valdes José Adonahí, Universidad Veracruzana
Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara

DIAGNóSTICO DE MOVILIDAD URBANA DEL CENTRO DE AUTLáN DE NAVARRO


DIAGNóSTICO DE MOVILIDAD URBANA DEL CENTRO DE AUTLáN DE NAVARRO

Barradas Valdes José Adonahí, Universidad Veracruzana. Asesor: Dr. Oscar Gilberto Cárdenas Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Se requiere un diagnóstico de movilidad para la ciudad, debido a que no hay información previa, el avance urbano es alto, por lo que es muy pertinente obtener un diagnóstico que sirva de base para la creación de una propuesta de movilidad integral para el municipio. Entender las dinámicas del transporte urbano, da indicios a comprender gran parte de la movilidad ejercida en el municipio, sentar bases para la distribución y tendencia del crecimiento de la población. La ciudad ya necesita nuevos diagnósticos debido a las dinámicas de la población, lo que podría ejercer una fuerza de crecimiento económico, turístico, y educacional. Con apoyo e investigación académica se podrían lograr proyectos para el avance a un sistema sustentable y sostenible en la ciudad con posibilidad de hacerlo multimodal e integral que por consecuencia lleve a la ciudad al progreso y al éxito socioambiental y socioeconómico. Con el diagnóstico, se podrán identificar problemas que podrán permitir a las autoridades identificar y mitigar, ayudando a la movilidad dentro de la ciudad y reducción el impacto sociocultural de la población habitante.



METODOLOGÍA

El tipo de investigación a realizar requiere aplicar conocimientos teóricos y prácticos, lo que mezcla el uso de técnicas cualitativas con cuantitativas, las cuales, se apegan a la hipótesis planteada en el momento de la investigación. • Análisis espacial para la comprensión del porqué del trazado urbano desde su construcción hasta la actualidad. • Recopilar la normatividad Actual del municipio y que impacte normativamente en la Colonia Centro de la Ciudad de Autlán de Navarro. • Recopilar normatividad que aplique para la movilidad y paisaje urbano – cultural de la colonia Centro de Autlán. • Análisis del área de estudio haciendo uso de QGis 3.8 Zanzíbar, que permite el análisis de las vialidades de la zona, la concentración de los comercios de la colonia, análisis de Origen–Destino de las rutas de autobuses, análisis del área de influencia de los autobuses. • Analizar las variables físicas y objetos involucrados para la construcción de la Diagnostico. Bajo el producto anterior se debe crear una matriz de accesibilidad topológica, hacer uso de la densidad de KERNEL para representar en el software la distribución de las paradas, para enriquecer aún más el modelo, se pueden incluir modelos de elevación de terreno para el área de estudio, mapas temáticos y perspectivas en 3D del Área de estudio. • Recopilar y analizar la información de carácter cualitativa que se pueda conocer desde gabinete, enriqueciendo el modelo para construir el diagnóstico. • Analizar las variables con estadística aplicada a la geografía. • Ubicar las rutas que hagan ascenso y descenso de pasajeros en la Colonia Centro, registrar las paradas más importantes, a partir de la observación directa, ser participante como usuario de las rutas. • Identificar la densidad de pasajeros en horas promedio, así como en horas pico de las modalidades motorizadas. • Identificar los cruces mas peligrosos de la ciudad. • Identificar los servicios comunes de la Colonia. • Análisis por posibles externalidades físicas. • Identificar y clasificar las modalidades de movilidad de la más usada a la menos usada. • Mapeo de semáforos, rampas para discapacitados, cruces peatonales parquímetros, cajones de estacionamiento libres. • Beneficios de los transportes motorizados versus desplazamientos de esfuerzos físicos (a pie o bicicleta)


CONCLUSIONES

La ciudad requiere un programa de movilidad para el Centro de la ciudad para, ya que el entendimiento para la población con diversas rutas en pobre, para las personas foráneas es aún más difícil realizar una movilidad en el transporte público, ya que se puede realizar la movilidad a pie, con mínimas complicaciones debido a las altas temperaturas no siempre es factible caminar ni realizar actividades en ciertas horas del día, los parquímetros instalados generan una fuerte derrama económica por lo que no hay justificación para el estado en el que se encuentran, y se puede aprovechar los ingresos de parquímetros para mejorar calles, semáforos y calidad en señalamientos
Becerril Hernandez Alejandra, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Mauro German Valdés Barrón, Universidad Nacional Autónoma de México

ANáLISIS CLIMATOLóGICO DE LA RADIACIóN SOLAR GLOBAL Y LA RADIACIóN FOTOSINTéTICAMENTE ACTIVA


ANáLISIS CLIMATOLóGICO DE LA RADIACIóN SOLAR GLOBAL Y LA RADIACIóN FOTOSINTéTICAMENTE ACTIVA

Becerril Hernandez Alejandra, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Mauro German Valdés Barrón, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Las estaciones solarimétricas tienen el objetivo de recabar datos de radiación solar de manera continua y confiable. Sus principales aplicaciones son la investigación científica y el diseño de tecnologías para el aprovechamiento eficiente y preferentemente limpio del recurso solar. Su frecuencia de toma de datos, en el caso de la Red Solarimétrica Mexicana, es de minuto a minuto. Por lo tanto, la densidad de información con la que se cuenta para períodos mensuales o hasta anuales es considerablemente significativa. Los datos recabados directamente no pueden brindarnos información debido a su gran magnitud; es necesario realizar un procesamiento previo. De esta manera, se vuelve posible interpretar los valores de un período determinado, para analizar su comportamiento. Una vez que se observan las tendencias estadísticas de los datos, se abre la posibilidad de validarlos y aplicar modelos correspondientes.



METODOLOGÍA

Inicialmente, fue necesario obtener los datos de irradiancia global y radiación fotosintéticamente activa (PAR) correspondientes al año 2018 de la estación solarimétrica ubicada en Ciudad Juárez. Para lograrlo, se creó una base de datos a través de MySQL, un sistema de gestión de software libre. Antes de recabarlos, se filtraron los datos de manera que solamente se incorporó información diurna, aplicando una restricción de <=80° al ángulo cenital, evadiendo así el rango comprendido entre los fenómenos de anochecer y el amanecer. Posteriormente, la información fue trasladada a Microsoft Excel de manera mensual para generar gráficas de dispersión y observar la correlación de los parámetros seleccionados. De igual forma, se obtuvo y se procesó de manera anual con ayuda de otro programa: RStudio, debido a que con la densidad de los datos no era viable graficar en Microsoft Excel. Así, fue posible observar el comportamiento anual de cada parámetro por separado y también su correlación. Finalmente, se seleccionaron los valores específicos de correlación correspondientes a irradiancia global y PAR para después promediarlos y ser capaces de interpretar si cuentan con una similitud significativa en sus tendencias.


CONCLUSIONES

Durante la estancia de investigación fue posible comprender la dinámica correspondiente de la radiación solar en su trayecto a la superficie terrestre desde que atraviesa la atmósfera. Se entendió su importancia, sus aplicaciones principales y la manera en la participa de manera directa en la meteorología y climatología. Claramente, resulta esencial el procesamiento de información a través de la programación para su manejo ágil y eficiente, tomando en cuenta las decenas y hasta centenas de miles de datos que se agrupan. Finalmente, el análisis de las correlaciones entre ambos parámetros para la debida validación de datos fue satisfactorio gracias al uso de la ecuación de regresión.
Bernal Orozco Jesus Aldair, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE LA INTERACCIóN WIMP-NUCLEóN A TRAVéS DEL PORTAL DE HIGGS


ANáLISIS DE LA INTERACCIóN WIMP-NUCLEóN A TRAVéS DEL PORTAL DE HIGGS

Bernal Orozco Jesus Aldair, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Evidencias observacionales indican la existencia de una mayor cantidad de masa en galaxias y cúmulos de galaxias de la que nosotros podemos ver en las estrellas y el gas cósmico. Este enigma de la masa faltante ha sido un problema desde que Zwicky en 1933 midió las masas de sistemas extragalácticos. Dadas las evidencias de la dinámica galáctica (curvas de rotación), cúmulos de galaxias, formación de estructura, así como de la nucleosíntesis del Big-Bang y la radiación cósmica de fondo, se sugiere que los bariones únicamente pueden explicar 1/6 de la materia, la mayoría de la masa faltante (materia oscura) debe ser no bariónica. Hoy en día, los candidatos a materia oscura más prometedores son las partículas masivas de interacción débil (WIMPs, por sus siglas en inglés).   El problema de la materia oscura es quizá el más interesante de la astrofísica moderna, tanto que ha llevado a la incursión de la física de partículas elementales. El trabajo conjunto de estas dos disciplinas tiene como uno de sus objetivos principales determinar la naturaleza y las propiedades de la materia oscura, ya sea mediante detección directa o indirecta.   Existen experimentos de detección directa de materia oscura, que pretenden detectar al WIMP a través de retrocesos nucleares causados por la dispersión elástica WIMP-núcleo. Bajo este esquema de detección, los quarks de valencia en los nucleones se acoplan a través de un canal t del Higgs al escalar de materia oscura, χ. En este trabajo se estudia la interacción de materia oscura con el nucleon a través del portal de Higgs, χn→χn. Para ello, se calcula la sección eficaz del proceso, σ(χn→χn), y se comparan los resultados con los experimentos XENON1T y COSINE100.  



METODOLOGÍA

Se realizó una revisión bibliográfica del problema de la materia oscura, dando énfasis en las evidencias observacionales, tales como: curvas de rotación, lentes gravitacionales y cúmulos de galaxias. Posteriormente se revisó el contexto actual de los candidatos a materia oscura bariónica y no bariónica: características, clasificación y partículas candidatas. Particularmente se estudiaron los candidatos más prometedores: WIMPs (Weakly Interacting Massive Particles) que en español se traducen como partículas masivas que interactúan débilmente.   El paso siguiente consistió en contrastar las diferentes técnicas de detección de materia oscura: detección directa y detección indirecta.  Una vez identificados los experimentos de detección directa se realizó una clasificación de ellos con base al tipo de energía observada después de la interacción WIMP-núcleon. El último paso de la parte teórica consistió en revisar los ingredientes necesarios de teoría de colisiones para realizar cálculos de procesos de dispersión en el límite no relativista:  χn→χn. Se calculó σ(χn→χn) analíticamente a través del portal de Higgs. Se comparó la sección eficaz calculada con los experimentos XENON1T y COSINE100.  


CONCLUSIONES

En este trabajo se calculó y analizó la sección transversal para el proceso,  σ(χn→χn) , para el escenario del portal de Higgs en interacción con la materia oscura, χ. Nuestro objetivo fue describir el acoplamiento de Higgs-nucleón-χ a través de una ecuación de tipo Dyson-Schwinger (DS). Utilizamos este acoplamiento M(p2) para nuestro cálculo. Encontramos que la función del acoplamiento propuesta es una buena parametrización para analizar el acoplamiento de Higgs-nucleón y se puede elegir que los parámetros libres estén de acuerdo con la parametrización estándar de Cromodinámica Cuántica (QCD). Finalmente, se compara el resultado teórico con los resultados experimentales dados por  XENON1T y COSINE100.  
Bernal Tirado Alfonso, Universidad de Guadalajara
Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara

INESTABILIDAD DE JEANS EN GRAVEDAD NEWTONIANA


INESTABILIDAD DE JEANS EN GRAVEDAD NEWTONIANA

Bernal Tirado Alfonso, Universidad de Guadalajara. Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En esta investigación se describió la evolución de las inhomogeneidades (perturbaciones) de la densidad y potencial gravitacional para distintas etapas del universo temprano. Para dicha descripción se connsideró una teoria linealizada de las perturbaciones del potencial ggravitacional y a densidad.



METODOLOGÍA

Se idealizó al medio "cósmico" como un fluido perfecto sobre el que actua la gravedad Newtoniana. Utilazando las ecuaciones que describen a un fluido perfecto y a la gravedad Newtoniana, ademas tomando en cuenta la expansión del universso, se logró llegar a una ecuación diferencial que descibe las fluctuaciones de la densidad para distintas etapas del universo.


CONCLUSIONES

Las soluciones a dicha ecuación diferencial dieron resultados acordes a las observaciones experimentales obtenidas de la radiación cósmica de fondo.
Bezares Nangullasmú Sarahí, Universidad Autónoma de Chiapas
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

TéCNICAS DE RAZONAMIENTO MATEMáTICO


TéCNICAS DE RAZONAMIENTO MATEMáTICO

Bezares Nangullasmú Sarahí, Universidad Autónoma de Chiapas. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Investigando un poco y de acuerdo al tiempo que he estudiado, nos dimos cuenta que en general en los alumnos hace falta el razonamiento matemático por desinteres de ellos, el cual provoca que a largo plazo se generen malas decisiones. Proponemos buscar métodos de aprendizaje que ya existan y tratar de mejorarlos o desarrollar uno nuevo para poder aplicarlo en los jovenes y poder resolver el problema antes mencionado.



METODOLOGÍA

Primero me di a la tarea de investigar sobre otros autores preocupados por lo mismo, resolver ecuaciones diferenciales ya que éstas expresan variables dependientes de una razon de cambio y por consecuencia nos ayudan en la vida diaria ya que ésta se rige a base de una razon de cambio, el tiempo.  En base a Vigotsky y el método de Polya, agregaremos un paso más a éste último para aplicarlo en los jóvenes y tratar de que tengan un mejor razonamiento.


CONCLUSIONES

Con el paso que se agregó al método de Polya y aplicándolo en problemas reales o matemáticos, nos dimos cuenta que el alumno tiene un mejor razonamiento a la hora de resolver cualquier otro problema que se presente.
Bonal Rodríguez Israel, Universidad de Guanajuato
Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas

APLICACIóN DE LAS BASES DE GRöBNER EN EL CáLCULO DE NúMEROS DE BETTI DE IDEALES BINOMIALES DE ARISTAS.


APLICACIóN DE LAS BASES DE GRöBNER EN EL CáLCULO DE NúMEROS DE BETTI DE IDEALES BINOMIALES DE ARISTAS.

Bonal Rodríguez Israel, Universidad de Guanajuato. Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

En álgebra conmutativa resulta de gran interés obtener la resolución libre minimal de un módulo finitamente generado; especificamente, de un ideal en el anillo de polinomios sobre un campo K. Los números de Betti conforman a las resoluciones libres minimales. Por tal motivo, es importante el estudio de estos números para obtener información de la resolución libre minimal, asi como del ideal. Consideramos el anillo de polinomios sobre K en 2n variables S, con n un entero positivo. Sea G una gráfica cuyos vértices están etiquetados con los números 1, 2,…, n. A partir de G construimos el ideal binomial de aristas JG en S. Nuestro objetivo es el cálculo de números de Betti de los ideales JG. Dado un orden monomial en S, podemos calcular la base de Gröbner reducida para JG y con ello obtener el ideal inicial in(JG) el cual es monomial. A este ideal le asociamos un objeto combinatorio H (gráfica o complejo simplicial). Estudiamos las propiedades de G y H; y hacemos uso del álgebra conmutativa y homológica para la obtención de los números de Betti de JG.



METODOLOGÍA

Para el desarrollo de este proyecto fueron consultadas diversas fuentes, las cuales nos sirvieron para estudiar los temas que se requerían a lo largo de este tiempo. Entre ellas destacan libros, artículos y tesis: Álgebra homológica de Hernán de Alba; Aplicaciones a la teoría de códigos de los números de Betti de una matroide de Aracely Isais Gómez; Monomial Ideals de Herzog, Hibi; Binomial edge ideals and conditional independence statements de Herzog, Hibi, Hreinsdottir, Kahle, Rauh y On the extremal Betti Numbers of the binomial edge ideal of closed graphs de Alba, Hoang. Comenzamos estudiando las bases de Gröbner de un ideal I en S. Para conocer si un conjunto de generadores de I es una base de Gröbner es fundamental analizar las propiedades del S-polinomio asociado a dos generadores y hacer uso del criterio de Buchberger. Una vez que tenemos una base de Gröbner para I, tenemos información sobre como es el ideal inicial in(I). Para obtener información de los números de Betti del ideal JG, es importante conocer las propiedades básicas del ideal in(JG), las cuales obtenemos a partir de una base de Gröbner para JG. Esto es debido a la propiedad de semicontinuidad de los números de Betti, la cual establece que los respectivos números de Betti del ideal in(JG) son mayores que los respectivos números de Betti del ideal JG. Dado un complejo simplicial C, le asociamos un complejo de cadena. Una componente de este complejo se construye a través de una suma directa del campo K cuya base es el conjunto de elementos en C de cierta dimensión. A partir de los generadores se definen los morfismos del complejo. Resulta que las homologías reducidas de este complejo simplicial son K-espacios vectoriales para los cuales calculamos su dimensión. El complejo simplicial C tiene asociado su ideal de Stanley - Reisner IC. Fijamos i,j enteros positivos. Sea X la familia de subconjuntos de vértices de C de tamaño j y consideramos W en X. Consideramos el complejo simplicial C|W obtenido de restringir C a W. Sea DC|W la dimensión como K-espacio vectorial de la (j-i-1)-ésima homología reducida del complejo de cadena asociado a C|W. Resulta que el i-ésimo número de Betti de grado j del cociente S / IC es la suma de todos los DC|W con W en X. Esta manera de calcular números de Betti la conocemos como la fórmula de Hochster. Consideramos la base de Gröbner reducida para JG. En el caso en que G no sea cerrada, los elementos de la base de Gröbner son producto de un monomio con el binomio asociado a un par de vértices en G para los cuales existe una trayectoria admisible entre ellos. Así que el ideal inicial in(JG) es generado por los monomios iniciales de los elementos en la base de Gröbner los cuales no son cuadráticos pero si son libres de cuadrados por lo que existe un complejo simplicial tal que in(JG) es su ideal de Stanley-Reisner. Si G es una gráfica cerrada entonces los generadores de JG forman una base de Gröbner cuadrática para este ideal. Así que el ideal inicial in(JG) es generado por los monomios iniciales de los generadores de JG por lo que este ideal es cuadrático y libre de cuadrados. De este modo, in(JG) tiene asociada una gráfica bipartita H. Consideramos la familia de conjuntos independientes de H, la cual es un complejo simplicial en [2n]. Resulta que el ideal de Stanley-Reisner de este complejo es in(JG). Si además G no tiene vértices de corte entonces H es conexa. Utilizando propiedades de este tipo de gráficas y algunos resultados de homología llegamos a encontrar cotas inferiores y superiores para la dimensión proyectiva del ideal in(JG). En cualquiera de ambos casos obtenemos un complejo simplicial C tal que el ideal de Stanley-Reisner de C es in(JG). Utilizando la fórmula de Hochster podemos calcular los números de Betti de este ideal. De este modo obtenemos una cota superior para los números de Betti del ideal JG. Para el caso en el que G es cerrado, haciendo algunos ejemplos en Macaulay2 nos damos cuenta de que la tabla de Betti de JG y de in(JG) es la misma. Esta es una conjetura propuesta por Ene, Herzog y Hibi la cual continúa en investigación.


CONCLUSIONES

Durante el verano, identificamos lo importante que resulta el uso de bases de Gröbner para la resolución de distintos problemas en álgebra conmutativa. A lo largo de este tiempo se logró conocer la importancia de la combinatoria en el álgebra conmutativa a través del uso de gráficas y complejos simpliciales. El álgebra homológica permite realizar la conexión entre la combinatoria y el álgebra conmutativa. Cabe destacar que el uso de herramientas computacionales como Macaulay2 resulta fundamental para la investigación en álgebra conmutativa ya que nos permite hacer hipótesis de nuestro problema para posteriormente buscar alternativas que nos ayuden a lograr nuestro objetivo. Hay todavía mucho trabajo por hacer en estos temas, por lo que el estudio de los números de Betti es un tema de investigación para el cual podría aportar en los próximos años.
Buenfil Carmona Lorena, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. David Carlos Avila Ramírez, Universidad de Guadalajara

TEMA: “PROPUESTA URBANO-ARQUITECTONICA DE VIVIENDA SUSTENTABLE, INCLUYENTE Y ADECUADA: ESTRATEGIA DE REGENERACION DE VIVIENDA ABANDONADA EN TLAJOMULCO DE ZÚÑIGA” SUBTEMAS: TALLER DE DISEÑO PARTICIPATIVO EVALUACION SOCIAL DEL PROYECTO URBANO


TEMA: “PROPUESTA URBANO-ARQUITECTONICA DE VIVIENDA SUSTENTABLE, INCLUYENTE Y ADECUADA: ESTRATEGIA DE REGENERACION DE VIVIENDA ABANDONADA EN TLAJOMULCO DE ZÚÑIGA” SUBTEMAS: TALLER DE DISEÑO PARTICIPATIVO EVALUACION SOCIAL DEL PROYECTO URBANO

Buenfil Carmona Lorena, Consejo Quintanarroense de Ciencia y Tecnología. Dorantes López Pablo Deiner Alexis, Consejo Quintanarroense de Ciencia y Tecnología. Villanueva Mejia Eva Julissa, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. David Carlos Avila Ramírez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El enfoque social es una etapa principal que consta de retomar información de la experiencia y conocimiento de personas que forman parte de un grupo afectado por situaciones que perjudican su calidad de vida y que requieren un análisis por parte de personas profesionistas en la materia, que toman el papel de coordinadores analíticos. La problemática que se presenta dentro del fraccionamiento analizada desde un enfoque social involucra distintos factores como: Falta de comunicación entre las autoridades y los habitantes, La incertidumbre generada por el desconocimiento sobre temas relacionados con la seguridad de tenencia La ayuda inexistente en temas de protección jurídica  El ser catalogado como un grupo social vulnerable a situaciones de extorsión, invasión de la privacidad y por ultimo; El habitar un espacio que no cumple con las condiciones de una vivienda digna.  



METODOLOGÍA

Metodología aplicada para el proyecto específico de Planificación y aplicación de talleres de diseño participativo (charretes) como parte del desarrollo de estrategias para la vivienda sustentable Definición de conceptos  Generación de estrategias que cumplan con las condiciones de vida digna establecidas por la CONAVI Consulta pública primera sesión Generación de alternativas como posibles soluciones Consulta pública segunda sesión Retroalimentación y refinamiento de estrategias Consulta pública tercera sesión Integración de propuestas urbano - arquitectónicas y de espacios interiores Consulta pública cuarta sesión Estrategias y generación final de propuestas urbano - arquitectónicas Consulta pública quinta sesión Presentación final del proyecto urbano - arquitectónico Metodología aplicada para evaluación social del proyecto urbano - arquitectónico Etapa de recopilación de información, datos estadísticos y antecedentes Etapa de análisis de la información recopilada Etapa de análisis de la situación actual de la zona de estudio Etapa del análisis de la situación sin proyecto de inversión Etapa de análisis de la situación con proyecto de inversión Análisis de costo - beneficio con y sin proyecto de inversión Mejoras y posibles soluciones Viabilidad del proyecto  


CONCLUSIONES

-Después de concluir una evaluación social aplicada al proyecto urbano arquitectónico en base a las etapas indicadas por la metodología de evaluaciones, se concluyó que el proyecto puede ser viable, teniendo, así como resultado del análisis Costo - Beneficio que el total de inversión requerida para poder llevar a cabo esta intervención traerá mayores beneficios sociales no solo a los habitantes del fraccionamiento lomas del mirador, sino también al gobierno municipal de Tlajomulco. Gracias a las optimizaciones propuestas, así como a la reactivación de las zonas en abandono, se proyectó que con dicha intervención los índices de inseguridad de la zona, los índices de abandono de vivienda y se rezago social podrán disminuir hasta en un 70%. Por último, con este proyecto no solo se podrán maximizar los beneficios sociales por medio de la liberación de recursos públicos, si no que se podrán disminuir los costos de mantenimiento gracias a las propuestas de vivienda y mobiliario sustentable que se fundamentan en el uso de materiales económicos, duraderos, nativos de la región, etc. Del costo total de la inversión total dividido entre el número de viviendas proyectadas a ser beneficiadas se tiene como dato final que: Por cada vivienda beneficiada se deberá realizar una inversión de $ $                                                                                          254,044.66 El costo total de la inversión final será de: $ 334322766.2231   Se pudo observar la escasez de proyectos de rescate de vivienda abandonada, como parte del cambio a esta situación se elaboró una investigación urbano-arquitectónica de rescate de viviendas en Tlajomulco de Zúñiga, teniendo como resultados esperados la rehabilitación de los inmuebles y del espacio urbano, propiciando sentido de pertenencia de los espacios en todos los habitantes. Un proyecto realizado mediante el diseño participativo permite a la sociedad, adentrarse en temas más allá de su visión como ciudadano ya que mediante su participación, pueden generarse mecanismos para la transformación de su calidad de vida, su contexto, su ciudad. El enfoque social fue el arranque inicial para esta investigación, el cual es considerado como un eje rector, este enfoque fue de vital importancia porque se determinaron las problemáticas en conjunto con las personas afectadas y en base a la información recolectada de los talleres de diseño participativo, se crearon las estrategias y soluciones. Estos talleres fueron el eje rector de esta investigación pues en ellos se pudo obtener un acercamiento productivo afectado-profesionista para analizar, explicar y orientar sobre las polémicas presentadas. Los resultados obtenidos en conjunto con los habitantes del caso de estudio mediante la reflexión son favorables ya que, mediante la retroalimentación de cada taller de diseño participativo, los afectados se iban percatando de los resultados e iban señalando sus inquietudes, y lo más importante, indicando sus ideas sobre el proyecto para obtener resultados más acordes a sus necesidades Partiendo de los resultados y conclusiones expuestos en apartados anteriores, se sugieren algunas prospectivas de investigación para futuros proyectos de investigación: Al realizarse el proyecto la zona generara beneficios sociales, como seguridad, vivienda digna y espacios urbanos confortables. Siguiendo con el método participativo se pueden generar soluciones de acuerdo a las necesidades reales de los habitantes de las viviendas, empleando los talleres se logra conocer a fondo las problemáticas principales de la comunidad. Otra línea de investigación se podría dirigir hacia los planes de mantenimiento para las viviendas con el propósito de rehabilitar aquellas que se encuentren en mal estado, debido a diversos factores.  
Burruel Valenzuela Sheily Melissa, Universidad de Sonora
Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara

ANÁLISIS ESTADÍSTICO DE DATOS DE TEMPERATURA


ANÁLISIS ESTADÍSTICO DE DATOS DE TEMPERATURA

Burruel Valenzuela Sheily Melissa, Universidad de Sonora. Salazar Hernandez Grecia Fabiola, Universidad de Sonora. Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La toma de datos atmosféricos desde una estación meteorológica puede tener datos anómalos como temperaturas extremas y ausencia de datos, esto ocurre debido a varios factores como el movimiento de instrumentos, descargas atmosféricas o falla de energía eléctrica.



METODOLOGÍA

Con los datos proporcionados cada 10 minutos por la estación meteorológica CUC, de las temperaturas máximas, mínimas y medias, del 5 de marzo del 2010 al 31 de diciembre del 2017, se realizó análisis, para detectar datos anómalos  o atípicos y huecos (el hueco más notable se observó en los primeros días de diciembre 2016). Se eliminó estos datos anómalos y se rellenó los datos ausentes mediante el método de los promedios. Luego se agruparon los datos cada hora, cada día y mensual. Finalmente se generó gráficas para analizar su consistencia y variabilidad temporal.


CONCLUSIONES

Al aplicar el método de promedios en las gráficas se puede observar que se ven más suavizadas y con un comportamiento más constante. En las gráficas se pudo ver un punto de inflexión hacia abajo; la temperatura promedio del año 2011 fue el más bajo de todos (puede que sea un evento extraordinario que debe ser investigado). Las estaciones meteorológicas no son perfectas y pueden presentar datos anómalos y huecos.
Cabello García Simón, Universidad Autónoma de Guerrero
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

EXPOSICIÓN DE CICLISTAS A PM


EXPOSICIÓN DE CICLISTAS A PM

Cabello García Simón, Universidad Autónoma de Guerrero. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El uso de las bicicletas es un medio de transporte activo, proporciona beneficios ambientales ya que no emite ningún tipo de contaminantes al entorno, ayuda a mejorar la actividad física y la salud, pero debido a las concentraciones de contaminantes en el entorno los ciclistas se encuentran expuestos a inhalar contaminantes que pueden perjudicar su salud.



METODOLOGÍA

Métodos: se trabajó con una bicicleta equipada con un aparato de medición de partículas (PM) EPAM-5000, cámara 360 para capturar las fuentes de donde provenían los contaminantes, GPS para la ubicación en tiempo real del recorrido, consistió en realizar recorridos por las instalaciones de Ciudad Universitaria con el fin de medir los sitios donde los ciclistas y estudiantes se encuentran expuestos a inhalar partículas contaminantes (PM). Se utilizaron programas de software como Origin2018 para graficar los datos obtenidos de  partículas PM, y el programa ArcMap10.5 para la ubicación del área de estudio.


CONCLUSIONES

Resultados: se identificaron que los ciclistas en CU se encuentran expuestos a elevaciones de partículas contaminantes de PM, originado por fuentes de automóviles y construcción de edificios, esto quiere decir que los usuarios en bicicleta recorren varias distancias se encuentran más expuestos a partículas contaminantes, cabe mencionar que el área de estudio donde los ciclistas transitan a diario presenta dos zonas diferentes una es a orillas de carretera donde presentaron mayores elevaciones de partículas contaminantes y la segunda es un área verde donde las concentraciones de partículas no presentan altas elevaciones. Conclusión: se observó que los ciclistas que transitan en CU se encuentran expuestos a inhalar concentraciones de partículas contaminantes PM. Este tipo de estudio ayudara a realizar mejores ciclovías para los usuarios de bicicletas, se pretende crear conciencia del daño que se ocasiona por encontrarse expuestos a contaminación de partículas, lo que perjudica la salud de los usuarios en bicicletas.
Cach Alonzo Armando Ivan, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA


DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA

Cach Alonzo Armando Ivan, Consejo Quintanarroense de Ciencia y Tecnología. Gómez Poot Francisco Israel, Consejo Quintanarroense de Ciencia y Tecnología. Hernandez Emily Stephany, Consejo Quintanarroense de Ciencia y Tecnología. Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla. Tolentino Vazquez Erick, Universidad Autónoma de Guerrero. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua es un vital líquido utilizado no únicamente por el ser humano sino para todo el planeta. El 70% de la superficie de la tierra está cubierto de agua, sin embargo, del 30% de agua dulce tan solo el 1 % es adecuado para su uso humano. Más allá del impacto del crecimiento mismo de la población por causa del mal uso que se ha dado hay muchos países que tienen menos del agua que necesitan, hoy en día este recurso a tenido ciertas dificultades perdiendo el equilibrio entre la cantidad utilizada y la demanda. La escasez afectará a un tercio de la población y un impacto enorme en diferentes sectores económicos como son la producción de alimentos. Los sistemas de aprovechamiento de agua de lluvia son el resultado de las necesidades (demanda), recursos disponibles (precipitación, dinero para invertir y materiales de construcción), y las condiciones ambientales en cada región. Sólo cuando no existe red de agua potable, el suministro es deficiente o el agua tiene un costo muy alto, se piensa en buscar sistemas alternativos de abastecimiento, por ello la documentación sobre sistemas de aprovechamiento de aguas lluvias, se limita a las acciones realizadas en las últimas décadas en zonas del planeta con las deficiencias mencionadas anteriormente. (José Alejandro Ballén Suárez, 2006) La ciudad de Heroica Puebla de Zaragoza es la cuarta ciudad más poblada de México, está ubicada al centro del país y cuenta con una población de aproximadamente 1,576,259 millones de habitante (INEGI censo 2015) que cubren una superficie de 206 km2. Donde la precipitación media es de 827 mm por año siendo el mes de junio quien presenta una mayor precipitación de 158 milímetros. Esto es considerado una buena cantidad de líquido que puede ser empleado como un extra de recurso, toda la ciudad cuenta con los servicios básicos tales como energía eléctrica, alcantarillado y agua potable, sin embargo la ciudad presenta ciertas dificultades con la distribución de la misma y no permite abastecer en su totalidad, esta problemática va de la mano con las fuertes temperaturas de verano que generalmente varía de 6°C a 42°C  ante tal situación las personas  necesitan de un mayor consumo de agua.



METODOLOGÍA

En primer lugar, se investigó sobre los antecedentes a la propuesta de solución que se iba a crear, contemplando modelos antiguos de hace más de 4 mil años, como los del Desierto de Negev hasta implementaciones recientes, por ejemplo, el proyecto Belss-Luedecke-Strasse Building State en Berlín de 2006. Más adelante se realizó la investigación sobre la falta de agua potable en la ciudad de Puebla, Puebla, así como las propiedades que contiene el agua de lluvia, considerando los factores geográficos causantes de la lluvia característica de Puebla capital. Se investigó sobre las normas correspondientes de agua potable para consumo humano, asi mismo se realizó un primer acercamiento sobre una solución para utilizar el agua pluvial y transformarla en agua potable. Más adelante tomo lugar la búsqueda de los materiales y equipos seleccionados para elaborar un dispositivo de recolección de agua pluvial. Una vez teniendo la idea clara sobre la construcción del dispositivo dio paso a la cotización de materiales, cuales cubrían las necesidades, poniendo en la balanza costo-beneficio, puesto que se trata de un proyecto enfocado al sector popular en casa-habitación de 4 personas aproximadamente. Además, se visitaron casas de barrios populares en la ciudad de Puebla, encontrando retos particulares, como el espacio demasiado reducido entre casa y casa o las distribuciones de las pendientes para cada domicilio, por mencionar algunos. Por último, se implementó de manera digital el dispositivo en una casa modelo que se ajustaba perfectamente a nuestras condiciones iniciales y cumplía con tener una estructura común de un barrio popular. En esta se trabajó la implementación y cotización de materiales, así como su mano de obra, será generándola en 2 aspectos, la primera por un plomero o albañil, y la segunda tomando en cuenta que nosotros montaríamos el dispositivo de manera gratuita.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos sobre el agua pluvial, su utilidad y los problemas que enfrenta en la ciudad de Puebla, puesto que, a diferencia de otros estados o países, en esta ciudad se encuentran particularidades que representan un problema y una adecuación a cada vivienda, por otro lado, la presencia de un volcán activo cercano a la ciudad. Por último, tomando en cuenta que esto es únicamente teórico no se tiene la posibilidad de corroborar todos los análisis y resultados esperados, o si deben realizarse correcciones con el pasar del tiempo. Hubiera sido conveniente tener el capital necesario y tiempo para considerar los ajustes, pero, aunque no es posible, en base a las deducciones, se puede apostar por resultados exitosos.
Calixto Claudio Paola, Universidad Autónoma de Guerrero
Asesor: Dr. Maria Vicenta Esteller Alberich, Universidad Autónoma del Estado de México

CARACTERIZACIóN HIDROGEOQUíMICA DEL ACUíFERO VALLE SAN JUAN DEL RíO, QUERéTARO (CLAVE 2203)


CARACTERIZACIóN HIDROGEOQUíMICA DEL ACUíFERO VALLE SAN JUAN DEL RíO, QUERéTARO (CLAVE 2203)

Calixto Claudio Paola, Universidad Autónoma de Guerrero. Asesor: Dr. Maria Vicenta Esteller Alberich, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El acuífero Valle San Juan del Río es la principal fuente de abastecimiento de agua potable para la población debido a la creciente ampliación de la ciudad, las actividades agrícolas e industriales y la sobreexplotación del acuífero se han generado focos contaminantes, afectando así la calidad del agua para el uso y consumo humano. En el 2012, a través del Comité Técnico de Aguas Subterráneas de San Juan del Río (COTAS SJR) se realizó una investigación donde se pudieron identificar zonas afectadas con presencia de Nitratos, Fluoruro y Arsénico, con concentraciones elevadas, rebasando los límites permisibles establecidos en la NOM-127-SSA1-1994 que establece la calidad y los tratamientos de potabilización del agua para uso y consumo humano. Por esta razón, la investigación tiene como objetivo realizar un estudio detallado de las características hidrogeoquímicas del acuífero, especificando en los contenidos de Nitratos, Fluoruro y Arsénico, identificados en la investigación antes mencionada, de manera que aportara una visión más amplia sobre las características fisicoquímicas del agua subterránea e identificar el origen que provoca dichas reacciones.



METODOLOGÍA

Para la realización de la investigación se consideraron tres etapas, 1) Recopilación y análisis de la información disponible. 2) Identificación de factores que influyen en la hidrogeoquímica. 3) Muestreo y análisis de laboratorio, dónde se efectuó un muestreo en 20 pozos, que para su selección se consideraron los sig. criterios; anomalías hidrodinámicas, existencia de elementos o compuestos químicos en el agua, distribución espacial homogénea y pozos en constante actividad. Para la visita in situ se elaboró una bitácora para la anotación de los datos, considerando los datos principales del pozo a muestrear tales como; nombre, clave, fecha de construcción, coordenadas UTM y piezometría,  uso del agua, características fisicoquímicas tales como; alcalinidad, que se cuantifico a través del método analítico volumétrico y, mediante equipos multiparamétricos se determinó la conductividad eléctrica, potencial redox, pH, temperatura del agua y ambiente, sólidos disueltos totales (STD) y salinidad. Para la recolección de la muestra, se tomó en cada sitio dos botellas de agua, una de 250 ml para cationes rellenada con jeringa de 50 ml filtrada para que esté libre de impurezas, después es acidificada con 6 gotas de ácido nítrico hasta obtener un pH menor a 2, manteniendo las propiedades del agua que se desean determinar;  y la otra de 1 lt para aniones. Cada botella fue enjugada tres veces antes de sellarla. Los análisis serán evaluados en los laboratorios analíticos (Laboratorio de Calidad del Agua del IITCA y Laboratorio de Geoquímica de la UNAM Campus Juriquilla. En una cubeta de 6 litros se tomó la muestra para llevar a cabo los análisis fisicoquímicos in situ, priorizando que no contenga compuestos de tubería, posteriormente, se tomó la temperatura del agua y del ambiente con un termómetro de mercurio, más adelante se analiza las características fisicoquímicas, calibrando los equipos multiparamétricos antes de su uso. Se introdujo el electrodo del equipo en el recipiente con la muestra, previamente lavado con agua destilada para el estudio, obtenido el valor de pH, conductividad eléctrica, salinidad, SDT, mientras que para el análisis de potencial redox se utilizó un matraz de 10 ml, introduciendo en él el electrodo anteriormente lavado con agua destilada, tapando el matraz con parafilm evitando que entre oxígeno al matraz para un mejor resultado. Para el análisis de alcalinidad se utilizó un recipiente de 5 ml en cada muestra, agregándole en primero dos gotas de fenolftaleína, si la muestra tomaba un color rosa mexicano, significaba que en el agua hay presencia de carbonatos, después se enjuagaba el recipiente tres veces con agua de la muestra, se le añadía dos gotas de verde bromocresol, consecutivamente con una jeringa de 200 ml  de ácido sulfídico se le agregara en pequeñas cantidades hasta obtener un color amarillo dorado y verificando la cantidad agregada, anotando los resultados en la bitácora.


CONCLUSIONES

Mediante los resultados obtenidos en la salida a campo se calculo que en el lugar tiene un promedio de temperatura ambiente de 21°C y del agua de 31.5°C, asimismo adquiriendo una media de 7.8 en pH, 415.2° µS /cm2 de Conductividad Electrica, 0.227 ppm de Salinidad, 147.5 CaCO3 ppm de Alcalinidad y 173.8 OPX de Potencial Redox obtenidos a través del muestreo de los 20 pozos seleccionados en el acuífero. Durante la estancia de verano se logró adquirir conocimientos teóricos de los acuíferos, conociendo sus características hidrogeológicas y fisicoquímicas. Se puso en práctica el método analítico volumétrico y equipos multiparamétricos, sin embargo, al ser una investigación para una tesis de maestría, aún se encuentra en la fase de los análisis de muestras llevadas a los laboratorios analíticos, por tal motivo no se pueden mostrar los datos obtenidos. Se espera conocer las cantidades concentradas de Nitratos, Fluoruro y Arsénico de manera que aportara una visión más amplia sobre las características fisicoquímicas del agua subterránea e identificar el origen que provoca dichas reacciones.
Callejas Copto Luis, Instituto Politécnico Nacional
Asesor: Dr. Ernesto García Sánchez, Instituto Tecnológico Superior de Guanajuato

INTERFAZ PARA CONTROLAR UN OSCILOSCOPIO MEDIANTE COMPUTADORA.


INTERFAZ PARA CONTROLAR UN OSCILOSCOPIO MEDIANTE COMPUTADORA.

Callejas Copto Luis, Instituto Politécnico Nacional. Asesor: Dr. Ernesto García Sánchez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

1 Introducción Muchos procesos, ya sea a nivel de laboratorio o en la industria, requieren del monitoreo y captura de señales, ya sea muy rápida y/o a lo largo de mucho tiempo, de modo tal que para un humano no es posible realizar esta tarea. Afortunadamente, en la actualidad el uso extendido de las computadoras y el acceso a diferentes modos de comunicación muchas tareas de monitorización y control se llevan a cabo a través del monitoreo de procesos apoyados por una computadora, cuya conectividad permite la supervisión del proceso a distancia. Los sistemas que pueden controlarse por computadora ofrecen el control a distancia en forma programada, esto proporciona ventajas de adaptabilidad, bajo costo y alto rendimiento. En este proyecto se propuso la implementación de funciones que permiten controlar un Osciloscopio (Tektronix TDS1001B) mediante una computadora. El sistema será usado como base para la medición de variables físicas en experimentos que requieren la recopilación masiva de datos en forma temporizada a corto y largo periodo de tiempo. Esta herramienta permitirá recopilar gran cantidad de datos en forma automatizada, así como la generación de gráficos en dos, y tres, dimensiones para el análisis de información. Además, el sistema ofrece las prestaciones para el envío de resultados vía correo electrónico. Para resolver el problema se usó la Tecnología VISA (Virtual Instrument Software Architecture), así como el lenguaje de programación Python, que es un lenguaje de programación interpretado, multiplataforma y de código abierto.



METODOLOGÍA

METODOLOGÍA 1. Se aprendieron los conceptos básicos de vectores, matrices, y el uso del lenguaje de programación Python. Se investigó el proceso de instalación y uso de software para programar, así como el manejo básico de este lenguaje de programación para definir variables, vectores y matrices; se aprendió la manera de realizar gráficos en 2 y 3 dimensiones. 2. Se aprendió el concepto de VISA: Se investigó la filosofía de la “Virtual Instrument Software Arquitecture”. Así como la manera en la que esta arquitectura se usa para controlar instrumentos de medición por computadora. 3. Se revisaró el manual del programador del osciloscopio con el fin de conocer las instrucciones que permiten controlarlo. 4. Se desarrollaron las funciones que permiten controlar el osciloscopio. Se procedió a implementar una interfaz de software para realizar mediciones controladas por computadora usando el osciloscopio. 5. Se implementaron funciones de presentación de datos y se realizaron pruebas. Se implementaron funciones que permiten presentar datos capturados con el osciloscopio, tanto en forma de vectores, así como en forma de gráficos en 2 y 3 dimensiones. 6. Se implementó la función adicional para enviar los archivos con las mediciones, o con los gráficos generados, a un correo electrónico.


CONCLUSIONES

CONCLUSIONES En este proyecto se implementaron funciones que permiten el control de un osciloscopio usando una computadora. El trabajo realizado sirve como base para la realización de experimentos en los que se requiere la captura de trazas de osciloscopio en forma rápida, o temporizada y por largos periodos de tiempo. Las señales capturadas pueden almacenarse en archivos, y se programaron funciones para que a partir de los mismos se puedan crear gráficos en dos, y tres, dimensiones que permiten el análisis visual de grandes cantidades de información. Las funciones realizadas permiten desarrollar sistemas con alta flexibilidad gracias a la reutilización y reconfiguración de varios de los módulos, de manera que se reducen considerablemente los costos de desarrollo y mantenimiento. Debido a estas características este trabajo puede emplearse en el futuro para adaptarlo a diversas necesidades debido ya que la funcionalidad del sistema está definida por software y no por hardware. Por otra parte, la adaptación de un nuevo instrumento es de forma natural, siempre que éste último soporte el concepto VISA.
Calva Cruz Adolfo Efren, Instituto Politécnico Nacional
Asesor: Dr. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara

MONITOREO DE LA CALIDAD AMBIENTAL RECREATIVA (CAR) DE LAS PLAYAS DE LA BAHíA DE BANDERAS (JALISCO Y NAYARIT) MéXICO.


MONITOREO DE LA CALIDAD AMBIENTAL RECREATIVA (CAR) DE LAS PLAYAS DE LA BAHíA DE BANDERAS (JALISCO Y NAYARIT) MéXICO.

Calva Cruz Adolfo Efren, Instituto Politécnico Nacional. Salazar López Jeshua Emmanuel, Instituto Politécnico Nacional. Asesor: Dr. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Mundialmente las playas son el destino más recurrente por los turistas, y en México la Bahía de Banderas, comprendida por los estados de Jalisco y Nayarit (20° latitud Norte, -105° longitud Este.) cuenta con las playas más concurridas de México por el turismo, por factores de ubicación geográfica, protección ante desastres naturales, historia y cultura. Lo que representa un beneficio al sector económico local y nacional poder garantizar la calidad recreativa en las playas de la bahía  y el nivel de satisfacción de ocio de quienes visitan las playas, sin embargo, la actitud de los visitantes también es influyente, por lo que la aplicación del Índice de la Calidad Ambiental Recreativa (ICAR), que contempla los parámetros de seguridad, ruido, rigidización, residuos sólidos, paisaje, ordenación y olor, es útil para categorizar, jerarquizar y proponer un plan de acción enfocado a mejorar la calidad ambiental recreativa (CAR) en las playas de la Bahía de Banderas.



METODOLOGÍA

Se llevó a cabo la aplicación de los instrumentos de evaluación de campo Percepción de Usuarios de Playas (PUP), test con 12 preguntas donde se evaluó por los visitantes, los servicios, la gestión de la playa y el paisaje percibido. Además  el Test de Actitudes Ambientales (TAA) con 21 preguntas capaz de determinar la disposición de ánimo en la playa, identificar el perfil Pro-Ambiental y Anti-Ambiental, así como conocer si una persona condiciona la gestión de la playa. Estos instrumentos fueron aplicados en 14 playas de la Bahía de Banderas (Anclote, Bucerías Norte, Bucerías Sur, Camarones, Garza Blanca, Holly, Huanacaxtle, Los Muertos, Nuevo Vallarta Norte 1, Nuevo Vallarta Norte 2, Nuevo Vallarta Sur 1, Nuevo Vallarta Sur 2, Playa de Oro y Punta Negra). El levantamiento se realizó a través de la app para dispositivos móviles Android KoBoCollect donde el usuario puede responder de forma anónima y confidencial. En total se concluyeron 1001 levantamientos entre 11 estudiantes de los que 986 resultaron válidos. Se realizó una gráfica para cada instrumento de tipo columna 100% apilada, donde se representaron los resultados obtenidos de las 986 muestras, 586 (PUP) y 400 (TAA), una gráfica de cada instrumento por playa y finalmente una tabla y grafico dinámico en Excel 2016 para el análisis y comparación de datos sumando un total de 30 gráficas de información útil para la investigación.


CONCLUSIONES

Después de analizar las gráficas obtenidas de los rubros anteriormente mencionados, se concluyó que para los usuarios que participaron en la evaluación de campo de las playas de Bahía de Banderas consideraron que  se cuenta con un excelente paisaje, pero su seguridad policiaca tiene bastantes deficiencias. En cuanto a la actitud ambiental, más del 95% de los usuarios concuerdan en que es un deber el cuidado de las playas, lo que significa que las personas que visitan las playas están conscientes que son partícipes del cuidado del medio ambiente, sin embargo, cerca del 70% consideró que el Gobierno debe de encargarse de ello, y poco más del 50% no cree que los turistas sepan cuidar las playas. En cuanto al enfoque en las playas del instrumento de percepción, la playa que tuvo más aceptación holística de los usuarios, fue la playa de Nuevo Vallarta Sur ubicada en el estado de Nayarit, dónde más del 50% de los usuarios la destacaron con Muy satisfecho en cuestión del paisaje y calidad del agua, sin embargo, rechazaron la seguridad policiaca y la afluencia de vendedores ambulantes. Por otro lado, Playa de Oro ubicada en Puerto Vallarta, Jalisco, fue la que menor aceptación generó en los usuarios debido a sus pobres servicios gastronómicos, la falta de seguridad policiaca y física.
Camacho Dávila Montserrat, Universidad Autónoma del Estado de México
Asesor: Dr. Mario Alberto Quijano Abril, Universidad Católica de Oriente (Colombia)

PROPUESTA RESTAURACIóN ECOLóGICA ASOCIADA A LAS ESPECIES NATIVAS DEL BOSQUE DE OYAMEL EN EL NEVADO DE TOLUCA, ESTADO DE MéXICO.


PROPUESTA RESTAURACIóN ECOLóGICA ASOCIADA A LAS ESPECIES NATIVAS DEL BOSQUE DE OYAMEL EN EL NEVADO DE TOLUCA, ESTADO DE MéXICO.

Camacho Dávila Montserrat, Universidad Autónoma del Estado de México. Peralta Acosta Natalia, Universidad de la Costa (Colombia). Asesor: Dr. Mario Alberto Quijano Abril, Universidad Católica de Oriente (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El Área de Protección de Flora y Fauna Nevado de Toluca es una Área Natural Protegida ubicada en el Estado de México a más de 3 mil metros sobre el nivel del mar, que abarca una superficie de 53 mil 590 hectáreas (CONANP, 2016).  En esta zona los ecosistemas que predominan son los boscosos, albergando 4 especies forestales tales como: pino (Pinus hartwegii), oyamel (Abies religiosa), encino (Quercus laurina) y aile (Alnus jorullensis). Sin embargo, la cobertura forestal en estos ecosistemas ha sido disminuida debido a factores antropogénicos como: incendios inducidos para generar áreas aptas para el cultivo, la práctica de pastoreo en la zona, así como la extracción de madera de forma insostenible ya sea para consumo propio como leña o para su venta en el mercado, escogiendo en este proceso la madera de mejor calidad, lo que ha generado la pertenencia de árboles con enfermedades, provocando así un incremento en la superficie de plagas y plantas parásitas. (Villers, 1998). Cabe destacar que las zonas de bosque que aún se conservan en el Área de Protección Nevado de Toluca, están infestadas con muérdago verdadero (Phoradendron sp.). Mismo que se presenta tanto en las ramas como en el fuste en individuos adultos y renuevos, lo cual debilita y deteriora el arbolado, esto ha provocado poca regeneración y la disminución de la producción de semilla fértil, por lo que es necesaria la intervención humana, a fin de evitar la pérdida total del ecosistema. Es por ello que se formulan la siguiente pregunta: ¿Qué medidas de restauración ecologica son viables para recuperar la zona boscosa en el Área de Protección de Flora y Fauna Nevado de Toluca?



METODOLOGÍA

En la primera fase se establecerá como ecosistema de referencia el bosque de Oyamel del Parque Nacional el Chico en Hidalgo, México. Posteriormente se delimitará la zona de estudio con respecto a su nivel de viabilidad para el desarrollo del proyecto para más tarde identificar las especies de flora y fauna nativas e introducidas de la región con el fin de evaluar el estado actual del ecosistema, junto con los disturbios que puedan estar comprometiendo la calidad del mismo. De igual forma se busca la participación de las comunidades aledañas, mediante jornadas de sensibilización, educación ambiental y ecoturismo, para que estos sean parte activa como prestadores de servicios ambientales al contribuir con la conservación del bosque. Para la segunda fase se seleccionarán las especies más adecuadas con respecto a los datos obtenidos de la identificación y de esta forma se aplicarán protocolos de propagación ex situ de estas.Contribuir a la regeneración y conservación del bosque de Oyamel aumentando la cantidad de ejemplares de especies nativas en zonas degradadas en el área de estudio del Nevado de Toluca, por medio de la propagación ex situ.


CONCLUSIONES

Contribuir a la regeneración y conservación del bosque de Oyamel aumentando la cantidad de ejemplares de especies nativas en las zonas degradadas en el área de estudio del Nevado de Toluca, por medio de la propagación ex situ, asi como  jornadas de capacitacion a las comunidades aledañas sobre la implementacion y manejo de viveros para la conservacion y medidas de restauracion ecologica. 
Campos Uscanga Adair, Universidad Veracruzana
Asesor: Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla

ELABORACIóN DE UN GEL REMINERALIZANTE BASADO EN HIDROXIAPATITA Y MODELADO DE LA INTERACCIóN IBUPROFENO-JUGO GáSTRICO EN GAUSSIAN 09.


ELABORACIóN DE UN GEL REMINERALIZANTE BASADO EN HIDROXIAPATITA Y MODELADO DE LA INTERACCIóN IBUPROFENO-JUGO GáSTRICO EN GAUSSIAN 09.

Campos Uscanga Adair, Universidad Veracruzana. Asesor: Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Línea 1: Elaboración de un gel remineralizante basado en hidroxiapatita. En este proyecto, se tratará con un residuo en particular: el esqueleto de pescado. Se propondrá una metodología para adoptar los esqueletos de pescado producidos por la empresa como una fuente de hidroxiapatita natural (HAp). Considerando la excelente biocompatibilidad que presenta la HAp [2], ésta, a su vez, será utilizada en la elaboración de un gel remineralizante. Dados los resultados de ciertos estudios recientes efectuados con nanohidroxiapatita [3], se especula que el gel será capaz de restaurar cavidades y tejidos dentales. La ventaja que ofrece esta recuperación es que se obtiene HAp natural. A diferencia de las hidroxiapatitas sintéticas, obtenidas a través de un proceso de síntesis relativamente simple, no presentan una pobre resistencia mecánica, además que no disolverse fácilmente, lo cual es deseable para ser utilizado como biomaterial de sustitución ósea [4]. Línea 2: Modelado de la interacción Ibuprofeno-Jugo Gástrico en Gaussian 09. ... Se conoce que la concentración de estos productos en el agua es del orden de las partes por billón, comparable con la que se encuentra en los pesticidas [7]. Incluso científicos alemanes reportaron que sea cual sea el cuerpo de agua escogido pueden encontrarse entre 30 y 60 productos farmacéuticos [8]... El objeto de interés de este proyecto es el ibuprofeno, un antiinflamatorio y analgésico muy común presente en los ríos y en los efluentes hospitalarios y de plantas de tratamiento de varios países, como lo son Corea, Inglaterra, Canadá, Noruega, España y Australia, expone Quesada-Peñate [9].



METODOLOGÍA

L1: Se intentó separar la carne de pescado del hueso con baños de agua caliente. Cuando restaba poca, el hueso se secó y se trató térmicamente en aire a las temperaturas 700, 800 y 900 °C. Esto con la finalidad de apreciar cuál era la temperatura mínima necesaria para obtener HAp con un alto grado de pureza. Luego, se sometió el polvo obtenido a baños de ultrasonido para reducir el tamaño de partícula. Se prepararon muestras que consistían en 1 g de HAp por cada 10 mL de agua destilada. Éstas se expusieron en intervalos múltiplos de diez minutos, desde 10 hasta 120. Las microestructuras obtenidas fueron analizadas con microscopía óptica.  Aparte, las muestras con mayor tiempo de exposición al ultrasonido también fueron examinadas con microscopía electrónica de barrido . Con las imágenes obtenidas, utilizando el software ImageJ, se pudo obtener el intervalo de áreas de partícula. Las muestras de mayor interés fueron caracterizadas mediante espectroscopía de infrarrojo con transformada de Fourier y sistema ATR y sus cristalinidades se determinaron con un difractómetro. Los modelos de todos los dispositivos ocupados no fueron incluidos por el límite de caracteres.  Para la realización del gel, en un recipiente se añadieron a un recipiente, 150 mL de agua destilada con 2 g de HAp y 0.5133 g de carbopol completamente disueltos, luego 5 mL de glicerina y para finalizar 5mL de trietanolamina. L2: Se construyó en GaussView 06 una estructura lo más similar posible a la fórmula molecular del ibuprofeno y, con base en los resultados experimentales obtenidos por Liu, L., & Gao, H. [10], se establecieron las distancias entre los enlaces. Para representar el jugo gástrico, se consideraron moléculas de agua, ácido clorhídrico y cloruro de potasio. Para las moléculas de H2O, HCl y KCl, se tomaron las longitudes de enlace que proporciona GaussView por default. Todas las moléculas se optimizaron primero con el método de Hartree-Fock con el set STO-3G y para cargas -1, 0 y +1. A partir de los resultados obtenidos, se seleccionaron aquellas que exhibieran la mínima energía y se optimizaron al mínimo nuevamente aparte de calcular las frecuencias con el método de DFT B3LYP y el set 6-31G. Posteriormente, con base en el HOMO y el LUMO y con la información de Kowsari, E., et al. [11], se pudieron obtener valores de algunas propiedades fisicoquímicas del ibuprofeno. Para el modelado con la interacción Ibuprofeno - Agua, se añadió la molécula optimizada de agua al entorno del ibuprofeno en cinco posiciones distintas y se utilizó DFT B3LYP con 6-31G para buscar la posición de enlace con mínima energía posible.


CONCLUSIONES

L1: Por un lado, para el caso del FTIR, se enunciarán a continuación las bandas correspondientes a los grupos funcionales de una molécula de hidroxiapatita según Nasrellah, H., et al. [6], así como los obtenidos a partir de nuestras muestras: < Tabla no anexada dado el límite de caracteres. > Nasrellah et al. [6] menciona además tres hechos importantes: - La presencia de bandas de vibración de carbonatos indica la absorción de dióxido de carbono de la atmósfera. - Deshidroxilación gradual a medida que aumenta la temperatura de exposición de la muestra. - Los picos son bastante definidos a temperaturas intermedias (600 °C) y conforme aumenta la temperatura, los picos se vuelven más débiles. Se destaca la ausencia de las bandas representativas del carbonato y de los enlaces hidrógeno-oxígeno. Esto implica que, a 900 °C, se obtuvo una muestra anhidra y que la gran parte del CO2 fue removido de ella. Por otro lado, mediante difracción de rayos X, se determinó que la hidroxiapatita resultante tiene una estructura hexagonal, con parámetros a=b=9.4172 y c=6.8799. Los picos obtenidos en DRX son: 32.46, 32.81, 34.89, 39.58, 46.67, 49.76, 53.73, 56.85, 65.07, 75.45. Los picos son bastante definidos, lo que implica que el nivel de cristalinidad de la muestra es alto. L2: A continuación, se enunciarán los valores obtenidos para algunas propiedades fisicoquímicas del ibuprofeno: <Tabla no incluida dado el límite de caracteres.> Asimismo, se presentan en el documento completo, las regiones en el espacio que ocupan el orbital molecular ocupado más alto (HOMO) y el orbital molecular desocupado más bajo (LUMO). Adecuaciones al documento fueron realizadas y referencias no incluidas dado límite de caracteres.
Cantillo Pérez Raúl Andrés, Universidad de la Costa (Colombia)
Asesor: Dr. Valeria Ojeda Castillo, Centro Universitario UTEG

PM10 EN EL AMG: OCURRENCIA Y EVALUACIóN DE RIESGO A LA SALUD EN NIñOS DURANTE EL PERIODO 2011-2016


PM10 EN EL AMG: OCURRENCIA Y EVALUACIóN DE RIESGO A LA SALUD EN NIñOS DURANTE EL PERIODO 2011-2016

Cantillo Pérez Raúl Andrés, Universidad de la Costa (Colombia). Ramos Franco Míriam, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Valeria Ojeda Castillo, Centro Universitario UTEG



PLANTEAMIENTO DEL PROBLEMA

La contaminación ambiental representa un problema de salud pública en la que se ven afectadas todos los individuos de una sociedad, en especial aquellos más vulnerables como niños, y adultos de la tercera edad. Según la OMS la contaminación del aire fue responsable de 4.2 millones de muertes prematuras en todo el mundo en el año 2018, debido a la exposición y altas concentraciones de material particulado, PM10 y PM2.5. Este contaminante en su fracción de 10 micras puede alojarse en los pulmones causando afectaciones a la salud, y por consecuencia disminución de la calidad de vida de las personas. Según una nota publicada en el portal de noticias Proceso, la contaminación del aire en México causó en 2016, que las muertes de niños entre cero y cuatro años representaran 53.4% del total de fallecimientos por asma en menores de edad. Además, en ese año se registraron 1902 defunciones por infección respiratoria aguda de niños y adolescentes.



METODOLOGÍA

Se obtuvieron datos de concentraciones de contaminantes atmosféricos colectadas por las estaciones de monitoreo de la red de calidad de aire de la ciudad de Guadalajara, Jalisco, del año 2011 a 2016. Una vez conseguidos, se procedió a realizar la validación de los datos de manera que fuesen valederos y representativos. Posteriormente se realizó una revisión bibliográfica de antecedentes para el cálculo del riesgo a la salud y la obtención de características fisiológicas de niños de 0 a 10 años. Al contar con todos los datos necesarios se realizó el cálculo del riesgo dividiendo a los infantes por grupos, de la siguiente manera: niños recién nacidos, de 1 año, de 2 años, de 3 a 5 años, y de 6 a 10 años, cada grupo con su respectivo peso promedio, y tasa de inhalación. Las fórmulas utilizadas fueron las siguientes: DDP=(CC×TI×FE)/P Donde: DDP=Dosis diaria promedio (µg/Kg × d) CC=Concentración del contaminante (µg/m3) TI=Tasa de inhalación (m3/d) FE=Factor de exposición P=Peso corporal (Kg) FE=(HE×DE×AE)/Tx Donde: HE=Horas de exposición DE=Días de exposición AE=Años de exposición Tx=24×365×AE Tx=Tiempo promedio (h×d×a) R=DDP/DRf Donde: R=Riesgo DDP=Dosis diaria promedio DRf=Dosis de referencia En caso de que el resultado final sea un valor menor o igual a 1, el riesgo a padecer afectaciones a la salud es bajo. Si es mayor a 1, el riesgo es alto. Y entre mayor sea el valor, más riesgo existe.


CONCLUSIONES

De la investigación realizada durante el verano se pudo evidenciar que el área metropolitana de Guadalajara sobrepasa constantemente el límite permisible de PM10 establecido por la Norma Oficial Mexicana, y más el límite recomendado por la OMS. Por ende, se pudo ver que existe un riesgo marcado para la población infantil, ya que entre más pequeño sea el niño, más vulnerable y susceptible se encuentra a sufrir afecciones respiratorias durante su vida. Se puede mencionar también que es en la época invernal en la que más altas concentraciones de material particulado se dan, y en la época húmeda, en los meses de junio, julio, y agosto, es cuando las concentraciones son más bajas. Es pertinente mencionar también, que en el día los momentos en los que hay más concentración de material particulado es de 6 a 10am, y de 6 a 10pm.
Carbajal Bonal Omar, Universidad Autónoma de Guerrero
Asesor: Lic. Laura Elena Parrao y López, Universidad Nacional Autónoma de México

DIVULGACIóN DE LA CIENCIA: 50 ANIVERSARIO DE LA LLEGADA DEL HOMBRE A LA LUNA


DIVULGACIóN DE LA CIENCIA: 50 ANIVERSARIO DE LA LLEGADA DEL HOMBRE A LA LUNA

Carbajal Bonal Omar, Universidad Autónoma de Guerrero. Asesor: Lic. Laura Elena Parrao y López, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El objetivo de esta estancia de investigación es poder ejecutar de manera exitosa la divulgación científica de modo que posteriormente se desarrolle la planeación de un evento educativo y masivo. Esto es una parte de esencial de nuestro objetivo, pues parte de la divulgación científica es el método de exposición, de cómo el conocimiento científico se transmite, y eso se logra mediante una buena planeación en la apropiación del conocimiento. Despues tomando en cuenta todas las variables (sociales, de presupuesto, ambientales, culturales, etc.) se anticipa como debe ser un evento, que en función del número de personas que se esperan se localice en el lugar el área adecuada , al público al que va dirigido y su propósito es como este será realizado. 



METODOLOGÍA

Para el evento 50 años de la llegada del hombre a la Luna a realizarse en Ozumba, Estado de México, se contó con la asesoría de la investigadora Laura Parrao y López y se tomó en cuenta para la planeación lo siguiente: Fecha asignada al evento: 15 de agosto al 1 de septiembre Nombre del Evento: 50 años de la llegada del hombre a la Luna Lugar del evento: En el municipio de Ozumba de Álzate, Estado de México Responsables y participantes del evento:  Jorge Valencia T. de la Casa de Cultura José Antonio Álzate Tramite de permisos de uso de suelo Galería La Estampa, Casa de Cultura José Antonio Álzate del 10 de agosto al 15 de septiembre Auditorio de la casa de Cultura el 30 y 31 de agosto Plaza Estado de México el 31 de agosto Actividades programadas Para la Galería se realizarán dos exposiciones. La inauguración de las exposiciones se realizara el 15 de agosto, para motivar al público El 30 de agosto se abre con conferencista dando una explicación de la exposición fotografía y respondiendo preguntas de 16 a 18 hrs, así como una exposición de Marte y una explicación de la misma de 18 a 20 hrs. Para el Auditorio de la Casa de Cultura José Antonio Álzate, se realizara el 30 de agosto a las 11 hrs  la conferencia  de inauguración del evento acerca de la carrera espacial y 31 de agosto a las 11 hrs. La conferencia sobre el Sol y la obra de teatro a las 17hrs. Para la plaza Estado de México para realizar en ella: 31 de agosto la observación solar que iniciará de las 12:30 a las 16 hrs, y a las 17 hrs el Performance clown 1 de Septiembre se inicia  a las 12:30 hrs con el planetario móvil y diversos talleres, integrándose el Tianguis de ciencia cerrando a las 17hrs. Integrándose el Concierto de Rock a las 17 hrs. A las 18 hrs el evento de danza Se trabajara con la música de la orquesta filarmónica que inicia a las 19hrs, y la velada de observación astronómica que inicia a las 20hrs. Mobiliario, desechables y material a ocupar Para auditorio. Conferencias y Teatro. Cañón proyector. Computadora. Apuntador, micrófono, sonido. Área oscurecida (control de luz de la sala). Para la galería se requieren mamparas. Sonido y micrófono, cañón y pc para el día de la explicación. Para la Plaza, requieres micrófono, sonido, y el primero de septiembre se requieren carpas, una por taller de 3x3, con una mesa de un tablón de 2.40 x 1.20, con 12 sillas (10 para los niños y dos para los expositores); una mesa chica para acomodar material; una mampara para colocar título y resumen de la actividad; cordón y pinzas para colocar carteles al interior de la carpa. Tarima o templete para las actividades los conciertos, de danza, equipo de sonido, Comestibles: agua y alimento para conferencistas,  personal de teatro, danzantes, músicos, alimento para la inauguración de exposiciones y bebida para los asistentes, barra de café y galletas para las actividades de la Galería. Medidas de seguridad e higiene, contingencia y consideraciones Seguridad e higiene: Se requiere tener carpa adicional para concentrar niños extraviados, y el personal de atención a la carpa. Se plena un circuito de circulación para el interior de la Plaza, la Galería y la Casa de Cultura Se contará con los servicios de protección civil, ambulancia, Policía en entradas y salidas, así como de baños portátiles. Planes de contingencia En caso de lluvia, previamente se solicitó el uso del patío del Palacio Municipal para la colocación de los talleres Debe haber extinguidores a no más de 4 metros de cada taller o actividad. En la circulación debe haber anuncios donde se señala la salida o taller más cercano, así como croquis distribuidos por la misma Se distribuyen las posiciones de cada policía. Consideraciones: Se deben tener responsables de cada área, mínimo uno por actividad, dos si es con niños. Durante el uso de los telescopios si es solar debe estar despejada la zona donde se ocupa si es lunar, deben estar las luces cercanas al telescopio apagadas El planetario debe quedar resguardado del viento Presupuesto Se toma en cuenta para la realización del presupuesto el uso del mobiliario rentado, de los servicios ocupados y de todo el material que se tenga que comprar


CONCLUSIONES

La divulgación científica no se reduce a la exposición de un tema, es todo un proceso de trabajo dependiendo del tamaño de la audiencia o del medio en el cual se difunde. En el caso de los eventos masivos lleva por detrás todo proceso de realización, que va desde lo teórico donde los exponentes se preparan un tema de modo que sea digerible para quien lo recibe, como el logístico, donde se preparan todos los detalles sobre el espacio y la difusión que el exponente necesite. La planeación de eventos de este tipo puede ser sobrevalorada para el observador, pero es muy importante, pues en  un evento  bien organizado, no podrías darte cuenta que algo está mal, a diferencia de uno mal organizado en el que muchas cosas salen mal y es visible. Como objetivo final de esta estancia se tiene la planeación y pulcra ejecución del evento programado en Ozumba, todo el trabajo realizado fue encaminado en pos de que quienes presencien este evento se sientan interesados en poder aprender un poco más, pues esa curiosidad es resultado de la divulgación.    
Cárdenas Reyes Leonor Estefanía, Universidad Autónoma del Estado de México
Asesor: Dr. Beatriz Edith Vega Serratos, Universidad Autónoma de Campeche

CARACTERIZACIóN DE LLUVIAS POR HORA DURANTE LOS AñOS DEL 2013 AL 2017 EN LA CIUDAD DE SAN FRANCISCO CAMPECHE


CARACTERIZACIóN DE LLUVIAS POR HORA DURANTE LOS AñOS DEL 2013 AL 2017 EN LA CIUDAD DE SAN FRANCISCO CAMPECHE

Cárdenas Reyes Leonor Estefanía, Universidad Autónoma del Estado de México. Asesor: Dr. Beatriz Edith Vega Serratos, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Las precipitaciones en sí mismo, pueden representar un factor de riesgo para la población, ya que dan origen a subsecuentes amenazas como pueden ser procesos de deslizamientos y remoción de masa, desbordes de ríos e inundaciones. Por tanto, es de relevancia la elaboración de documentos encaminados a al conocimiento y la investigación, para poder generar y posteriormente ejecutar medidas preventivas en conjunto con los diferentes actores sociales, esto ayudara a minimizar los daños y en casos extraordinarios evitar pérdidas de vidas humanas. Caracterizar la precipitación tiene diversas aplicaciones por ejemplo;  el al ámbito de las ciencias agrícolas; dado que la única fuente de agua para el cultivo de temporal es la precipitación, es necesario evaluar si las aportaciones de lluvia satisfacen la demanda de agua del cultivo o al contrario, si las lluvias son excesivas podrían afectarlo, debido a inundaciones en el área de uso agrícola; cabe destacar que los requerimientos hídricos de los cultivos varían, temporal y espacialmente en función de las condiciones ambientales, del manejo de la tierra, así como la fase de crecimiento y del tipo de cultivo, por lo que su cálculo debe ser local.  Así mismo, permite realizar de forma más acertada planificaciones que van desde programar una siembra hasta la cosecha del cultivo dado que un falso inicio o terminación de la temporada de lluvias,  Íñiguez M. et al. (2014); ocasionando grandes daños patrimoniales a los productores y a la economía familiar, ya sea por la pérdida parcial o total de la inversión y del ingreso esperado (Vega B. E., et al. 2018). De igual modo diferentes obras de ingeniería civil se ven profundamente influidas por los factores climáticos, por su importancia destacan las precipitaciones. En efecto, el conocimiento de las precipitaciones y sus características aportara al dimensionamiento adecuado de las obras hidráulicas, permitirá determinar los materiales adecuadas para su construcción y garantizará su correcto funcionamiento (Rodríguez H. G., 2012).  



METODOLOGÍA

El presente documento tiene como propósito el análisis de la precipitación que se presentó en la ciudad de San Francisco Campeche durante la temporada de lluvias,  la cual corresponde a los siete meses de mayo, junio, julio, agosto, septiembre, octubre y noviembre en un periodo de tiempo del año 2013 al 2017, igualmente se realiza una comparación entre los datos de la Estación 4038 (datos diarios) de CLICOM y los de la EMA Campeche, Camp. (datos por horarios), esta comparación implica la identificación de los eventos de lluvias extraordinarios, así como su relación con los datos de fenómenos meteorológicos que proporciona la NOAA por sus siglas en inglés (National Oceanic and Atmospheric Administration); por último se tomarán en cuenta las lluvias precedentes al evento principal para determinar si estas tienen influencia en la saturación del terreno y se sustentaran los resultados con las afectaciones reportadas en periódicos y portales de noticias. Características de los datos Datos NOAA Los datos a los que brinda acceso la NOAA incluyen los cuadros en la pista de la tormenta, además de una tabla de información de seguimiento basada en texto. La tabla incluye la posición en latitud y longitud, los vientos máximos sostenidos en nudos, donde un nudo es igual a 1.5 millas por hora y la presión central en milibares; cabe destacar que los datos de descarga son equivalentes con los de lluvias y corresponden a un periodo de tiempo del 2013-2017. Datos de estaciones CLICOM  es un sistema de software de manejo de datos climatológicos desarrollado por las Naciones Unidas, que significa CLImate COMputing projet, las observaciones son diarias y representan los datos recopilados durante las últimas 24 horas finalizando a las 8:00 am CICESE (consultado en julio del 2019); mientras que una EMA Estación Meteorológica Automática es un conjunto de dispositivos eléctricos y mecánicos que realizan mediciones de las variables meteorológicas de forma automática (OMM,182).  Los datos utilizados para este análisis son el promedio por hora, cabe destacar que  la hora que se utiliza para registrar los datos es el horario TUC ó UTC (Tiempo Universal Coordinado) razón que se deberá tener en consideración  para la correcta interpretación de los datos. Las diferencias en los datos de las estaciones se detallan en la tabla 2. Para distinguir las características de los diferentes datos, se elaboró un hietograma de cada estación con una temporalidad en común.  


CONCLUSIONES

Por medio de los hietogramas realizados de precipitación de mayo a noviembre de los diferentes años de estudio, se puede observar  que los eventos de lluvia son similares en temporalidad pero en cuanto a la cantidad de lluvia la variación es muy evidente, puesto que los datos de la Estación 4038 son mayores a la sumatoria de los datos de la EMA Campeche, Camp., cabe destacar que la ubicación geográfica de ambas estaciones no es la misma y que al no tener datos de una tercera estación no se sabe si los valores corresponden a un mismo evento con cierta tendencia o si corresponde a otro evento con características diferentes. El desarrollo del presente trabajo permite concluir que de manera general las lluvias de alta intensidad se presentan frecuentemente en periodos de tiempo cortos; por consecuente, desarrollan una capacidad para inundar los suelos. No obstante en la ciudad de San Francisco Campeche aunque con poca frecuencia, se presentan eventos con alta intensidad y de larga duración; esto debido a la presencia de fenómenos climatológicos como (depresiones tropicales, tormentas tropicales o huracanes), representando un alto riesgo de inundación; tal como sucedió el 8 de agosto del 2017, en donde la ciudad recibió el impacto de la tormenta tropical Franklin, ocasionando severos daños. Por otro lado, cabe destacar que la Estación Automática Meteorológica Campeche, Camp., tiene una deficiencia en los datos, pues el registro de las variables climáticas comienza el 04 de enero del 2013 y  una vez que comienza el año de registro, tiene lapsos de tiempo de hasta meses  en donde no hay valores.  
Carmona Juárez Carlos Judá, Instituto Politécnico Nacional
Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional

SOLUCIóN NUMéRICA A UN PROBLEMA DE OPTIMIZACIóN "LA BRAQUISTóCRONA"


SOLUCIóN NUMéRICA A UN PROBLEMA DE OPTIMIZACIóN "LA BRAQUISTóCRONA"

Carmona Juárez Carlos Judá, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El problema de la baquistócrona plantea una situación de optimización, un tipo de problema que no suele presentarse a estudiantes de de nivel medio superior durante un curso de calculo diferencial. Usualmente los problemas de optimización a nivel de bachillerato involucran solo una variable dependiente y su solución que mayormente involucra resolver una ecuación o un sistema de ecuaciones para encontrar el valor mínimo o máximo de entre varios tipos de datos; área, perímetro, etc. Sin embargo, el problema planteado por Bernoulli Dado dos puntos A y B en un plano vertical ¿Cuál es la curva trazada por un cuerpo que se mueve solo bajo la influencia de la gravedad el cual inicia en A y culmina en B?, el planteamiento involucra un problema de dos variables independientes, ya que la solución se conforma de un conjunto de coordenadas por donde el cuerpo se mueve y es en este sentido que su solución conlleva a utilizar conceptos de cálculo en varias variables.



METODOLOGÍA

Pese a que el problema de la baquistócrona tiene una solución analítica, nuestro proyecto planteó el utilizar métodos numéricos con la intención de aprender como encontrar la solución de cualquier problema de optimización dado un intervalo de error. Los Métodos numéricos son aquellos que utilizan técnicas algebraicas y aritméticas que se realizan a partir de un problema planteado para resolver de forma aproximada ecuaciones o sistemas de ecuaciones complejas, que analíticamente resultan muy difíciles de resolver. El problema lo planteamos en una delimitación del espacio, por lo que partimos de la idea de tener los puntos en una gráfica, en donde (0,1) es el punto de inicio y (1,0) el de final, también decidimos usar puntos fijos para el eje de las x's en el problema, a las divisiones de este segmento de X lo llamaríamos el incremento de X (delta de X), con esto nos saldría una función, que al principio pensamos en una resolución por medio de Sumatorias, pero esa idea no continuó. Después de esto, lo que hicimos fue buscar una forma de resolver el problema, se planteó una resolución por medio de un método de mallas, o Grid's, este método realiza todas las trayectorias posibles mediante una cuadriculación de todo el espacio, donde cada primer tramo que se crea deriva un número igual o mayor de nuevos caminos, y se debe calcular el tiempo de todos los caminos para elegir el que sea menor, finalmente decidimos usar el Método de Newton-Raphson pero aplicado a Optimización, en este caso a buscar el recorrido de menor tiempo. Seguido de haber elegido este método se hizo lo siguiente:  Cursos intensivos de programación del Software Libre, Octave, el cual usamos, para graficar y para desarrollar todo nuestro algoritmo para la resolución del problema. Comprender de manera completa cómo funcionan las Matrices Hessianas, los gradientes de funciones, ya que ahora las funciones, dependiendo del incremento de X, las variables de la función que se generarían serán más de 1, por lo tanto el problema sería de una optimización multivariacional. También comenzamos un curso de programación de wXMaxima, un software libre que nos ayudó con los cálculos de las derivadas parciales que necesitan los Hessianos para funcionar, además de usarlo para guardar y comprobar la sintaxis de las funciones que utilizamos.  El método numérico de optimización multivariacioanl de Newton-Raphson, deriva de la misma idea del de encontrar raíces de funciones en las que los métodos analíticos no funcionen. Lp que hace ésta técnica es hacer aproximaciones a la raíz a partir de un punto de x, el cual no sabemos si es raíz o no, en donde se desarrollará el proceso con la siguiente expresión matemática "x1=x0-(f(x0)/f'(x0))", después de la primer iteración, se hace una y otra vez hasta que el valor se acerque lo suficiente a la respuesta real, para hacer la optimización en este caso, cambiamos f(x) por el gradiente evaluado en cada variable y pasado a un vector columna para facilitar el proceso y cambiamos la f'(x) por la matriz Hessiana evaluada para cada variable y en lugar de dividir va a multiplicar, por lo que cambiamos la Matriz por su inversa. Lo siguiente fue encontrar la forma de programar para que haga el proceso, las iteraciones y la gráfica, de una manera más eficiente y satisfactoria, planteamos que lo ideal sería usar ciclos For, debido a que al principio consideramos el usar ciclos While pero estos piden una sentencia de desigualdad para terminarlo, por lo que preferimos mejor determinar este número nosotros mismos. Lo consecuente a esto fue el problema de la generación de la matriz Hessiana, ya que dependiendo del número de variables aumentaría sus dimensiones, las dimensiones se determinan n2 donde n es el número de variables, y si queríamos mayor precisión, requeríamos más variables, la ventaja fue darnos cuenta que sólo se llenarían los espacios de la matriz de la derivada parcial en segundo orden de todas las variables y un espacio de matriz adyacentes a ésta diagonal principal. Lo que faltaba era poder comprobar de manera explícita que éste fuese el camino ideal, lo que hicimos ahora fue recrear un cálculo de velocidad final, para poder comprobar este lo que además hicimos, fue compara con resultados de un método directo, lo cuál significa que es un proceso sin derivadas, si no meramente algebraico y aritmético, por lo que lo comparamos con el método de Grid's que habíamos iniciado pero concluimos con no hacer uso de ellos, ahora nos serviría de comprobación de la eficiencia del programa. Mientras más pequeño hacíamos el incremento de X, notamos que el tiempo del programa final comparado con el de método directo de Grid's era menor.


CONCLUSIONES

Con el programa realizado, ahora podemos afirmar que los métodos numéricos, aplicados y enseñados a alumnos del nivel Medio Superior pueden ser de gran ayuda para la mejor comprensión y planteamiento de situaciones o problemas, también es posible concluir que la forma en que operan los métodos numéricos, siempre dependerá del número de iteraciones y de qué tan pequeño sea el incremento de la variable.
Carpio Amador Carlos Alberto, Instituto Politécnico Nacional
Asesor: Dr. Jose Hector Morales Barcenas, Universidad Autónoma Metropolitana

ANáLISIS DE COMPONENTES PRINCIPALES (PCA) APLICADA A DATOS OBSERVACIONALES.


ANáLISIS DE COMPONENTES PRINCIPALES (PCA) APLICADA A DATOS OBSERVACIONALES.

Carpio Amador Carlos Alberto, Instituto Politécnico Nacional. Asesor: Dr. Jose Hector Morales Barcenas, Universidad Autónoma Metropolitana



PLANTEAMIENTO DEL PROBLEMA

En el campo de las ciencias experimentales, un problema b'asico consiste en analizar una gran cantidad de datos y extraer informaci'on 'util de los fen'omenos naturales. Los datos se pueden representar por medio de distintas variables o par'ametros f'isicos y ser medidos desde distintos puntos de referencia. Lo anterior puede resultar en un gran problema puesto que, a veces, la relaci'on entre dos o m'as variables no se puede obtener a simple vista. Concretamente, una dificultad que se tiene resolver es representar adecuadamente a los datos, de tal modo que sea posible distinguir patrones y otras caracter'isticas, como son el ruido o variaciones que no son inherentes al fen'onmeno en cuesti'on. El emph{an'alisis de componentes principales} o PCA (por sus siglas en ingl'es ``Principal Component Analysis'') es una herramienta est'andar del llamado emph{aprendizaje de m'aquina} o ``Machine Learning'', usado de manera com'un en los campos de las neurociencias, la f'isica experimental, la biolog'ia molecular, la rob'otica y muchas otras ramas de la ingenier'ia o incluso de las ciencias sociales, como en la econom'ia.



METODOLOGÍA

Primerante cabe mecionar que el PCA funciona para cualquier tipo de datos, sin importar la naturaleza de los valores asociados a las variables f'isicas medidas, tampoco depende del n'umero de variables involucradas o de la cantidad de veces que se ha repetido el experimento.  Cada una de la columnas representan el valor medido de una misma variable en distintas realizaciones, mientras que cada una las filas o renglones representan un conjunto de datos optenidos en un experimento dado.  La finalidad del PCA es hacer una transformacion de los datos en $X$ en donde, al momento de graficarlos, podamos observar tendencias o patrones. Este algoritmo se basa principalmente en resultados de la teor'ia del 'algebra lineal. Supondremos que $X$ es la representacion de alguna emph{transformaci'on lineal} (ver Definici'on~ ef{def:uno}). Lo que haremos ser'a representar los mismos datos a trav'es de una emph{base vectorial} distinta (ver Definici'on~ ef{def:dos}); es decir, la nueva matriz $Y$, que representa a los mismos datos en otra base.


CONCLUSIONES

A manera de conclusi'on y como parte final de este art'iculo podemos decir que PCA es una herramienta de la ciencia inform'atica que nos sirve principalmente para manejar un arreglo de datos un tanto complejo, transform'andolo en uno m'as sencillo, ya que la representaci'on de los datos se hace sobre sus componentes principales.  Finalmente las matem'aticas que sustentan el funcionamiento de PCA  son avanzadas y mayormente se sustentan en t'opicos y teor'ias del 'algebra lineal; sin embargo, 'esto tambi'en pone l'imites a la eficiencia del PCA sobre una base de datos cualquiera, ya que comportamientos que no se puedan representar como una transformaci'on lineal al aplicar el PCA no ser'a tan efectivo, tambi'en por eso es bueno enfatizar, como antes, que el PCA es una gran herramienta para el an'alisis de base de datos, pero se auxilia de otras herramientas para hacer un an'alisis mucho m's profundo.
Carrazco Gaxiola José Sebastian, Universidad Autónoma de Sinaloa
Asesor: Dr. Mariana Cano Díaz, Universidad Nacional Autónoma de México

COMPARACIóN DE MODELOS DE MAPAS DE VELOCIDADES DE GALAXIAS CON LA HERRAMIENTA VELFIT 2.0 Y SU VERSIóN MODIFICADA


COMPARACIóN DE MODELOS DE MAPAS DE VELOCIDADES DE GALAXIAS CON LA HERRAMIENTA VELFIT 2.0 Y SU VERSIóN MODIFICADA

Carrazco Gaxiola José Sebastian, Universidad Autónoma de Sinaloa. Asesor: Dr. Mariana Cano Díaz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Los mapas de velocidades de galaxias se pueden obtener observacionalmente utilizando técnicas espectroscópicas o  interferométricas a partir del desplazamiento Doppler; sin embargo para estudiar posibles errores sistemático en el análisis de estos campos lo mas sencillo es crear mapas de velocidades sintéticos, los cuales se pueden derivar de manera analática o numérica. Para analizar campos de velocidades observacionales y/o sintéticos hay una gran cantidad de rutinas computacionales de diferentes autores que hacen el análisis. Para este trabajo en particular se usá la herramienta ’Velfit Code Version 2.0’ (cuyo manual de usuario se encuentra en: Spekkens, & Sellwood, 2010) desarrolado por Kristine Spekkens y Jerry Sellwood (cuya referencia original es: Spekkens, & Sellwood , 2008) para ajustar un modelo no axisimétrico del campo de velocidades de una galaxia que permite movimientos no circulares grandes o extendidos. Recientemente en el Instituto de Astronomía de la UNAM, campus C.U., se trabaja en una modificación del código el cuál busca más soluciones al problema del ajuste del campo de velocidades intentando optimizar la herramienta de Velfit 2.0 el cual, por la propia naturaleza de ajuste que utiliza, continuamente se queda estancado buscando soluciones en mínimos locales sobre los mapas de datos. Mientras que el código modificado utilizando cadenas de Monte Carlo Markov Chain (MCMC) logra hacer más iteraciones de forma automática creando cientos de archivos de salida. En este trabajo se hizo la comparación entre usar la herramienta Velfit 2.0 y la herramienta que utiliza el método MCMC.



METODOLOGÍA

Se eligieron 4 campos de velocidades sintéticos creados utilizando las ecuaciones (1 y 2 de: Spekkens, & Sellwood , 2008) los cuales fueron realizados por el estudiante de doctorado Erik Aquino Ortiz. Debido a que el ajuste es un proceso que requirió el uso de los lenguajes de programación IDL y Fortran77, y de los cuales el primero requiere una licencia para poder utilizarlo, decidimos utilizar un nodo computacional el cual se encuentra en el Instituto de Astronomía de la UNAM, el cual cuenta con licencias para la utilización de este lenguaje. Se le instalaron las paqueterías necesarias de IDL (librerías ’cfitsio’, astronómicas, etc). Además en mi ordenador portátil se instaló Velfit 2.0 para hacer pruebas y ver que los resultados dentro y fuera del nodo fueran los mismos. La manera en que Velfit 2.0 trabaja es solicitando el archivo de texto de entrada y un mapa de velocidad el cual está en un archivo FITS. Al ser los mapas de velocidades utilizados sintéticos, ya conocíamos a priori todos sus parámetros geométricos los cuales se introducían en un archivo de texto con una estructura específica dada por la documentación de Velfit 2.0. Con los parámetros de entrada el análisis se hace dividiendo la galaxia en una serie de anillos, estando la galaxia caracterizada por un ángulo de inclinación (i), de posición (PA), centro del anillo (xc,yc), velocidad sistémica (Vsys) y de rotación V(R).Estas variables son ajustadas por mínimos cuadrados en cada anillo usando una serie de ecuaciones (3 y 4 de: Spekkens, & Sellwood , 2008). Se hicieron un total de 20 pruebas para 4 modelos sintéticos de mapas de velocidades de galaxias con el código de Velfit 2.0 en Fortran77 en el nodo, el cual nos arroja un archivo de texto con los parámetros de salida ajustados por la rutina así como una imagen en formato FITS del campo de velocidades ajustado y un campo residual, con diferentes metodologías para que la distribución de χ² fuera lo más cercana a 1. Además se usó la versión modificada de Velfit 2.0 que utiliza un MCMC para los mismos campos sintéticos.


CONCLUSIONES

La iteraciones que hace Velfit 2.0 arrojan que la distribución χ² son más sensibles al conjunto de parámetros de entrada, por ello mismo después de decenas de pruebas se llegó a la metodología de hacer un barrido por los parámetros de inclinación y posición angular del mapa sintético de la galaxia para llegar a un mejor ajuste. El inconveniente es que toma gran tiempo llegar a resultados que se acerquen a lo que se espera. Por el contrario al utilizar la herramienta modificada de Velfit 2.0 que hace uso del MCMC encontramos que es menos sensible a los parámetros de entrada por lo cual es más automatizable. El desarrollo de este proyecto requirió el aprender el manejo del sistema operativo Linux el cuál sirvió para trabajar en la terminal de mi computadora portátil y del nodo. Y el haber trabajado este con último me ha dado la capacidad para instalar, usar, y modificar librerías y/o códigos dentro de el, y me da experiencia para trabajar en un futuro con algún otro nodo de la misma u otra institución. Además se crearon múltiples códigos desarrollados en Python 3.7 para abrir y manejar FITS y la información de sus encabezados, así como códigos para manejar pixeles no contienen información (con valor Nan). Este proyecto me ayudó a ganar experiencia con otros lenguajes de programación como IDL y Fortran77. Dichos códigos servirán para futuros trabajos de investigación y/o escolares que requieran la implementación de esas herramientas.
Carreto Maxil Emanuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLO DE óXIDOS CONDUCTORES TRANSPARENTES POR MéTODOS EN FASE VAPOR PARA APLICACIONES EN DISPOSITIVOS OPTOELECTRóNICOS.


DESARROLLO DE óXIDOS CONDUCTORES TRANSPARENTES POR MéTODOS EN FASE VAPOR PARA APLICACIONES EN DISPOSITIVOS OPTOELECTRóNICOS.

Carreto Maxil Emanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Durante el periodo de verano decidí realizar la estancia de investigación en el grupo de investigación DoraLab bajo la supervisión del Dr. Montiel y la Dra. Mazón en las instalaciones del CIMAV. El grupo se dedica a realizar recubrimientos avanzados como lo son las películas delgadas las cuales cuentan con distintas propiedades dependiendo de los materiales que la constituyen, así como el depósito empleado para fabricarlas. La iniciativa del proyecto que se realizó durante la estancia nace por el interés de contribuir al campo tecnológico que tiene por objeto reducir el consumo energético en la sociedad. Esto por medio del desarrollo de películas delgadas de baja emisividad Low-E. Estas películas permiten tener control de la temperatura en interiores de edificaciones con lo que se genera una reducción en costos de energía por el uso continuo de equipos de acondicionamiento de clima.  Dentro de los recubrimientos Low-E se encuentran los recubrimientos basados en metales y, por otro lado, los óxidos conductores transparentes (TCO’s, por sus siglas en inglés). Uno de los objetivos principales es el desarrollo de TCO’s con materiales que sean abundantes en el territorio mexicano como es el caso del Zinc y el Aluminio, siendo México el lugar número 6 a nivel mundial en la producción de Zinc. El método de síntesis por el cual se desarrollaron películas delgadas de Óxido de Zinc dopadas con aluminio (ZnO:Al) fue ALD (Atomic Layer Deposition) debido al alto control del espesor de la película. Los métodos de caracterización de las películas delgadas sintetizadas fueron Reflectancia difusa, UV-Vis y Efecto Hall. Los trabajos contribuidos hacia el grupo de investigación DoraLab también incluyeron el depósito de una capa de aluminio del orden nanométrico sobre películas delgadas de ZnO/FeO con la técnica de EBPVD (Electro-Beam Physcal Vapor Deposition) para estudiar la variación de sus propiedades eléctricas por Efecto Hall.



METODOLOGÍA

Preparación para el depósito. Se me indico el reglamente del laboratorio asignado al grupo DoraLab junto con una capacitación sobre el acondicionamiento de la zona de trabajo, el cuidado para evitar accidentes tanto a mi persona como a mis compañeros de trabajo, el protocolo de limpieza para aumentar las probabilidades de un depósito con éxito, la manera de utilizar equipos específicos y la preparación de los sustratos para el depósito. Síntesis de películas delgadas de ZnO:Al por fase vapor (ALD). Bajo la tutela del técnico responsable se depositó óxido de zinc dopado con aluminio sobre 30 sustratos de vidrio Corning (Cada 6 sustratos con una concentración distinta). Medición de espesor de película. El espesor de cada película se midió por el método de reflectancia especular, utilizando un perfilómetro óptico marca Filmetrics que midió en distintas zonas para estudiar la homogeneidad del depósito. Caracterización a través de espectroscopia UV-Vis-NIR. Uno de los principales objetivos fue evaluar el comportamiento de la transmitancia en las películas delgadas variando la concentración de dopaje de aluminio, los resultados indicaron una tendencia favorable de transmitancia a lo largo del espectro visible y una disminución en el cercano infrarrojo, lo cual refleja la propiedad deseada en las películas con esa concentración. Corte de muestras con película delgada depositada y Efecto Hall. Otro método de caracterización utilizado fue el de medición de Efecto Hall el cual sirve para evaluar la conductividad, resistividad y la densidad de portadores de carga principalmente. Para medir el efecto hall fue necesario cortar las muestras de distintas concentraciones seleccionadas en forma de cuadro 1 cm x 1 cm. Después se procedió a realizar las mediciones. Análisis de caracterizaciones. Se observaron comportamientos favorables de la transmitancia, uno de los detalles más significativos fue el de un aumento en la transmitancia en la región del cercano infrarrojo a cierta concentración de dopaje que, a la par de los resultados obtenidos del efecto hall, mostró una disminución de los portadores de carga a la misma concentración. Medición de espesor por perfilometría Un método bastante usado por excelencia para medir espesores de películas delgadas es el de perfilometría, particularmente el método de punta. La comparación con las mediciones de espesor con un perfilómetro óptico muestra y corrobora la fiabilidad que tiene el uso de un perfilómetro de contacto para este tipo de muestras.


CONCLUSIONES

•El análisis de resultados demostró la concentración a la cual el dopaje de aluminio reduce la cantidad de portadores de carga lo cual corresponde al aumento de transmitancia en el intervalo del espectro infrarrojo correspondiente a la transferencia de energía en forma de calor.   •Es necesario considerar un estudio sobre el efecto de la temperatura en el depósito por ALD sobre los sustratos con el fin de analizar la homogeneidad de crecimiento de las películas de ZnO:Al.
Carrillo Hernández Karen Guadalupe, Universidad Veracruzana
Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional

CONTROL Y DISEñO EN 3D DE VEHíCULO AéREO NO TRIPULADO


CONTROL Y DISEñO EN 3D DE VEHíCULO AéREO NO TRIPULADO

Carrillo Hernández Karen Guadalupe, Universidad Veracruzana. Mondragón Enríquez Leonel Martín, Instituto Tecnológico de Tláhuac. Velázquez Cabrera Jaime Mauricio, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La tecnología avanza a pasos agigantados. Los medios de transporte, sean para trasladar personas u objetos, también lo hace con ella. Uno de ellos son los vehículos aéreos no tripulados (VANT).  Existen VANT de usos tanto civiles como comerciales, pero sus primeros usos fueron en aplicaciones militares, en este caso llamados Vehículos Aéreos de Combate No Tripulados. Con la progresiva popularización del uso civil de los drones sus aplicaciones varían, ampliándose el número de consumidores más allá del terreno militar. Este crecimiento tan acusado ha llevado a que surjan cada vez más empresas para beneficiarse de este nicho de mercado. Por lo que estos Vehículos son utilizados en misiones especificas adaptadas a las necesidades de la industria. Con el propósito de cubrir el requerimiento especifico en la misión de un VANT, se parte de un problema específico y se propone una solución. La cual conlleva al diseño preliminar de la propuesta, modelado matemático, simulación del modelo y validación de resultados. Esta simulación nos permite saber el desempeño que tendrá la solución propuesta en el problema especificado permitiendo variar parámetros sin poner en riesgo la integridad del sistema y manteniendo los costos al mínimo posible. Finalmente, ésta será comparada con el modelo físico, permitiendo conocer las posibles variaciones para su futura optimización.



METODOLOGÍA

Planteamiento del problema y objetivo Modelado y control de Motores Brushless utilizados en un Vehículo Aéreo No Tripulado. Objetivo: Diseñar un sistema de control para un Motor Brushless el cual irá montado en un Dron Cuadrirotor. Modelado matemático Partiendo de las ecuaciones que rigen el comportamiento del problema propuesto, se obtuvo el modelo matemático para representar el motor de corriente continua. Adaptación del modelo matemático a un programa de modelado en computadora A partir de distintos métodos matemáticos y teoría de control. Utilizando el Software Simulink de Matlab se obtiene un modelo que permite representar el modelo matemático en la computadora; representando el modelo de motor en su parte eléctrica y mecánica. Variación de parámetros a partir de hojas de especificación de componentes seleccionados Una vez seleccionados los componentes necesarios para la creación del modelo, se investiga las especificaciones técnicas de los mismos para permitir variar los parámetros   Reducción de complejidad en el sistema Debido al grado de complejidad en las ecuaciones utilizadas para el modelado matemático, es deseable reducir este sistema a los componentes más elementales posibles. Lo cual fue posible aplicando diversas metodologías de diseño. Detección de porcentaje de error y propuesta de control para reducción del mismo. Una vez realizando una primera simulación se obtuvo un porcentaje de error comparando la salida obtenida con los datos de entrada. Con lo cual se propuso un controlador que permite reducir el error al mínimo posible para desarrollar un sistema fiable. Desarrollo de sistema embebido a partir de elementos básicos. Una vez obtenido un modelo con un control que permita el mínimo error. Se debe desarrollar el modelo en componentes básicos que nos permitirá la construcción física del mismo y validación de los resultados de simulación. Creación de un modelo en 3D con ayuda de la herramienta de CAD Solidworks Empleando la herramienta de CAD Solidworks se realizan los trazos por separado de brazos, tren de aterrizaje y del plato superior e inferior para luego poder realizar el ensamblaje del Dron. En un archivo diferente realizamos el ensamblaje del motor y de nuestra la hélice, para luego proceder a colocar este ensamblaje en cada uno de los brazos del Dron. Exportación del modelo CAD a un entorno de realidad virtual Una vez ensamblado el Dron procedemos a guardar una copia tipo .wrl, lo que nos permite tener el modelo del Dron en una versión VRML 1 aunque debido a fines que ser verán más adelante haciendo uso del software AC3D exportamos nuestro archivo a una versión de VRML 2. Modificación de los centros de rotación de las hélices Para poder darle movimiento de manera virtual a nuestro Dron debemos primero modificar los centros de rotación de este por lo que empleando la herramienta vrbuild2 que nos facilita MATLAB modificamos lo necesario en cada hélice. Debido a que no es exacto el movimiento realizado, por medio de cálculos utilizando nuestro modelo del Dron en SolidWorks tomamos medidas del centro de nuestras hélices. Corrección de los centros de rotación en el código programable empleando WinEdt 10 Con los cálculos obtenidos con anterioridad modificamos el código en cada sección de las hélices para de esta manera tener los adecuados para después agregar la rotación en cada una de ellas. Sistema de adquisición de datos creado en Simulink aplicando un filtro para reducción de ruido Empleando la librería de Simulink 3D Animation se requiere agregar nuestra señal obtenida del control del sistema del motor, un filtro de reducción de ruido considerando que cualquier sistema se ve afectado por este mismo y una señal que le permite moverse de manera mas cercana a la realidad. Conexión del sistema de adquisición de datos a un modelo de simulación en 3D cargando el modelo de realidad virtual Simulación final en realidad virtual obteniendo valores a partir del trazado físico de la trayectoria del dron por medio del sistema de adquisición de datos.


CONCLUSIONES

Hasta el momento podemos concluir que las herramientas con las que actualmente contamos nos permiten trabajar de manera efectiva y eficaz, creando espacios y objetos y sistemas casi idénticos a los de la realidad para poder probarlos con lo que se reducen costos y se evita poner en riesgo nuestro sistema.  
Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa

SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.


SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.

Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla. Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla. Jiménez Reyes Susana Berenice, Universidad Autónoma de Sinaloa. Ortiz Olivas Jesus Raul, Universidad Autónoma de Sinaloa. Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El método de Monte Carlo (MC) es un método estadístico que usa números aleatorios para aproximar expresiones matemáticas complejas y difíciles de evaluar con exactitud. Este método es muy útil en estudios de sistemas con un gran número de grados de libertad, por ello, se dio el interés de simular un electrolito. Por otra parte, para hacer que las configuraciones del sistema sean representativas del equilibrio se empleó el algoritmo de Metrópolis, cuya finalidad es realizar los desplazamientos de las partes del sistema modelo de manera similar a las partes de un sistema real. El algoritmo cambia la configuración del sistema modelo por otra de acuerdo con la variación de la energía total de éste. De este modo, se acepta o rechaza una configuración con cierta probabilidad dependiendo de la variación de la energía, respecto a la energía total de la configuración anterior.  Un electrolito o solución iónica es cualquier sustancia que contiene en su composición iones libres, que hacen que se comporte como un conductor eléctrico. La importancia en el estudio de estas sustancias recae en aplicaciones dentro de la electroquímica, física médica, fisiología, en bebidas deportivas, salud, etc. Por ello, comprenderlos podría suscitar futuramente un nuevo avance científico o bien, una mayor eficiencia de los mismos en contacto con otros agentes.



METODOLOGÍA

Inicialmente, se definió un sistema modelo, se escogió su configuración inicial a partir de las condiciones descritas; de ese modo, se desarrolló un algoritmo para manipular las partes del modelo de manera que las configuraciones de este, después de cierta cantidad de movimientos (termalización) sean similares a las condiciones de equilibrio del sistema real. Además, cabe mencionar que las simulaciones MC son atemporales y por otra parte, cada configuración del sistema es influida por la configuración anterior. Una vez termalizado el sistema, se procedió a almacenar la estadística de las distintas magnitudes físicas que nos interesó medir. Para el caso del modelo del electrolito, fueron la cantidad de cargas positivas y negativas, iteraciones, pasos, temperatura, concentración, actualización, distancias de desplazamiento, permitividad dieléctrica relativa del agua, diámetro de las partículas y densidad de carga. Todo lo mencionado anteriormente se almacenó en un archivo de salida, el cual era posible modificarlo posteriormente para electrolitos con sales 1:1, 2:1 y 3:1. Por otra parte, para cumplir la hipótesis ergódica, la cual dice que es necesario que cualquier punto accesible en el espacio de configuraciones del sistema pueda ser alcanzado en un número finito de pasos de simulación desde cualquier otro punto, se tuvo especial cuidado en que las configuraciones de los iones que se utilizaron para realizar cálculos fueran suficientes y representativas de un sistema en equilibrio. A continuación, se recabó toda la estadística para después calcular sus promedios. Se empleó entonces el algoritmo de Metrópolis, que como se ha mencionado, si la energía de la nueva configuración es menor a la de la anterior tiene mayor probabilidad de ser aceptada, mientras que si esta es mayor muy probablemente será rechazada, en analogía a un sistema real. Efectuado ello, se procedió a realizar correcciones al modelo, es decir, si se tratan esferas rígidas o no, la pared cargada con la que interaccionaron las partículas, el confinamiento de las mismas, la ecuación de la energía de interacción total entre los iones, la dirección en la distancia x, la ecuación de la interacción de los iones con la pared cargada ubicada en el plano "x, y" y el efecto de la Doble Capa Eléctrica (DCE). Finalmente, se visualizó el comportamiento del sistema en el programa GeoGebra y se realizó el análisis estadístico en el programa Origin.


CONCLUSIONES

Generados los archivos de salida, se visualizaron los resultados en GeoGebra, facilitando el estudio de la distribución de los iones en el electrolito. Del mismo modo, para una mayor comprensión y un análisis detallado de su comportamiento, se revisaron los datos de la simulación en Origin. Se aplicó la simulación para sales con una densidad superficial de carga de -24 µC/cm2 , -12 µC/cm2, y -4 µC/cm2, en presencia de una sal simétrica 1:1, con iones de 0.72 nm  de diámetro a una concentración salina 100 mM y 1M para cada una de ls densidades mencionadas.  También se obtuvieron los perfiles de concentración iónica para un sistema de un plano cargado con las mismas densidades superficiales de carga en presencia de sales simétricas 2:1 y 3:1, con iones de 0.84 nm de diámetro a una concentración salina 333 mM y 0.96 nm a 167mM, respectivamente. En general, se observó que el achatamiento de las curvas depende de la densidad superficial de carga, es decir, si esta es más negativa, será más angosta; la elevación de la curva en los perfiles se debe al efecto de la Doble Capa Eléctrica (DCE) y tiende a ser asintótica debido a que intenta alcanzar el equilibrio en el seno de la solución.
Castillo Muñoz Maricarmen, Universidad Autónoma de Tamaulipas
Asesor: Mtro. Yuritzi Llamas Mangin, Universidad Autónoma de Tamaulipas

ESTRATEGIA EN LA ADAPTACIóN AL CAMBIO CLIMáTICO: GESTIóN AMBIENTAL EN PYMES Y RESPONSABILIDAD SOCIAL NUEVO LAREDO 2019


ESTRATEGIA EN LA ADAPTACIóN AL CAMBIO CLIMáTICO: GESTIóN AMBIENTAL EN PYMES Y RESPONSABILIDAD SOCIAL NUEVO LAREDO 2019

Castillo Muñoz Maricarmen, Universidad Autónoma de Tamaulipas. Solis Remigio Roshana Yoselin, Universidad Autónoma del Estado de México. Asesor: Mtro. Yuritzi Llamas Mangin, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Actualmente muchas pequeñas empresas desconocen aspectos importantes de su desarrollo empresarial que generan un gran impacto ambiental y descuidan el manejo de sus residuos y la eficiencia en el consumo de los recursos, lo cual es un aspecto que puede ser analizado y trabajado como parte de las funciones que la Universidad tiene para con la sociedad. A través de estrategias de vinculación como la Responsabilidad Social Universitaria, de parte de la Universidad Autónoma de Tamaulipas a la par de la Facultad de Comercio, Administración y Ciencias Sociales. La vinculación de la universidad representa una gran oportunidad de aprendizaje y capacitación a estudiantes en temas como la gestión y la responsabilidad social. Temas que al ser aplicados en materia de protección ambiental, promueven estrategias de adaptación al cambio climático y la alineación de acciones con los objetivos de la Agenda 2030.



METODOLOGÍA

La investigación se realiza con base en la delimitación de un sitio de estudio alrededor de la Facultad. El cual comprende las PyMES, áreas verdes y escuelas en la colonia Infonavit y ejido concordia. En el sitio seleccionado se realizó la aplicación de una entrevista semi estructurada con la finalidad de determinar la disponibilidad de la empresa a participar en un proceso de asesoría y el trueque de asumir políticas amigables con el medio ambiente a cambio de ser capacitado por la facultad con el apoyo del área de especialidad de las carreras.


CONCLUSIONES

Como parte de la implementación del trabajo de campo, se aplicaron 70 entrevistas a negocios de diferentes características como estéticas, vulcanizadoras, tiendas de abarrotes, papelerías, farmacias, club nutricional, entre otros. Estos establecimientos a través de su trayectoria no han participado en un proceso de capacitación como tal. Sin embargo, pueden compartir experiencias y actualizar muchos de sus procesos. En este proceso la RSU es una herramienta que es importante desarrollar con el apoyo de docentes y alumnos. Por lo que con base en la información recuperada por las entrevistas se puede desarrollar una guía que seriá una serie de instrucciones que describan el proceso de interacción de la universidad con las empresas al implementar un proceso de interacción para identificar las necesidades o la problemática. La Universidad, tiene la capacidad de ofrecer servicio de capacitación y asesoría a las empresas, con lo que ofrece un campo de oportunidad de servicio y voluntariado para que el estudiante se involucre en las necesidades reales del sector empresarial en pequeña escala, pero el cual lo acerca a la posibilidad de ayudar a la comunidad, aprender y observar los pasos para desarrollar habilidades de emprendimiento. La estrategia de implementar la gestión ambiental como sistema de truque es con la finalidad de promover el consumo responsable de las PyMES y generar una conciencia en alumnos y el sector productivo para disminuir el impacto ambiental y trabajar en equipo por la adaptación al cambio climático y alcanzar los objetivos internacionales de la Agenda 2030 como la capacitación constante, la producción eficiente y de bajo impacto, así como la conservación ambiental con la intención de mejorar la calidad ambiental de Nuevo Laredo.  
Castillo Ramirez Oliver Isaac, Instituto Politécnico Nacional
Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional

MONITOREO DEL VOLCáN POPOCATéPETL POR MEDIO DE IMáGENES SATELITALES EN EL PERíODO DE JUNIO-DICIEMBRE 2018


MONITOREO DEL VOLCáN POPOCATéPETL POR MEDIO DE IMáGENES SATELITALES EN EL PERíODO DE JUNIO-DICIEMBRE 2018

Castillo Ramirez Oliver Isaac, Instituto Politécnico Nacional. Guzmán Bahena Gustavo, Universidad Autónoma de Guerrero. Montoya Ochoa Montoya Ochoa Viridiana, Universidad de Sonora. Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El volcán Popocatépetl es uno de los volcanes más representativos de México, actualmente se encuentra en un periodo eruptivo y por la cercanía que este tiene con las ciudades de México, Puebla y Morelos es considerado como uno de los volcanes más peligrosos para la comunidad civil y para el espacio aéreo. Esto despierta el interés para la investigación de su comportamiento con el propósito de buscar mitigar riesgos en la población. El volcán Popocatépetl es clasificado como el estratovolcán más activo de México, con una estimación de más de medio millón de años de actividad con una actividad eruptiva explosiva bimodal compuesta por erupciones del tipo  pliniano y vulcaniano. En la actualidad, después de un periodo pasivo de 70 años el volcán Popocaépetl, tuvo un incremento en su actividad a partir de finales de1993. Se presentaron eventos sísmicos de largo periodo y aumento en la actividad fumarólica. También se reportaron cambios en la temperatura y pH del lago en el cráter, y un incremento en la emisión de gases (Martin Del Pozzo, 2012). De esa fecha al reciente, se han reportado incrementos y descensos en las explosiones de ceniza, incluso periodos anuales en los que casi no se presentan erupciones explosivas. Se pudo observar nuevamente una ciclicidad en la actividad volcánica representada por el mes de enero con un reporte de 21 días con actividad explosiva seguido de un decremente en los meses posteriores pero en el mes de Septiembre se puede observar  un fuerte aumento alcanzando los 22 días reportados con ceniza. Es por esta razón que este trabajo pretende llevar a cabo un estudio del comportamiento de la actividad del volcán antes y durante este periodo de incremento de actividad. Se realizará un monitoreo de la actividad de las emisiones de SO2 durante los meses de julio a diciembre de 2018, con el propósito de interpretar el comportamiento interno del sistema del volcán. Para esto se utilizará una técnica basada en el procesamiento de imágenes satelitales en el rango del infrarrojo térmico desarrollada por Realmuto y Berk (2016).



METODOLOGÍA

El estudio se llevó a cabo durante una estancia de verano bajo el Programa Delfín para incentivar la formación de investigadores. Para lograr el objetivo se llevaron a cabo varios pasos que se describirán a continuación.  Recopilación de imágenes satelitales del periodo de tiempo de julio a diciembre del 2018. Para este punto se descargaron imágenes satelitales del sensor MODIS del sitio web LAADS DAAC-NASA correspondientes al periodo de estudio. Técnica utilizada para el procesamiento de las imágenes MODIS Para llevara a cabo el procesamiento de las imágenes MODIS se utilizó el programa Plume Tracker desarrollado por Realmuto y Berk (2016). Para poder utilizar el Plume Tracker se deben preparar varios archivos obtenidos a partir de la imagen MODIS original. Para obtener estos archivos se utilizó el software ENVI® para la manipulación de las imágenes satelitales así como el programa Excel de Office® para la manipulación de los datos y el cálculo de los flujos de SO2. Para el procesamiento de las imágenes MODIS para la detección y cuantificación de SO2 en la atmosfera, se debe ser muy cuidadoso, debido a que un error en el desarrollo puede ocasionar un resultado erróneo. Se ocuparon datos de la VAAC de Washington para saber el número de erupciones que tuvo el volcán a lo largo del periodo analizado (junio - diciembre 2018). El software Plume Traker utiliza un archivo de datos de la estructura vertical de la atmósfera, para lo cual se generaron los datos para este archivo utilizando la información publicada por la NOAA. Por otro lado, de estos datos también se obtiene la dirección de los vientos en los niveles del cráter del volcán y superiores que son utilizados para identificar la dirección y la velocidad con que se desplaza la pluma volcánica. El resultado del procesamiento de la imagen MODIS con el Plume Tracker es un mapa de dispersión de SO2.  Con esta información los archivos generados por plume tracker deben ser procesados nuevamente por el software ENVI®. Como resultado de este procedimiento se obtiene un archivo en formato .txt que contendrá la información de la dispersión del gas que necesitamos para calcular el flujo de SO2 que hubo en ese día. Para calcular el flujo de SO2 se aplica fórmula propuesta por Jimenez et. al. (2011) para la estimación del flujo de SO2 a partir del procesamiento de la imagen MODIS.


CONCLUSIONES

El presente trabajo se enfocó en el análisis del monitoreo de la actividad de la desgasificación del volcán Popocatépetl durante los meses de junio a diciembre de 2018 con el propósito de identificar el tipo de comportamiento interno del volcán que dio origen a este fuerte incremento de la actividad explosiva. En el período analizado de junio a diciembre se registraron mayor cantidad de erupciones en el mes de septiembre lo cual se puede relacionar con el periodo de máximos niveles de flujo de SO2 reportando durante el mes de agosto registradas en la base de datos creada a partir del procesamiento de imágenes satelitales del sensor MODIS. El volcán muestra un comportamiento cíclico donde se tienen periodos de acumulación de energía, por tanto, pocas erupciones. Lo observado en el monitoreo por medio de imágenes satelitales mostró que justo antes del inicio de un cambio fuerte en el incremento de la actividad explosiva se presenta un incremento marcado en la concentración del flujo de SO2. Esto podría estar indicando la aportación de material nuevo en la zona interna del volcán que provoca el incremento en la emisión de gases volcánicos y por el aumento en el volumen de magma que ocasiona el crecimiento del domo ocasiona que se selle el sistema representado por un decremento muy marcado en el flujo de SO2. Este proceso provoca un aumento de la presión interna de sistema ocasionando que finalmente el tapón del domo cesa y se fragmente permitiendo liberar la presión interna en una serie de erupciones explosiones con la presencia de ceniza. El estudio muestra una correspondencia desfasada de los niveles de flujo de SO2 con las erupciones registradas por la VAAC de Washington.
Castillo Santillán Adrián, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima

ESTUDIO DE RELATIVIDAD ESPECIAL Y MECáNICA CUáNTICA


ESTUDIO DE RELATIVIDAD ESPECIAL Y MECáNICA CUáNTICA

Castillo Santillán Adrián, Benemérita Universidad Autónoma de Puebla. Flores Hernández Mario Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Para poder realizar una investigación en Física de Partículas es necesario comprender completamente los conceptos primordiales de la Teoría de la Relatividad Especial y las bases de la Mecánica Cuántica, así como las teoría surgidas a partirde estas que son base de las Teorías Cuánticas de Campos.



METODOLOGÍA

Durante las primeras dos semanas nos encargamos a entender los conceptos básicos de la Relatividad Especial, como lo son los postulados de Einstein, la dilatación temporal, la contracción de Lorentz, la necesidad de utilizar cuadrivectores covariantes para expresar la posición, momento y fuerza de cuerpos viajando cerca de la velocidad de la luz, así como la relación de momento y energía dada por la ecuación de Einstein. Las siguientes semanas estudiamos los principios que dieron origen a la Mecánica Cuántica como la distribución de probabilidad de energía de la Radiación del Cuerpo Negro, el Efecto fotoeléctrico y las líneas espectrales obtenidas debido a los niveles de energía en el átomo. También estudiamos el comportamiento de las partículas como ondas y con esto la difracción de electrones y el estudio de estos "paquetes de onda" como la suma infinita de ondas superpuestas con las series de Fourier, debido al comportamiento ondulatorio de las partículas se deduce el principio de incertidumbre de Heisenberg.


CONCLUSIONES

Con lo aprendido durante estas 6 semanas podemos comprender los principios básicos del comportamiento de la luz y de partículas a escala atómica, con esto podemos dar paso a entender el comportamiento de los electrones en el átomo analizando la ecuación de Schrödinger, la cual surge a partir de la idea de De Brogie y la confirmación empírica con el experimento de Davisson. Asimismo resolvimos una serie de problemas acerca de los temas estudiados para aplicar el conocimiento adquirido.
Castro Luna Diana Vanessa, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas

BáSICOS DE LA TEORíA DE LA RELATIVIDAD: CAMINO DE GRUPOS.


BáSICOS DE LA TEORíA DE LA RELATIVIDAD: CAMINO DE GRUPOS.

Castro Luna Diana Vanessa, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Los grupos de Lorentz y Poincaré toman un papel importante en la construcción de las matemáticas para la relatividad especial. El grupo de Lorentz, formado por las transformaciones de Lorentz; puede ser visto como un subgrupo del grupo de Poincaré. Sabemos que las ecuaciones de la relatividad especial, bajo el principio de covariancia deben ser invariantes bajo las transformaciones que pertenezcan al grupo de Poincaré. Históricamente, las ecuaciones de Maxwell fueron descubiertas antes que la teoría de la relatividad de Einstein. Uno de los objetivos es ver a la teoría electromagnética a través de la teoría especial de la relatividad. Veremos que en distintos marcos de referencia, estos no estarán de acuerdo en lo que cada uno llama campos eléctricos y campos magnéticos; cada marco de referencia verá distintas densidades de carga y distintas corrientes, pero estarán de acuerdo en que estas cantidades están relacionadas con las ecuaciones de Maxwell. Parte importante de la teoría de grupos son las simetrías en los sistemas físicos, es decir, bajo ciertas transformaciones algunas cantidades físicas o matemáticas permanecen invariantes. Lo que plantea el artículo clásico de Majorana, Teoría simétrica del electrón y del positrón, es la búsqueda de una simetría completa en la teoría del electrón y positrón, haciendo uso de un proceso de cuantización. Para desarrollar un mejor el análisis de estás simetrías, se realizará una traducción de este artículo al español.



METODOLOGÍA

Se inicio con una revisión bibliográfica en los libros "Quantum Field Theory", Lewis H. Ryder (Cambridge Univ. Press, 1996) y "Quantum Field Theory", Jean-Bernard Zuber y Claude Itzykson (McGraw Hill, 1980). Partiendo de lo leído, se demostró que si tenemos una estructura covariante, las ecuaciones de Maxwell serán iguales en distintos sistemas de referencia. Siguiendo el Capítulo 1 del libro "Quantum Field Theory", Jean-Bernard Zuber y Claude Itzykson (McGraw Hill, 1980), tomamos la definición dada en (1-39) para el tensor antisimétrico y de ahí se derivan expresiones para el campo eléctrico E y campo magnético B. Para calcular cada una de las componentes del tensor se hizo la variación en los índices, para llegar a la matriz dada en (1-33). Para encontrar las ecuaciones de Maxwell, es necesario encontrar el dual del tensor antisimétrico dado en (1-34) y se calculó su matriz correspondiente. Teniendo ambas matrices, podemos escribir a las ecuaciones de Maxwell de forma compacta usando (1-37). Haciendo las variaciones en los índices para la primera primera expresión de (1-37), se obtuvieron las ecuaciones a) y b) de (1-31) y usando la segunda expresión de (1-37) se obtuvieron las ecuaciones c) y d) de (1-31) viendo que se obtienen las 4 ecuaciones de Maxwell usando el tensor dado en (1-34). También nos fijamos en como transforma la expresión (1-34) cuando se hace un cambio de marco de referencia. Para esta parte, las transformaciones de norma y el tensor antisimétrico de Levi-Civita juegan un papel importante. Se hizo el calculo de como actúa el tensor de Levi-Civita para 3 y 4 dimensiones, una vez que se obtuvieron estos resultados se encontró otra representación de las ecuaciones de Maxwell. Durante el verano, también se hizo la traducción del artículo de Majorana. El investigador me proporcionó la traducción del italiano al inglés, y se hizo la traducción del inglés al español para una mejor comprensión del artículo. Siguiendo con el estudio de como transforman los campos eléctricos y magnéticos bajo transformaciones de Lorentz, se tomó el artículo "A note on the Lorentz Transformation for Photon"(Dvoeglazov y Quintanar, 2004) proporcionado por el investigador. Tomando las transformaciones de Lorentz dadas en (1) y (2) y las matrices S dadas en (5) que son las matrices generadoras de rotaciones para espín 1. Se construyó el operador (6) para armar las transformaciones para E’ y B’ en un marco de referencia nuevo y se obtuvieron las expresiones (9) y (10).


CONCLUSIONES

Utilizando los tensores adecuadamente, se logró ver la invariancia bajos el grupo de Lorentz de las ecuaciones de Maxwell en la teoría de la relatividad especial. Para el tensor antisimétrico definido, se encontró su dual; así como las transformaciones cuando se realiza un cambio de referencia utilizando el símbolo de Levi-Civita. Para el artículo proporcionado por el investigador "A note on the Lorentz Transformation for Photon"(Dvoeglazov y Quintanar, 2004)"nuevamente utilizando el tensor de Levi-Civita vimos como transformaban bajo trasnformaciones de Lorentz y con ayuda de las matrices para rotaciones de espín 1, el campo eléctrico y magnético en un nuevo marco de referencia. Se hizo la traducción del artículo de inglés a español del artículo de Majorana, está tarea del verano estaba enfocada al campo de física de partículas. Lo que se me hizo importante pues se adquirió nuevo conocimiento de un nuevo proceso de cuantización.
Castro Rojas Ricardo Antonio, Universidad de Guadalajara
Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara

FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO


FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO

Castro Rojas Ricardo Antonio, Universidad de Guadalajara. Diaz Morfin Elidia, Instituto Tecnológico de Colima. Reséndiz Marroquín Kevin Said, Universidad Autónoma de Guerrero. Yepiz Mendez Gustavo Rafael, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente nos enfrentamos a una problemática ambiental mundial, la escasez de agua potable, que desencadena una serie de problemáticas sociales. Por lo que la Organización de las Naciones Unidas (ONU) lleva mucho tiempo abordando la crisis mundial derivada de un abastecimiento de agua insuficiente y la creciente demanda de agua para satisfacer las necesidades humanas, comerciales y agrícolas. La cantidad de agua se encuentra dividida en los siguientes porcentajes 96.5% salada y 3.5% dulce. De esta última el 69% de agua dulce se encuentra congelada, porcentaje que va disminuyendo con el paso de los años debido a cuestiones climáticas. En la actualidad, varios millones de personas viven en regiones que sufren una grave escasez de agua, incluyendo a comunidades y ciudades de México. La desalación supone una manera de incrementar la oferta de agua potable. Teniendo en cuenta que 42 ciudades de más de un millón de habitantes se encuentran en la costa y que la mayoría de la población mundial vive a menos de 50 km de las costas marítimas, algunos expertos prevén que el agua de mar desalada se convertirá en una importante fuente de agua en el siglo XXI. Debido a esto se han buscado alternativas para la desalación del agua, desafortunadamente la mayoría de los métodos son costosos, sobre todo el de osmosis inversa. Uno de materiales novedosos es el óxido de grafeno (GO) debido a sus propiedades fisicoquímicas, anti-bactericidas y es de bajo costo. Sin embargo, la estabilidad del GO en soluciones acuosas es un requisito previo para su aplicación, ya que estará en contacto con agua. A consecuencia de la dificultad de la elaboración de la membrana hecha a base de GO, es necesario usar otros compuestos para mejorar la estabilidad en ambientes acuosos y a la vez proporcionar resistencia mecánica. En experimentaciones anteriores han empleado Nafión que es un compuesto muy caro y contaminante. Por otro lado, los biopolímeros como el galactomanano que es un material amigable con el ambiente, económico y fácil acceso, ya que se encuentra en el fruto del mesquite. Este árbol es nativo de la región Norte del estado de Jalisco. Es por eso que, en esta estancia de verano de investigación, se experimentó con la fabricación de membranas de óxido de grafeno y biopolímeros. De esta manera se pretende proponer una membrana que pueda emplearse para filtrar agua o biorremediación de agua residuales e industriales.



METODOLOGÍA

La experimentación partió de materiales sintetizados en el laboratorio. El proceso de experimentación se dividió en 2 etapas: La fabricación de membranas de GO. Prueba de filtración en la que se incluye el diseño y elaboración del prototipo para colocación de membranas. Fabricación de membranas Para fabricar la membrana a base de GO obtenido por medio del método de Hummers modificado, se emplearon galactomananos (GA) y/o glutaraldehído(G), glicerol, ácido acético, y papel filtro Whatman No.4 y milipore de 0.45 µm. El proceso consistió en la filtración tintas de GO y biopolímeros por gravedad y de vacío, en esta última se utilizó una bomba. El procedimiento fue el siguiente: Se emplearon tres tintas a base de GO, la primera fue hecha con 30 mg de GO y 40 mL de agua, etiquetándola como Tinta 1 (T1). Para la preparación de la segunda Tinta (T2) se utilizaron 120 mg de GO y 40 mL de agua. La última Tinta (T3) se prepraró con 2.1 mg de GO y 50 mL de agua. Las tres tintas se sonicaron 9 ciclos de 30 minutos cada uno. A las tintas de GO se le agregaron sustancias químicas para la elaboraron de  diferentes membranas de las cuales  la 1 y 2, se sometieron a vortex para asegurar una correcta combinación, se vertieron en cajas Petri y se dejaron secar a temperatura ambiente. Mientras que para las  3, 4, 5 y 6, se usó una parrilla eléctrica a una temperatura de 80°C y agitación contante para mezclar las sustancias, hasta que se observaron cristalinas. Después se vertieron en una caja Petri para dejar secar a temperatura ambiente. A todas las membranas se les realizó una prueba mecánica antes de llevar a cabo la filtración. La prueba consistió en someter 1 cm2 de la membrana en H2O y después ultrasónicar durante 10 minutos. Fabricación del dispositivo para filtración La filtración se realizó mediante el fenómeno de gravedad. La fabricación del dispositivo consistió en cortar la parte inferior del vial y a su tapa, a la que se le realizó un orificio de 3 cm de diámetro aproximadamente, la cual fue pegada con silicón frío en la boca principal. Posteriormente, se selló el contorno externo de la tapa con silicón frío. La membrana se pegó en los bordes de la parte exterior de la tapa con el orificio, se recortó el sobrante y se selló por la parte exterior nuevamente con silicón frío. Se preparó una solución electrolítica acuosa con cloruro de sodio (NaCl) a una concentración de uno molar (1 M). A la cual se le midió y registro la conductividad eléctrica antes y después de ser filtrada. En cada filtración se utilizaron 50 mL del electrolito acuoso para probar la capacidad de desalación de las membranas a base de GO. Se realizaron varios experimentos de los cuales se obtuvierón buenos resultados con las membranas 8 y 9, obteniendo una desalación del 8% y 16% respectivamente.


CONCLUSIONES

El óxido de grafeno es inestable en el agua. Se fabricaron membranas a base de óxido de grafeno empleado materiales biopolímeros. Se obtuvo una desalación del 16% con la membrana 9. Estas membranas pueden tener mayor eficiencia, si se aumenta la concentración de óxido de grafeno, así como asegurar que este se encuentre bien disperso en la solución acuosa y ligado a un componente que le brinde estabilidad.
Chapa Rocha Nallely Estefania, Universidad Autónoma de Tamaulipas
Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro

RECREACIÓN DE INTENSIDADES MÁXIMAS DIARIAS DURANTE EL HURACÁN “INGRID 2013” A TRAVÉS DEL ENTRENAMIENTO DE REDES NEURONALES CON EVENTOS EXTREMOS OCURRIDOS EN SEPTIEMBRE 1955, INCIDENTES EN LA REGIÓN HIDROLÓGICA 26 PÁNUCO.


RECREACIÓN DE INTENSIDADES MÁXIMAS DIARIAS DURANTE EL HURACÁN “INGRID 2013” A TRAVÉS DEL ENTRENAMIENTO DE REDES NEURONALES CON EVENTOS EXTREMOS OCURRIDOS EN SEPTIEMBRE 1955, INCIDENTES EN LA REGIÓN HIDROLÓGICA 26 PÁNUCO.

Chapa Rocha Nallely Estefania, Universidad Autónoma de Tamaulipas. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

El Sistema Metereológico Nacional SMN encargado de informar públicamente sobre la meteorología y el estado climatológico. Para prevenir y pronosticar eventos extremos, el SMN, implementó Estaciones Climatológicas CLICOM, que están en funcionamiento actualmente. Se tuvo acceso a los datos del periodo de 1920-2012 midiendo los distintos parámetros climatológicos en periodos de 24 horas. El conjunto de series de registros diarios no demostraba el comportamiento horario de las variables registradas. A partir del año 2012 el SMN instala Estaciones Meteorológicas Automatizadas EMAS que incluyen una mayor cantidad de variables, sus mediciones son cada 10 minutos con una precisión superior a la tecnología anteriormente utilizada. Aunque las EMAS sean una moderna herramienta de medición en ocasiones presentan espacios de registros faltantes durante segmentos horarios. El análisis de eventos extremos donde se utilizaron distintas tecnologías de medición requiere de procesar la información para que exista congruencia entre la compatibilidad de datos, siendo analizados en periodos del mismo tamaño. A lo largo del tiempo la meteorología ha avanzado ampliamente en el desarrollo de nuevas metodologías para el pronóstico de eventos climatológicos, estudios anteriormente analizados indican que los Huracanes tienen patrones entre sus características físicas que las hacen depender una de otra. Para este estudio se toman los huracanes Gladys, Hilda y Janet (1955) para demostrar que existe una semejanza entre su comportamiento con huracanes actuales como es Ingrid (2013). A través de la recreación sintética de uno de sus parámetros dependientes.



METODOLOGÍA

El pronóstico de Huracanes requiere de información histórica de eventos extremos ocurridos en zonas particulares, para este caso se analizan en la Región Hidrológica Pánuco (RH26). El uso de nuevos métodos de análisis de huracanes como lo son las Redes Neuronales Artificiales (RNA) nos permiten contrastar las condiciones presentadas, encontrando patrones entre ellos. La información requerida para el aprendizaje de la RNA fue seleccionada de los Huracanes: Gladys, Hilda y Janet ocurridos en 1955, cada uno de estos Huracanes se presentó de manera continua durante el mes de septiembre incidiendo en la RH26, afectando en gran escala la parte baja de la cuenca del R. Pánuco. Las ciudades de Tampico y Madero se inundaron causando grandes estragos a las viviendas de la zona conurbada, así como un gran número de pérdidas humanas. Consecuencia del desfogue de la cuenca debido a las constantes e intensas lluvias presentadas durante septiembre. La obtención de información para el entrenamiento de la RNA fue a través de 13 Estaciones Climatológicas CLICOM, que se encontraban cerca de la trayectoria del huracán a lo largo de la República Mexicana durante el periodo total de cada evento. A partir de los registros históricos y trayectorias obtenidas, se propuso el Huracán Ingrid ocurrido en septiembre del 2013 para ser reconstruida sintéticamente su Intensidad Máxima diaria (mm/h) a través de una red neuronal, este huracán tuvo incidencia en coordenadas cercanas a las posiciones del ojo de los huracanes en 1955. Preparación de información para la RNA Las variables seleccionadas para ingresar a la Red Neuronal en Matlab fueron modificadas para que exista congruencia en la relación de datos entre EMAS y CLICOM, para ambos casos se manejan registros diarios de Posición de la estación; Latitud, Longitud, Elevación (m), Temperaturas(°C) mínimas, máximas y promedio, precipitación acumulada en 24 hrs (mm) y la intensidad máxima diaria (mm/h). Se incluyó en la red variables adicionales correspondientes a la información del huracán: Latitud, Longitud, Elevación (m) de donde se tomó la medición, distancia del ojo del huracán a cada estación(km) y velocidad del viento (km/h). Al tener las series de datos se estandarizan de acuerdo a cada evento y son separados por estación, se añadió la información en 3 paquetes dentro del workspace de Matlab conteniendo la información correspondiente a los 3 huracanes con los que se trabajaría como entrenamiento, la función objetivo correspondiente al resultado de la relación existente entre las variables del evento para definir la intensidad máxima diaria y un paquete correspondiente a la información del huracán Ingrid, omitiendo la variable por recrear para ser utilizado como simulación. Cuando se ejecuta la RNA propuesta con un método de aprendizaje BACKPROPAGATION y error MSE, crea un algoritmo donde este tiene un seguimiento por cada nodo hasta lograr un resultado similar al esperado. Se propusieron distintos proyectos donde involucraba un mayor número de capas ocultas, así mismas redes de neuronas en cada una de ellas, al probar con distintos modelos los resultados mostraron una gran aproximación gráfica a la función objetivo esperada al comparar el resultado de salida otorgado por Matlab contra los registros captados por las EMAS. Una vez que el modelo de RNA representa una semejanza significativa a la intensidad máxima diaria del huracán Ingrid 2013, se des estandariza la serie de datos para visualizar los registros sintéticos creados para la simulación.


CONCLUSIONES

En el desarrollo de este proyecto, reconocimos a un mayor número de organismos dedicados al estudio de eventos metereológicos, así como herramientas para procesar información histórica diaria logrando una compatibilidad entre registros climatológicos con mediciones de distintos periodos de tiempo, dando paso al pronóstico de parámetros presentados en huracanes con trayectorias similares. Las RNA siguen el patrón que encuentren entre los registros de los que genera un aprendizaje, por lo que, al hacer uso de la información otorgada por la NOAA, las estaciones CLICOM y EMAS no mostró deficiencias en el comportamiento de forma del gráfico lo que sugiere si al añadir un mayor número de huracanes con intensidades similares al evento por recrear se esperaría una mejor aproximación a los puntos críticos de las intensidades máximas diarias.
Chaparro Oviedo Janeth Anayetzi, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

ANÁLISIS DE CALIDAD DEL AIRE MEDIANTE PARTÍCULAS SUSPENDIDAS PM10 PM2.5 EN LAS LOCALIDADES LAS JUNTAS, PITILLAL Y CENTRO DE PUERTO VALLARTA, JALISCO


ANÁLISIS DE CALIDAD DEL AIRE MEDIANTE PARTÍCULAS SUSPENDIDAS PM10 PM2.5 EN LAS LOCALIDADES LAS JUNTAS, PITILLAL Y CENTRO DE PUERTO VALLARTA, JALISCO

Chaparro Oviedo Janeth Anayetzi, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Puerto Vallarta carece de información referente a partículas suspendidas específicamente PM10 y PM2.5. Durante la estancia Verano de Investigación se hicieron mediciones en tres puntos del área urbana para localizar los puntos con mayor concentración y plasmarlos en cartografía para que a los tomadores de decisiones les sea más fácil identificar los focos de atención de la ciudad y tomar medidas precautorias ya que dicho contamínate es perjudicial para la salud.



METODOLOGÍA

La investigación se divide en dos fases. La primera fase consto en el monitoreo de las partículas suspendidas PM10 y PM2.5 en puntos estratégicos de la ciudad, las mediciones se realizaron en dos turnos; matutino de 8:00 am a 10:30 am y vespertino de 5:00 pm a 7:30 pm, en ambos turnos las mediciones se realizaron en intervalos de 15 minutos. Se descargaron imágenes atmosféricas de la pagina GOES (Global Online Enrollment System), también se utilizaron termodiagramas de la página NOAA (National Oceanic and Atmospheric Administration) con el fin de identificar si las concentraciones PM10 y PM2.5 tiene relación con las condiciones atmosféricas. La segunda fase consto en la recepción de una base de datos con valores de concentraciones de partículas suspendidas en 8 puntos distribuidos en el área urbana para el año 2018. En ambas fases se realizaron interpolaciones por el método IDW (Inverse Distance Weighting) con el fin de determinar valores en puntos no conocidos.


CONCLUSIONES

Se logro recopilar una basta cantidad de datos con valores de PM10 y PM2.5 para realizar interpolaciones en ambas fases y así visualizar en cartografías la distribución espacial de partículas suspendidas en el área urbana de Puerto Vallarta. Se detecto que la localidad de las Juntas se obtuvieron los valores de concentración más altos, dichos valores se deben a actividades antropogénicas dado que al descargar las imágenes atmosféricas y termodiagramas se observaron patrones subsidentes por lo que los altos valores no están dados por cuestiones naturales.
Chavez Colin Arely, Universidad Autónoma del Estado de México
Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche

MONITOREO COSTERO POR MEDIO DE PERFILES PLAYEROS, ANÁLISIS GRANULOMÉTRICOS Y EQUIPO OCEANOGRÁFICO


MONITOREO COSTERO POR MEDIO DE PERFILES PLAYEROS, ANÁLISIS GRANULOMÉTRICOS Y EQUIPO OCEANOGRÁFICO

Chavez Colin Arely, Universidad Autónoma del Estado de México. Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Los ambientes costeros siempre son susceptibles a cambios en su forma y ocupación, dentro de estos, las playas arenosas cercanas a la ciudades, además de los factores ambientales, son influenciadas por acciones antrópicas. Playa Bonita es la playa arenosa más cercana a la ciudad de Campeche (aproximadamente a 5 km hacia el sur), es un balneario inclusivo que a recibidos importantes aportes del gobierno estatal. El Instituto EPOMEX ha realizado, desde el año 2017, un monitoreo bimensual en esta playa con el fin de conocer el comportamiento, estacional y temporal, y generar recomendaciones para que esta playa pueda seguir cumpliendo con el objetivo social que la ha caracterizado; complementariamente también se ha realizado el monitoreo de la playa de Payucán, también cercana a la ciudad, que a pesar de limitar con el desarrollo portuario de Seybaplaya, no ha contado con medidas de mantenimiento que permitan recuperar su zona costera.



METODOLOGÍA

El proceso a realizar fue recolectar, procesar y analizar datos de muestras de arenas y coordenadas de perfiles  de las playas Payucan y Playa bonita para poder generar una base de datos estadísticos. Al trabajo de recolección de datos en campo se le denomina como Campaña. Durante la campaña primeramente se posiciona el GPS diferencial, posteriormente se ubican los perfiles de playa para tomar las medidas perpendiculares a la línea de costa, y extraer las muestras de arena correspondientes a cada zona de playa. En los siguientes puntos se presentan a detalle los pasos a seguir durante la campaña.  1. Ubicar, posicionar y fijar GPS diferencial.   Configurar GPS, tomar en cuenta paramentos para un buen funcionamiento (coordenadas, distancia de equipo, estado del tiempo, etc.).   2. Localizar perfiles de playa con GPS, cada perfil está separado a una distancia promedio de 200m.  3. Tomar fotografías hacia los cuatro puntos cardinales.  4. Tomar perfil de playa perpendicular a la línea de costa con GPS Diferencial, tomar un punto cada tres pasos, iniciar detrás de duna, hasta cruzar duna sumergida.  5. Extraer aproximadamente 1000g de arena en zonas de playa (duna, zona de lavado, sumergido antes de duna, sumergido después de duna), guardar en las bolsas etiquetadas.  Después de obtener las muestras de arena y los datos de medición de los perfiles de playa, se complementa el trabajo en el laboratorio y los pasos a seguir son los siguientes: 1. Colocar en charolas de plástico las muestras de arena, secar en condiciones ambientales (aire y sol), revolver con espátula de acero. 2. Tomar una de las muestras de arena seca, cuartear y pesar 500g.  3. Realizar granulometría, vertir en tamizes (tamizes utilizados son 5x5, 8x8, 10x10, 14x14, 18x18, 25x25, 35x35, 40x40, 60x60, 80x80, 120, 180, 230, fondo), tamizar por un minuto en cribadora. 4. Pesar la arena retenida en cada tamiz, embazar en botellas de plástico de medio litro, etiquetar botellas con fecha de salida de campo, nombre de perfil y zona de playa. Almacenar en el laboratorio.  5. Capturar en base de datos los resultados obtenidos del tamizado.  6. La base de datos contiene los siguientes parámetros;   No. de muestra   Fecha de campaña   Ubicación   No. de Perfil   Componente (Duna, Zona de lavado, Sumergida antes de la duna, sumergida después de la duna)


CONCLUSIONES

Deacuerdo con los resultados de las muestras obtenidas de cada una de las playas, despues del proceso al que fueros sometidas se puede determinar  que la arena de playa bonita el tamaño del grano es fino y de payucan es medio. La playa de payucan se tiene una mayor pendiente pero los cambios entre cada campaña  corresponden a la epoca climatica en la que se encuentre. Sin embargo para el caso de playa bonita en la campaña 11, perfil 5 los datos tuvieron un cambio muy abrumpto que no coincidian con la temporada climatica y las cifras son muy elevadas, lo que nos lleva a creer que existe un factor no considerado que altera el estado de la playa.
Cisneros Resendiz Juan, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Jesus Leaños Macias, Universidad Autónoma de Zacatecas

IMPLEMENTACIóN DE UN ALGORITMO QUE CALCULA EL NúMERO RECTILíNEO DE CRUCES DE DIBUJOS DE KN


IMPLEMENTACIóN DE UN ALGORITMO QUE CALCULA EL NúMERO RECTILíNEO DE CRUCES DE DIBUJOS DE KN

Cisneros Resendiz Juan, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Jesus Leaños Macias, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

El problema de determinar el número rectilíneo de cruces de una gráfica es un problema abierto y bien conocido en el área de geometria discreta. Desde hace más de 40 años este tipo de problemas han recibido un creciente interes por parte de la comunidad matemática, debido a las aplicaciones tanto prácticas como teóricas. Desde entonces existen varias conjeturas sobre el número rectilíneo de cruces de algunas familias de gráficas notables, como lo son las gráficas completas, gráficas bipartitas completas, productos de ciclos, etc. Desafortunadamente, hasta la fecha ninguna de esas conjeturas ha sido demostrada, aunque todas ellas se han reportado modestos avances. En este trabajo nos planteamos como objetivo estudiar la teoría básica alrededor de este tema y algunas de las técnicas que han sido utilizadas para el caso particular de las gráficas completas. Una de esas herramientas tiene como base el concepto de secuencias circulares, el cual ha permitido los avances mas importantes sobre la estimación del número rectilíneo de cruces de las completas. Concretamente, se plantea la implementación de un algoritmo, basado en secuencias circulares, que fue desarrollado en 2004 para determinar de manera eficiente el número rectilíneo de cruces de cualquier dibujo de Kn.



METODOLOGÍA

El presente proyecto de investigación se llevo a cabo de la siguiente manera. Se realizaron reuniones de trabajo con el investigador anfitrión durante los Lunes, Miercoles y Viernes de 11:00 am a 1:00pm Durante el resto del tiempo se dedicó a la revisión de artículos de investigación, tesís de posgrado, libros, etc., sugeridos por el investigador Se atendió el curso sobre el número de cruces que impartio la Dra. Silvia Fernandez Merchant en el marco de la escuela de verano en geometría combinatoria y computacional. En dicho curso la ponente proporcionó una lista de 50 problemas relacionados con el tema, mismos que fueron discutidos en las sesiones de trabajo con el objeto de asimiliar de mejor manera la teoría básica del presente proyecto. Una ves asimilado el algoritmo, el autor de este proyecto realizó la implementación correspondiente en C++.


CONCLUSIONES

Dado un conjunto de n puntos en posición general, el programa implementado permite modificar dicho conjunto de puntos de manera que en cada iteración el programa genera un nuevo conjunto que tiene menor o igual número de cruce rectilíneo que el anterior. El objetivo final de esta experimentación consiste en generar conjuntos de puntos con pocos cruces. La complejidad de nuestro algoritmo es de orden cúbico con respecto al número de puntos 
Colín Carreño Manuel Alejandro, Universidad Autónoma de Guerrero
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.


ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.

Colín Carreño Manuel Alejandro, Universidad Autónoma de Guerrero. Constantino Rios Brian Alexis, Universidad de Ciencias y Artes de Chiapas. Díaz Estrada Jesús Ulises, Universidad Autónoma de Guerrero. Martínez Díaz Ronaldo Daniel, Universidad de Ciencias y Artes de Chiapas. Morales Hernández Elifas Constantino, Universidad de Ciencias y Artes de Chiapas. Segura Hernandez Jesus Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es un componente esencial del ambiente puesto que se considera el factor principal que controla el estatus de salud tanto en humanos como en la biota en general (Kazi et al. 2009). El agua subterránea, después de los glaciares es la principal reserva de agua dulce para consumo humano, después representado aproximadamente el 30% del agua dulce del mundo. Sin embargo el crecimiento demográfico, que provoca el aumento de la marcha urbana, así como los cambios en la cobertura del uso de suelo, la sobreexplotación del recurso hídrico y la variabilidad climática, se han convertido en una fuerte amenaza para la recarga potencial de agua subterránea, lo que nos podría encaminar al agotamiento del agua subterránea. La cuenca del rio Sabinal en el estado de Chiapas es un caso particular para analizar la incidencia que tiene el desarrollo urbano de los municipios de Tuxtla Gutierrez y Berriozabal, así, como los cambios de cobertura vegetal; en la recarga potencial de agua subterránea.



METODOLOGÍA

Se realizó una revisión bibliográfica de diferentes estudios previos sobre la estimación de la recarga potencial de agua subterránea (estado del arte), se obtuvieron datos edafológicos y de uso y cobertura del suelo en archivos shp. Así como imágenes satelitales, modelos de elevación digital, y datos meteorológicos del área de estudio para tres años aleatorios (1990, 2000, 2010). Los archivos se obtuvieron de diferentes plataformas virtuales como INEGI, GEOWEB Chiapas, USGS, Alos Palsar, y del Servicio Meteorológico Nacional. Toda la información se analizó, y se homologó a un mismo sistema de referencia espacial (WGS 84 UTM Z 15). Los archivos shp. de edafología se editaron agregándoles más variables dentro de la tabla de atributos como son el grupo hidrológico, y capacidad de retención de agua. Para poderlos convertir a archivos ráster y estos convertirlos a un código ASCII. Del modelo de elevación digital de Alos Palsar se obtuvo un mapa de direcciones de flujo. De las variables meteorológicas se realizó una interpolación diaria para los tres años con ayuda de la técnica kriging, esto último con ayuda del lenguaje de programación Python, las interpolaciones se obtuvieron en formato Netcdf. Por último se espera estimar la recarga potencial de agua subterránea, con ayuda del modelo Soil Water Balance (SWB) del servicio geológico de los estados unidos, el cual realiza un balance hidrológico en formato ráster por lo que los archivos de entrada para poder trabajar con el modelo deben estar dados en formato Netcdf, y código ASCII. Todo esto para poder realizar una evaluación sobre cómo ha afectado el crecimiento urbano y los cambios de cobertura vegetal en la recarga potencial de agua subterránea.


CONCLUSIONES

Con ayuda de la teledetección y la técnica de fotointerpretación, se visualizó el crecimiento constante de la infraestructura urbana, en un periodo comprendido del año 1990 al 2010, lo cual incide en la recarga potencial de agua subterránea, debido al efecto impermeabilizante que propicia una menor infiltración, así mismo, el crecimiento poblacional ocasiona cambios en la cobertura vegetal y uso del suelo, lo que altera el ciclo hidrológico. Se espera estimar la recarga potencial de agua subterránea con ayuda del software antes mencionado y de todos los datos previamente recolectados y analizados.
Constantino Rios Brian Alexis, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.


ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.

Colín Carreño Manuel Alejandro, Universidad Autónoma de Guerrero. Constantino Rios Brian Alexis, Universidad de Ciencias y Artes de Chiapas. Díaz Estrada Jesús Ulises, Universidad Autónoma de Guerrero. Martínez Díaz Ronaldo Daniel, Universidad de Ciencias y Artes de Chiapas. Morales Hernández Elifas Constantino, Universidad de Ciencias y Artes de Chiapas. Segura Hernandez Jesus Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es un componente esencial del ambiente puesto que se considera el factor principal que controla el estatus de salud tanto en humanos como en la biota en general (Kazi et al. 2009). El agua subterránea, después de los glaciares es la principal reserva de agua dulce para consumo humano, después representado aproximadamente el 30% del agua dulce del mundo. Sin embargo el crecimiento demográfico, que provoca el aumento de la marcha urbana, así como los cambios en la cobertura del uso de suelo, la sobreexplotación del recurso hídrico y la variabilidad climática, se han convertido en una fuerte amenaza para la recarga potencial de agua subterránea, lo que nos podría encaminar al agotamiento del agua subterránea. La cuenca del rio Sabinal en el estado de Chiapas es un caso particular para analizar la incidencia que tiene el desarrollo urbano de los municipios de Tuxtla Gutierrez y Berriozabal, así, como los cambios de cobertura vegetal; en la recarga potencial de agua subterránea.



METODOLOGÍA

Se realizó una revisión bibliográfica de diferentes estudios previos sobre la estimación de la recarga potencial de agua subterránea (estado del arte), se obtuvieron datos edafológicos y de uso y cobertura del suelo en archivos shp. Así como imágenes satelitales, modelos de elevación digital, y datos meteorológicos del área de estudio para tres años aleatorios (1990, 2000, 2010). Los archivos se obtuvieron de diferentes plataformas virtuales como INEGI, GEOWEB Chiapas, USGS, Alos Palsar, y del Servicio Meteorológico Nacional. Toda la información se analizó, y se homologó a un mismo sistema de referencia espacial (WGS 84 UTM Z 15). Los archivos shp. de edafología se editaron agregándoles más variables dentro de la tabla de atributos como son el grupo hidrológico, y capacidad de retención de agua. Para poderlos convertir a archivos ráster y estos convertirlos a un código ASCII. Del modelo de elevación digital de Alos Palsar se obtuvo un mapa de direcciones de flujo. De las variables meteorológicas se realizó una interpolación diaria para los tres años con ayuda de la técnica kriging, esto último con ayuda del lenguaje de programación Python, las interpolaciones se obtuvieron en formato Netcdf. Por último se espera estimar la recarga potencial de agua subterránea, con ayuda del modelo Soil Water Balance (SWB) del servicio geológico de los estados unidos, el cual realiza un balance hidrológico en formato ráster por lo que los archivos de entrada para poder trabajar con el modelo deben estar dados en formato Netcdf, y código ASCII. Todo esto para poder realizar una evaluación sobre cómo ha afectado el crecimiento urbano y los cambios de cobertura vegetal en la recarga potencial de agua subterránea.


CONCLUSIONES

Con ayuda de la teledetección y la técnica de fotointerpretación, se visualizó el crecimiento constante de la infraestructura urbana, en un periodo comprendido del año 1990 al 2010, lo cual incide en la recarga potencial de agua subterránea, debido al efecto impermeabilizante que propicia una menor infiltración, así mismo, el crecimiento poblacional ocasiona cambios en la cobertura vegetal y uso del suelo, lo que altera el ciclo hidrológico. Se espera estimar la recarga potencial de agua subterránea con ayuda del software antes mencionado y de todos los datos previamente recolectados y analizados.
Conti del Castillo Maricruz, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar de la Peña Seaman, Benemérita Universidad Autónoma de Puebla

EFECTOS DEL DOPAJE ELECTRóNICO EN RBH


EFECTOS DEL DOPAJE ELECTRóNICO EN RBH

Conti del Castillo Maricruz, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar de la Peña Seaman, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El hidrógeno es el elemento más ligero en la tabla periódica, es por eso que los hidruros alcalinos tienen las estructuras más simples. Estos compuestos tienen diversas aplicaciones tecnológicas, como el almacenamiento de hidrógeno y los combustibles de alta energía. Este proyecto consiste en estudiar los efectos del dopaje electrónico en las propiedades estructurales y electrónicas del hidruro metálico RbH, a través de cálculos de primeros principios, con el fin de determinar el comportamiento de portadores de carga y densidad de estados electrónicos en función de la concentración de electrones.



METODOLOGÍA

La teoría del funcional de la densidad sirve para obtener la energía total aproximada de un sistema de partículas. El principio fundamental de esta teoría es que cualquier propiedad de un sistema de muchas partículas interaccionando entre ellas, puede ser vista como un funcional de la densidad del estado base ρ0(r). Para hacer los cálculos de las propiedades estructurales y electrónicas del hidruro de rubidio (RbH) se utilizó el método de pseudopotenciales con ondas planas implementando el código Abinit en una distribución de Linux (Ubuntu). En la primera parte del proyecto se realizaron cálculos de convergencia para parámetros numéricos como los puntos k, el smearing y la energía de corte de la expansión de ondas planas para elegir o determinar los valores más convenientes a utilizar para calcular el volumen y el módulo de compresibilidad (que son las propiedades estructurales a estudiar) del RbH. Posteriormente se calcularon estas propiedades y se compararon con los ya reportados en la literatura (datos teóricos y experimentales). Obtuvimos una diferencia del 1.7% para el volumen y del 1.3% para el módulo de compresibilidad en comparación con los datos reportados en la literatura. Finalmente se procedió a calcular la estructura de bandas, cuya teoría se basa en el hecho de que en un sólido los orbitales de un átomo se traslapan, produciendo una estructura de eigenvalores de energía contínuos (estructura de bandas), así como también la densidad de estados, que describe el número de estados que están disponibles para ser ocupados por el sistema por unidad de energía.


CONCLUSIONES

Los parámetros optimizados para el estudio de RbH (en la estructura fcc) fueron Puntos k en la primera zona de Brillouin, en un arreglo de 16x16x16. Smearing para estados electrónicos de 0.03 Ha. Energía de corte para expansión de ondas planas de 22 Ha. Tales parámetros se utilizaron para determinar las propiedades estructurales del sistema, en particular el volumen (370.074 bohr^3/átomo) y el módulo de compresibilidad (11.287 GPa). Los valores calculados en la estancia concuerdan con los reportados en la literatura, con una diferencia de 1.7% para el volumen y 1.3% en el módulo de compresibilidad respecto a datos experimentales. De acuerdo con los cálculos de la estructura de bandas, el cristal RbH tiene una brecha de energía directa en el punto L de alta simetría con un valor de 2.947 eV, el cual nos da indicios de que tenemos un material semiconductor. De la densidad de estados podemos inferir que el átomo de Rb participa más en la región por encima del nivel de Fermi (cero de energía), mientras que el átomo de hidrogeno participa más en la región por debajo del nivel de Fermi. Luego, de la gráfica por simetrías del momento angular (s,p,d) notamos que los electrones tipo d tienen mayor participacipon para Rb en cada región de energía, mientras que para el hidrogeno la participación mayoritaria es de tipo s. Cabe mencionar que gracias al Verano de la Investigación Científica he ampliado mis conocimientos sobre física del estado sólido en el área computacional y me motiva a continuar mi formación académica en áreas afines.
Contreras Juárez Yohanan, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Horacio Pérez España, Universidad Veracruzana

OBTENCIóN DE ENERGíA MEDIANTE EL GRADIENTE SALINO


OBTENCIóN DE ENERGíA MEDIANTE EL GRADIENTE SALINO

Contreras Juárez Yohanan, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Horacio Pérez España, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En la actualidad es muy evidente la relación de que a mayor incremento de la población también habrá mayor incremento en el consumo de energía. Ante esto, la sociedad siempre ha optado por implementar diversos medios de ahorro de energía, lo que ha conllevado a la creación e implementación de tecnologías para el aprovechamiento de las energías renovables. Las energías renovables o sustentables se definen como las distintas fuentes alternativas de energía que causan el menor impacto al medio ambiente, como la energía solar, eólica, geotérmica, mareas, oleaje entre otras. Entre ellas, se encuentra una energía renovable poco conocida llamada Energía del Gradiente Salino, la que consiste en el contacto de dos masas de agua con diferente salinidad donde se libera energía. Este proceso se puede encontrar en las desembocaduras de ríos en el mar, donde naturalmente,  el agua dulce de los ríos entre en contacto con el agua salada del mar. Para lograr esta meta de obtener energía por el gradiente salino, sea crean en el 2017 los Centros Mexicanos para la Innovación de Energías Renovables (CEMIE), cuyo propósito es incentivar y promover las energías para el desarrollo y adecuación del plan de acción para abatir las barreras y retos tecnológicos para el aprovechamiento de energías renovables. Los rios que desembocan en la pàrte suroeste del Golfo de Mexico poseen condiciones micromareales y en general hay dominancia del flujo del rio, por lo que se generan estuarios llamados de cuña salina, donde no hay mezcla de las masas de agua y se tiene por arriba el agua dulce del rio y por la parte inferior el agua salada del mar. Son estas condiciones las que propician que este tipo de estuarios sean aprovechables para extraer la energia de gradiente salino. CEMIE-Océano tiene como objetivo la realización de estudios para el análisis del gradiente salino como recurso energético. Estos estudios ayudaran para determinar si dicha energía es viable, económica y siempre evitando daño al medio ambiente, debido a que los estuarios donde se presenta el gradiente salino alojan numerosas comunidades acuáticas en el cual están sometidas a los cambios de salinidad. Este último punto entra como objetivo de CEMIE-Océano que es él es caracterizar la estructura y ecología de las comunidades bióticas de sitios costeros que, por sus características de salinidad, ofrecen posibilidades de tener alto potencial como fuente de energía por gradientes salinos. Un sitio idoneo donde se presenta el gradiente salino es el estuario del rio Jamapa, ubicado en la ciudad de Boca del Río, Veracruz, en donde se realizaron los muestreos requeridos para determinar su potencial energético y si es viable la instalación de una planta eléctrica.



METODOLOGÍA

Mediante un CTD CASTAWAY se midió la profundidad, temperatura y salinidad desde el mar abierto de Veracruz hasta el interior del río Jamapa, recorriendo 18 kilómetros, el día 27 de Junio de 2019. Para la interpretación de los datos obtenidos se empleó el Software MATLAB 2016 con la finalidad de poder visualizar el comportamiento de la temperatura y salinidad. Se registró una profundidad de casi 34 metros pudiendo observar que toda la profundidad del mar tiene un alto nivel de salinidad; desde los 10 metros de profundidad se observa que la salinidad no muestra un incremento a diferencia de la superficie que esta va en decremento a partir de los 6 kilómetros recorridos, que es donde se va acercando a la desembocadura del río Jamapa. El comportamiento de la temperatura es diferente al de la salinidad, debido a que mayor profundidad menor temperatura se registra, obteniendo una temperatura de casi 21° C a los 34 metros, dato que va en incremento de acuerdo a la distancia que se recorra y la profundidad que llegue a alcanzar el CTD CASTAWAY.  Tras haber obtenido las muestras necesarias del mar se prosiguió a obtener las del río Jamapa, empezando en la desembocadura del río avanzado hasta donde se registre un nivel mínimo de salinidad, siendo una distancia total de 6 kilómetros. De acuerdo a los datos obtenidos, se llegó a registrar una profundidad de 2.5 metros en casi todo el recorrido del río, valor que aumentaba a ciertas distancias alcanzando hasta los 4 metros, estas profundidades son relevantes ya que durante marea alta la cuña salina penetra hasta los 5000 metros y al bajar la marea deja atrapada aguas con salinidad marina. Como se puede ver la salinidad varía dependiendo del nivel de profundidad, hasta los 2000 metros de distancia se registró la una salinidad de 35 ups (unidades prácticas de salinidad) en el fondo del río, este valor va en disminución llegando a la superficie donde se registra una salinidad de 5 ups que representa el agua del río. Estos dos fluidos con diferente grado de salinidad  muestran un halo clina (cambio rápido de salinidad) a 1 metro de profundidad recorriendo casi 5000 metros que se registraron. El comportamiento de la temperatura del río es similar a la salinidad debido a que cerca del kilómetro recorrido aún se detectaba una temperatura de 29° C a diferencia de la superficie que en todos los 6 kilómetros se registraba una de temperatura máxima de 32.5°C.


CONCLUSIONES

Hasta el momento se ha podido registrar los niveles de salinidad que ayudarían a los cálculos del potencial energético en los primeros 2500 metros del estuario donde el gradiente de salinidad es mayor a las 30 unidades. Queda por añadir que los métodos por el cual se puede obtener energía aún están en fase de prototipos, por lo tanto se debe continuar con el estudio del gradiente salino, además de incluir la zona afectada hablando en términos ambientales. Para la realización del cálculo de potencial energético se manejan las ecuaciones de la energía libre de Gibbs. Trabajando con estas ecuaciones se espera obtener una energía teórica, es decir, una energía estimada ya que con la implementación del prototipo se tendrá en cuenta que la eficiencia será menor, teniendo una energía verdadera.
Contreras Reyes Julio César, Universidad Autónoma de Tamaulipas
Asesor: Dr. Evelia Reséndiz Balderas, Universidad Autónoma de Tamaulipas

ANáLISIS DEL DISCURSO Y PRACTICAS PEDAGóGICAS: EN ENSEñANZA DE LA NOCIóN DE VARIACIóN EN SEXTO AñO DE PRIMARIA.


ANáLISIS DEL DISCURSO Y PRACTICAS PEDAGóGICAS: EN ENSEñANZA DE LA NOCIóN DE VARIACIóN EN SEXTO AñO DE PRIMARIA.

Contreras Reyes Julio César, Universidad Autónoma de Tamaulipas. Asesor: Dr. Evelia Reséndiz Balderas, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La variación es todo aquel cambio o modificación que sufre la materia en un periodo determinado de tiempo (Bergamini, 1981). Por otro lado, el pensamiento variacional, es una noción matemática que nos permite poder identificar los cambios que experimentan los diversos fenómenos del mundo y la frecuencia con la que lo hacen (Reséndiz, 2010). El estudio de la variación no es algo que se realice de manera explícita durante alguna asignatura o tema de matemáticas en el sistema educativo mexicano. Sin embargo, está presente de manera implícita durante el estudio de cálculo diferencial e integral y la graficación de funciones, asignaturas recurrentes de algunos subsistemas de nivel medio superior y algunas carreras de la educación superior (Reséndiz, 2010). Sin embargo, es en éstas asignaturas donde se presentan altos índices de reprobación, por eso el interés de investigar qué pasa con la noción en educación básica, en el eje temático manejo de la información.



METODOLOGÍA

Esta investigación tiene un enfoque cualitativo, dentro del enfoque cualitativo se engloban distintos métodos de investigación entre ellos, se encuentra la etnografía, la cual consideramos para nuestra investigación, debido a que queremos conocer los recursos discursivos que emplea el docente durante las actividades relacionadas a la enseñanza de la noción de variación. Es de carácter descriptivo debido a que se considerará el discurso del profesor y como lo emplea en el aula.


CONCLUSIONES

A lo largo de las observaciones se logró identificar el interés de la maestra de grupo por fomentar la participación de los alumnos, al solicitarles que discutieran y compararan el procedimiento y el resultado obtenido durante las actividades. Del mismo modo convendría reforzar mas los aprendizajes del eje manejo de la información, ya que en este se desarrollan conocimientos que son la base para conceptos más complejos dentro de la noción de variación, de razón  y proporción, lectura y uso de graficas, etc. Ya que algunos de los resultados de esta investigación demuestran que los alumnos saben leer los datos de las graficas, identificar cambios de variable en las cantidades presentadas en la misma, sin embargo no saben que uso puede tener para ellos en la vida cotidiana. Referencias Bergamini, D. (1983). Matemáticas. México: Time Life International de México.Pulido, R. (1998). Un estudio teórico de la articulación del saber matemático en el discursoescolar: la transposición didáctica del diferencial en la física y la matemática escolar.Tesis Doctoral, Cinvestav, IPN. Reséndiz Balderas, E. (2010). El discurso en la clase de matemáticas y los acuerdos sociales. La noción de variación.Revista Latinoamericana de Investigación en Matemática Educativa, RELIME, 13 (4-I), 99-112. 
Coronel Ochoa Paula, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

EL USO DE LA INTELIGENCIA ARTIFICIAL (IA) PARA LA SIMULACIóN DE MERCADOS FINANCIEROS.


EL USO DE LA INTELIGENCIA ARTIFICIAL (IA) PARA LA SIMULACIóN DE MERCADOS FINANCIEROS.

Coronel Ochoa Paula, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este trabajo tiene como principal objetivo hacer uso de inteligencia artificial para implementarla en el mercado financiero, en este caso en el área petroquímica, se pretende que mediante la aplicación de conocimientos principales de programación se pueda crear una red neuronal la cual pueda ejecutar un correcto análisis de datos reales y poder arrojar una predicción que ayude a futuro con el manejo de dichos datos, por consiguiente se ocuparán datos aleatorios los cuales ayudarán a rectificar que nuestra neurona trabaje correctamente y comience su entrenamiento para posteriormente trabajar con datos de mayor peso.



METODOLOGÍA

Las redes neuronales artificiales, son algoritmos de software cuyo fundamento se inspira en el comportamiento de las neuronas del cerebro humano, las cuales se conectan entre sí por medio de conexiones llamadas "sinapsis". Dichas conexiones permiten que una neurona mande descargas eléctricas a las células con las cuales se encuentra conectada, la descarga eléctrica fluye desde las dendritas hacia el axón atravesando el soma. Inspirados en este mecanismo biológico se crea un modelo artificial de una estructura neuronal llamada perceptrón por Rosenblatt en el siglo XVIII, el cual tiene una o varias entradas, función de activación y una salida. Donde las entradas hacen la función de las dendritas o señales de entrada hacia la neurona. La función de activación realiza el papel del soma que decide en qué momento disparar esa señal eléctrica y la salida modela al axón que al activarse envía información hacia las neuronas con las cuales se encuentra conectada.   Para la creación de la neurona en Matlab R2018a se necesitó descargar varias paqueterías las cuales ayudaron en la colocación y ejecución de los comandos requeridos, algo muy importante que se debe tener en cuenta es que la implementación de la compuerta XOR es esencial para la elaboración de dicha red neuronal ya que una salida verdadera (1/HIGH) resulta si una, y solo una de las entradas a la puerta es verdadera, EJEMPLO: XOR(0,1) o XOR(1,0), pero si ambas entradas son falsas (0/LOW) o ambas son verdaderas, resulta en una salida falsa, EJEMPLO: XOR(0,0) o XOR(1,1); además de que esta compuerta representa la función de desigualdad, es decir, la salida es verdadera si las entradas no son iguales, de otro modo el resultado es falso ya que XOR es "uno o el otro, pero no ambos". La instalación de la paquetería Keras es muy esencial para la red neuronal ya que permite la experimentación rápida y la capacidad de hacernos una idea del resultado evitando cualquier obstáculo que se presente lo que es clave para esta investigación. Esta paquetería que hemos instalado también permite que el código se ejecute sin problema alguno tiene una API fácil de usar la cual facilita el prototipo rápido de modelos de aprendizaje profundo y admite arquitecturas de redes arbitrarias lo que hace la hace apropiada para construir esencialmente cualquier modelo de aprendizaje profundo. Keras es una biblioteca que proporciona bloques de construcción de alto nivel para el desarrollo de modelos de aprendizaje profundo, se basa en una biblioteca de manipulación de tensores especializada y bien optimizada para ejecutar operaciones de bajo nivel, sirviendo como el motor backend de Keras. La interfaz de R para Keras utiliza TensorFlow como motor de backend tensor predeterminado, sin embargo, si uno lo desea puede utilizar otros backends. Para la creación de nuestra neurona en primera instancia se codificó la importación de la paquetería de las cuales extrajimos lo que viene siendo el modelo de capas secuencial y el tipo de capas de entrada. Para la colocación de los siguientes comandos fue necesario tener en cuenta qué es lo que se pretende hacer, cómo queremos diseñar nuestra neurona, cuántas capas queremos que ésta posea y el tipo de activación que es necesaria, todo con el propósito de que se logre el cometido. Nos hemos encontrado con una diversidad de posibilidades con respecto a las funciones existentes pero debido al objetivo que se tiene hemos descartado e investigado más a fondo las funciones necesarias para la ejecución, cabe recalcar que debido a la falta de información la elección de la función indicada ha sido fruto de las varias veces que hemos corrido el programa, en pocas palabras basándonos en la prueba y error. Para que la red neuronal aprenda utilizamos técnicas de Machine Learning, las cuales pueden ser de variada naturaleza, sin embargo, las más comunes son las de aprendizaje supervisado, en las cuales brindamos como entrada al algoritmo datos previamente etiquetados, es decir nosotros supervisamos el entrenamiento al decirle al algoritmo como se debe interpretar la información.


CONCLUSIONES

Durante esta estancia de verano he adquirido nuevos conocimientos en cuestión al área I, principalmente de programación en Matlab, teniendo conocimientos básicos de matemática, física y programación pude llevar a cabo la elaboración de una red neuronal cuya función principal es el análisis y proyección de datos , esto con la finalidad anteriormente explicada sobre el poder dar un pronóstico en cuestión a los datos colocados sobre el galón de petróleo , la tendencia que tiene y podrá tener; sin embargo, al ser un trabajo extenso aún se encuentra en la fase de perfeccionamiento y educación neuronal por lo que no se es posible mostrar los datos obtenidos. Se espera una mejora en el código para una correcta ejecución y predicción de los datos.
Cortés Moreno Diana Mireya, Universidad de Sonora
Asesor: Lic. Rufino Lozano Santa Cruz, Universidad Nacional Autónoma de México

MéTODO DE BAJA DILUCIóN PARA ANáLISIS DE ELEMENTOS MAYORES Y TRAZA POR FLUORESCENCIA DE RAYOS X


MéTODO DE BAJA DILUCIóN PARA ANáLISIS DE ELEMENTOS MAYORES Y TRAZA POR FLUORESCENCIA DE RAYOS X

Cortés Moreno Diana Mireya, Universidad de Sonora. Asesor: Lic. Rufino Lozano Santa Cruz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Los Rayos X interactúan con la materia al menos de dos formas los cuales son: Fluorescencia y Difracción (Lozano Rufino, Comunicado personal, 17/06/2019) Fluorescencia de Rayos X En el caso de la fluorescencia se cuenta con un átomo que contiene electrones, al cual se le inyecta un haz de rayos x, lo que hace que haya un desplazamiento del electrón, dejando un espacio libre en el cual algún electrón de nivel superior caerá a ocupar su lugar que se encontraba vacío. Al ser este espacio de menor energía, la energía sobrante del electrón emitirá un fotón con una longitud de onda, la cual funciona como una huella digital debido a que cada elemento químico emite su propia cantidad de energía y generará su propio espectro siendo entonces ésta una de las maneras en que los rayos X interactúan con la materia.



METODOLOGÍA

El método de baja dilución nos permite el poder observar y determinar los elementos mayores y traza de una sola preparación donde la muestra se encuentra fundida, esto mediante varios sistemas de los cuales pueden ser: Pérdida por calcinación: Se compara el peso inicial de la muestra para después de meterla en un horno a 950 °C y pesar de nuevo. La diferencia porcentual obtenida nos dirá cuantitativamente los elementos volátiles que desaparecieron a causa de la temperatura. Elaboración de curvas de calibración con material de referencia corrigiendo el efecto de absorción o refuerzo por Parámetros fundamentales para lo que se emplea una ecuación donde se mide el efecto de cada elemento químico sobre los demás. Para la obtención de los elementos mayores y traza por método de fluorescencia de rayos x se pueden medir a las muestras como sólidos o líquidos, para el caso de este proyecto se analizarán como sólidos por medio de dos procedimientos de preparación de muestra: Tableteado de polvos Fusión en boratos  


CONCLUSIONES

Al finalizar la medición utilizando las concentraciones en porcentaje o ppm, se grafican las curvas de calibración; éstas son la representación gráfica del resultado de la comparación entre las intensidades netas contra la concentración, apoyadas siempre en estándares que permitirán por medio de un valor ya conocido observar los resultados del estudio. El método a baja dilución emplea mucho más muestra y menos fundente que otros métodos, para permitir la visibilidad por FRX de los elementos traza. Es un método conveniente por que se disminuye el efecto de matriz al homogenizar la muestra permitiendo la observación completa de los elementos más abundantes y los que se presentan en concentraciones menores.
Cota Gastelum Hannia Lorena, Universidad de Sonora
Asesor: Dr. Daniel Cruz González, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE OXIDO DE TITANIO ANALíTICO DOPADO CON NANOPARTíCULAS DE AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA SU POSTERIOR USO EN LA DEGRADACIóN DE COLORANTES EN AGUAS PROVENIENTES DE INDUSTRIAS TEXTILES.


SíNTESIS DE OXIDO DE TITANIO ANALíTICO DOPADO CON NANOPARTíCULAS DE AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA SU POSTERIOR USO EN LA DEGRADACIóN DE COLORANTES EN AGUAS PROVENIENTES DE INDUSTRIAS TEXTILES.

Cota Gastelum Hannia Lorena, Universidad de Sonora. Rubio Gracia Diana Laura, Universidad de Sonora. Asesor: Dr. Daniel Cruz González, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los efluentes líquidos de la industria textil se caracterizan por una mezcla compleja de contaminantes químicos, compuestos principalmente por colorantes, dichos efluentes presentan un pH muy variable, así como altos valores de temperatura y demanda química de oxígeno. Debido a que los colorantes presentan una compleja estructura química, los métodos actuales empleados para el tratamiento de efluentes resultan ineficientes para su degradación.  El TiO2 es un semiconductor que ha cobrado interés en su aplicación como fotocatalizador en la degradación de colorantes gracias a su foto-estabilidad y bajo costo, este tipo de tecnología se basa en la absorción de energía radiante (visible o UV) por el semiconductor. El TiO2 absorbe solo radiación UV de λ ≤387 nm. Una forma de extender su rango de foto-absorción es su dopaje con metales nobles. Durante la estancia de investigación se propone la degradación de colorantes mediante fotocatálisis heterogénea utilizando TiO2 dopado con nanopartículas de Ag.



METODOLOGÍA

a. Síntesis del fotocatalizador TiO2-Ag por el método de combustión. Utilizando TiO2 grado analítico se prepara un fotocatalizador. Utilizando una balanza analítica se pesa 0.2 g de TiO2, 0.0085 g de Nitrato de Plata (AgNO3) y 0.99 g de Urea (CH4N2O). Los reactivos fueron mezclados en un vaso de precipitados de 50 mL agregando 5 mL de agua tridestilada para homogeneizar, posteriormente la solución se calentó en una parrilla eléctrica a una temperatura de 60°C hasta obtener una pasta. El producto resultante se deposita en un crisol y se somete a una temperatura de 800°C durante 5 minutos dentro de una mufla. El procedimiento se repitió hasta obtener 5 g de fotocatalizador.  b.   Degradación por fotocatálisis de colorantes. Se prepararon soluciones de los colorantes rojo de metilo (RM), azul de metileno (AM) y naranja de metilo (NM) bajo las concentraciones de 10, 20 y 30 ppm y pH de 3, 7 y 11 cada una de ellas. Para realizar el ajuste de pH se utilizó HCl, en el caso de pH 3, e KOH para el pH 11. Cada solución tuvo un volumen de 100 mL. A una muestra de 20 mL de cada solución se le adiciona 0.1 g de fotocatalizador TiO2-Ag (sintetizado con TiO2 grado analítico), posteriormente se colocaron las muestras en un fotorreactor, el cual consistía en la irradiación de luz UV-Vis. Cada muestra se mantuvo en irradiación durante un tiempo de 4 horas, tomando 4 alícuotas con intervalos de una hora, posteriormente cada alícuota fue analizada en un espectrofotómetro UV-Vis.


CONCLUSIONES

a.       Degradación de AM utilizando TiO2 -Ag sintetizado con TiO2 grado analítico. Se observó un mayor porcentaje de degradación cuando las concentraciones son bajas utilizando un pH ácido y cuando las concentraciones son altas usando un pH alcalino.  A concentraciones de 10 ppm se presentó un porcentaje de degradación de 48.08% en un pH de 3 y 50.95% en un pH de 7. Pero por otro lado, al usar un pH de 11 se registra un porcentaje de degradación de 7.73%, el cual incluye fluctuaciones registradas a lo largo de la degradación. A una concentración de 20 ppm se tienen porcentajes de degradación de 51.5% y 47.54%, en pH de 7 y 11 respectivamente. En el caso del pH 3, se obtuvo una severa fluctuación de valores de absorbancia a medida que el tiempo transcurría y las soluciones seguían en el fotorreactor, finalmente arrojando un 10.01% de degradación. Finalmente, a la concentración de 30 ppm, los mejores porcentajes de degradación se obtuvieron en pH altos, constatándose lo dicho en un principio, arrojando 31.41% y 41.01% en pH de 7 y 11, respectivamente. En el caso de un pH de 3 en concentración de 30 ppm se lanza un 10.01% sin fluctuación. El común denominador de los espectros arrojados por los barridos, indica que en la primera hora del proceso se obtiene la mayor degradación registrada, siendo de alrededor 48%, para después degradar muy poco.   b.    Degradación de RM utilizando TiO2 -Ag sintetizado con TiO2  grado analítico. Al analizar los resultados obtenidos de la degradación, se llega a la conclusión de que ésta únicamente resulta satisfactoria en pH ácido. El comportamiento observado en las soluciones con pH 3 resulta ser el esperado, disminuyendo la absorbancia de éstas a medida que pasaban las horas dentro del fotorreactor, lo que indicaba que las concentraciones eran cada vez menores. No fue posible observar esto en las soluciones con pH 7 y 11, en éstas la absorbancia se mantenía constante o incluso aumentaba. En las soluciones con pH 3 se obtuvieron los mayores porcentajes de degradación durante la primer hora de degradación. En la solución de 10 ppm fue de 64.33 %, llegando hasta un 79.04 % al finalizar las 4 horas de degradación. En la solución de 20 ppm fue de 57.99 %, obteniendo un porcentaje de degradación total de 68.46 %. En la de 30 ppm fue de 50.86 %, alcanzando un porcentaje de degradación total de 64.78 % al finalizar las 4 horas. En el caso de las soluciones de RM con pH 3 el fotocatalizador continúa degradando hasta la cuarta hora de la reacción fotocatalítica, haciéndolo cada vez en menor medida. Sin embargo, debido a esto no es posible establecer si existe un límite de tiempo de degradación. c.       Degradación de NM utilizando TiO2 -Ag sintetizado con TiO2 grado analítico. Al finalizar las 4 horas de degradación a la solución de 10 ppm con un pH 3 se obtuvo una concentración de 8.08ppm. En este caso, el fotocatalizador degrado 20% del total. En la degradación de 20 ppm con un pH 3 se obtuvo como concentración final de 17.5 ppm. El porcentaje total degradado de la solución  fue de 12.5%. En la degradación de 30 ppm con un pH 3 se obtuvo una concentración final de 26.51 ppm. El porcentaje total degradado fue de 11.64%. La degradación para este colorante es eficiente a pH ácido, sin embargo la degradación sólo ocurre en las primeras dos horas ya que posteriormente la concentración aumenta. A pH alcalinos este procedimiento resulta inutilizable debido a las incongruencias registradas.  
Cruz Delgado Cinthia, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa

PROCESAMIENTO Y ANáLISIS DE DATOS GEOESPACIALES EN BUSCA DE PRECURSORES SíSMICOS EN LA IONOSFERA


PROCESAMIENTO Y ANáLISIS DE DATOS GEOESPACIALES EN BUSCA DE PRECURSORES SíSMICOS EN LA IONOSFERA

Cruz Delgado Cinthia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En esta investigación se estudió un evento sísmico ocurrido el día 19 de septiembre de 2017 en el estado Puebla, México. Considerando que dichos estados tienen una cercanía a la zona de mayor actividad sísmica, se encuentra en una zona llamada de subducción México se encuentra bajo la influencia de cinco placas tectónicas: Caribe, Pacifico, Rivera, Cocos y Norteamericana. Rivera y Cocos se encuentran en subducción; es decir, Cocos es la que se sumerge debajo de Michoacán, Guerrero, Oaxaca y Chiapas en las que continua su actividad en los siguientes estados entre ellos, Puebla. Con anterioridad se han considerado algunos parámetros como precursores sísmicos entre ellos se encuentra el Contenido Total de Electrones (TEC), encontrado en la ionosfera. Dichos datos se obtienen con ayuda de receptores geodésicos que realizan mediciones a los GNSS (Sistemas Globales de Navegación Satelital).



METODOLOGÍA

Se obtuvieron datos de dicho evento sísmico en línea del SSN (Servicio Sismológico Nacional). Por consiguiente, se eligió y realizó la descarga, organización y tratamiento de los datos GNSS, de dos estaciones de estudio; TNAT-TNET_MX2014, Acatlán, Puebla y UTON_TNET_MX2001, Tonatzintla, Puebla. Se estableció un periodo de 11 días del evento a partir del 14 de septiembre hasta el 24 del mismo mes respectivamente, obtenidas en la plataforma en línea UNAVCO (University NAVstar Consortium).  Dichos datos generan observables a partir de las frecuencias, considerando algunos parámetros como: el retardo de los pseudorangos (ρ) y las fases portadoras (ɸ). Dicho esto, el retardo ionosférico (I) es proporcional al TEC entre las trayectorias de L1 y L2. Donde el TEC se mide en electrones por , de tal manera que una unidad TECU (1 TECU e= ). El contenido total de electrones vertical (VTEC) observado en un punto sub-ionosférico. En donde la Re es el radio de la Tierra (6371.2km), h es la altura de la ionosfera respecto a la superficie terrestre (350km), Ɵ corresponde al ángulo de elevación entre el satélite-receptor dado en grados. En el otro método que se ejecutó; fue en la obtención del VTEC mediante un software proporcionado de la Universidad Hacettepe, Ankara, Turquía; en lo cual se descarga con archivos para ejecutar como administrador, en tiempo real y automático. Todas estas observaciones se relacionan con los archivos Rinex, de tal modo que para procesarlo es por medio del tipo de estación y fecha de interés. Verificando la disponibilidad y la descarga de dichos archivos, proporcionando los datos de (VTEC) con un intervalo de tiempo de cada 15 segundos. El índice Dst es el que monitorea y registra con la mayor precisión de los fenómenos para el cual fue establecido, por el hecho de ser simple, es decir, las variaciones magnéticas causada por la corriente de anillo.  Para la recuperación de esos datos en relación al periodo del evento sísmico, se descarga en una plataforma en línea (GODDARD SPACE FLIGHT CENTER) y posteriormente tratarlas para obtener gráficos y analizarlas


CONCLUSIONES

En conclusión, en la mayoría de los días presentados demostraron características particulares, así en comparación de la actividad símica y sus réplicas. Solo se usó el índice Dst para observar la relación que existe entre en los días estudiados del evento, ya sea antes, durante y después de acuerdo con sus niveles y comportamiento. Así mismo para poder descartar posibles afectaciones solares en los registros; ya que, puede verse reflejado en los VTEC. No obstante, al ver los resultados, en comparación, presentan en los primeros días crestas altas y después del evento la actividad tiende a mantenerse entre rangos; para VTEC alrededor del 5 y 30, por otro lado, en los Dst solo una cresta rebasa el límite de -50nT correspondiente a una alta actividad geomagnética. Podemos corroborar que, en cambio en el índice R, el año 2017 no existía altos números de manchas solares; lo característico de la gráfica fue el día del evento como mayor alteración; de tal modo que posiblemente esté relacionada con el evento sísmico mientras que Dst sea consecuencia de la alta actividad geomagnética que refleja en el Dst con respecto a los VTEC.  
Cruz Flores Rosario Libertad, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLO DE PELÍCULAS DELGADAS DE BAJA EMISIVIDAD SOBRE SUSTRATOS FLEXIBLES


DESARROLLO DE PELÍCULAS DELGADAS DE BAJA EMISIVIDAD SOBRE SUSTRATOS FLEXIBLES

Cruz Flores Rosario Libertad, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, el mundo  está sufriendo los impactos del calentamiento global lo que ha afectado a la población en varios ámbitos, por ejemplo, en ciudades como Monterrey tienen temperaturas muy altas en verano (47ºC)  y muy bajas en invierno (-2º C), ocasionando una gran inversión en equipo de climatización para hogares y edificios. Además de ser costos, los equipos de climatización requieren de gran consumo de energía eléctrica y perjudican al medio ambiente ya que aumentan los gases de efecto invernadero, lo que provoca más CO2 a la atmósfera. Actualmente, hay equipos que producen menos gases contaminantes, sin embargo, suelen ser más caros por su avanzada tecnología. Por la necesidad de hacer frente a esta problemática, se buscan soluciones para disminuir este consumo energético sin afectar significativamente al medio ambiente. En algunos países, ya se implementan construcciones de edificios inteligentes en el sentido de que conservan el calor en invierno y mantienen fresco en verano en sus interiores,  ya que han recurrido a  usar vidrios de baja emisividad (vidrios Low-E). El objetivo principal de los vidrios Low-E es reflejar el mayor porcentaje de los rayos ultravioleta y los rayos infrarrojos debido que son los responsables del calentamiento, sin evitar que la luz visible sea transmitida.  En este trabajo se busca desarrollar películas delgadas de sulfuro de cobre por el método de SILAR sobre sustratos flexibles con potencial como recubrimientos de baja emisividad. 



METODOLOGÍA

Se hizo una consulta bibliográfica en distintas bases de datos, así como artículos de años recientes publicados  en revistas, con un factor de impacto considerable para tener un mejor entendimiento del proyecto a desarrollar. En el primer experimento se realizó el sistema multicapa de sulfuro de cobre y  sulfuro de cadmio (CuS/CdS) sobre tres sustratos flexibles polietilenaftalato/ITO, plietilentereftalato/ITO y acetato (PEN-ITO, PET-ITO y Acetato) con parámetros de depósitos ya establecido en el grupo de trabajo. En un principio, se cortaron los sustratos de tal manera que no tuvieran algún defecto de fábrica para que el recubrimiento quede uniforme. Se realizó depósito por baño químico para (DBQ) manteniendo una temperatura constante. Por consiguiente, se hizo depósito por SILAR con 49 ciclos. En un segundo experimento se siguieron los mismos pasos sin considerar el depósito por DBQ CdS. Todas las muestras obtenidas resultaron de calidad aceptable, las que mejor apariencia tienen son las depositadas sobre los sustratos de PENITO y PETITO. Una vez preparadas las muestras, se realizaron mediciones del % de transmitancia por la técnica de Espectroscopia UV-Vis, con la finalidad de hacer un análisis cuantitativo del paso de la luz sobre el material en la zona visible e IR cercano. Complementando el análisis se realizaron mediciones. Para conocer las propiedades eléctricas del material desarrollado por Efecto Hall (CIDIIT-UANL).


CONCLUSIONES

A partir de efecto Hall se determinó que las películas presentan alta conductividad y alta densidad de portadores de carga que complementado con el comportamiento observado en las mediciones de transmitancia en la región infrarroja, sugiere que este material puede tener potencial como recubrimiento de baja emisividad, sin embargo este proyecto necesita de más análisis para poder ser aplicado.
Cruz Hernández Juan Antonio, Universidad de Guadalajara
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

SIMULACIóN DE DECTORES DE PLáSTICO CENTELLADOR BC422 Y BC404 PARA EL HAZ DEL MPD-NICA


SIMULACIóN DE DECTORES DE PLáSTICO CENTELLADOR BC422 Y BC404 PARA EL HAZ DEL MPD-NICA

Cruz Hernández Juan Antonio, Universidad de Guadalajara. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Un acelerador de partículas es un dispositivo que utiliza  campos electromagnéticos para acelerar partículas cargadas hasta altas velocidades y hacerlas colisionar con otras partículas. Los objetivos es generar nuevas partículas, estudiar sus propiedades que la componen y sus futuras aportaciones, la Física de Altas Energías busca expandir los conocimientos sobre la Física de Partículas. Por ello el siguiente proyecto tiene como finalidad simular detectores de plástico centellador Bc422 y Bc404 para el monitor de haz para el experimento MPD-NICA. Los datos obtenidos por cada plástico permiten crear un mejor  desarrollo para la construcción  del experimento MPD, los cuales determinan un avance significativo para la Física de Altas Energías. Para la simulación y el análisis de datos se llevó a cabo la instalación de programas que permiten ver los sucesos con cada una de las colisiones en los plásticos.  



METODOLOGÍA

Entender cada una de las simulaciones en los diferentes tipos de plástico es esencial por ello las primeras semanas del curso  nos impartieron una introducción  sobre temas de Física de altas Energías, para poder trabajar se generó una máquina virtual en la cual se instaló el sistema operativo de Ubuntu 18.04 LTS y sus respectivas paqueterías de los programa Geant4 y MPDROOT en el Eco campus Valsequillo Como principal objetivo se buscó mejorar la construcción del MPD, se colocaron 1, 2, 3 y 4 Scorers, en el plástico centellador Bc404 y Bc422 con 0.5, 3,  5 y 10 Gev como energía. Se colisionaron 20 partículas cargadas como piones y muones en un solo punto cambiando los ejes X y Y con un total de 11 eventos, cada uno de los Scorers detecta una cierta cantidad de partículas respecto al tiempo o rango establecido en el programa esto permite que el foto sensor se active. Al final se generó un ajuste Gaussiano para poder observar la resolución temporal de cada una de las simulaciones.   


CONCLUSIONES

Durante la estancia de verano Delfín se logró obtener resultados positivos sobre el análisis con cada uno de los plásticos determinando  la resolución temporal adecuada, además se logró conocimientos sobre temas de Física de Altas Energías y el manejo de los programas como Geant4 y MPDROOT.
Cruz Palma Juan Manuel, Universidad Veracruzana
Asesor: Dr. Horacio Pérez España, Universidad Veracruzana

IMPACTO DELFORRAJEO ICTIOLóGIC0 EN EL CRECIMIENTO CORALINO EN DOS ARRECIFES DEL SISTEMA ARRECIFAL VERACRUZANO (SAV)


IMPACTO DELFORRAJEO ICTIOLóGIC0 EN EL CRECIMIENTO CORALINO EN DOS ARRECIFES DEL SISTEMA ARRECIFAL VERACRUZANO (SAV)

Cruz Palma Juan Manuel, Universidad Veracruzana. Asesor: Dr. Horacio Pérez España, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Los peces herbívoros juegan un rol importante en los arrecifes de coral al controlar el crecimiento de las algas (potenciales competidores de corales), pero estos han sido afectados por la sobrepesca y extracción para el acuarismo, que en conjunto con el cambio climático ha llevado a una disminución drástica de la cobertura coralina en los arrecifes a nivel internacional, en el caso de Veracruz de hasta un 60 %. Como forma de contribución al conocimiento del efecto de los herbívoros en el crecimiento coralino, se trabajó con un proyecto que consistió en estimar la cobertura de tejido coralino de fragmentos correspondientes a Acropora dispuestos en camas y sometidos a tres tratamientos en dos arrecifes del SAV. Se registró también la actividad de forrajeo llevada a cabo cuándo las camas protegidas se abren, esto con el fin de identificar los herbívoros que contribuyen al control de las algas.



METODOLOGÍA

Se trabajó con un experimento de camas coralinas colocadas en dos arrecifes del SAV (Anegada de Adentro y Sacrificios), donde se mantienen fragmentos de 6 especies de coral (A. palmata, A. cervicornis, O.  faveolata, M. cavernosa y P. astreoides). En cada arrecife se colocaron seis camas con tres tipos de tratamientos (dos camas con cada tratamiento): en el primero las camas se encuentras abiertas a la actividad de forrajeo, retirando algas y otros organismos bentónicos; en el segundo las camas están abiertas al forrajeo, sin retiro manual de organismos; y en el tercero la cama permanece cerrada con una malla plástica para evitar la entrada de peces. Las camas son revisadas mensualmente. Se realizó una salida de buceo a principios de junio en ambos arrecifes para tomar fotografías de los fragmentos coralinos en cada una de las camas. En este estudio sólo se trabajó con los fragmentos correspondientes a Acropora, por su rápida tasa de crecimiento. De igual forma, se trabajó únicamente con los fragmentos de Sacrificios debido su tasa de supervivencia con respecto a Anegada de Adentro. Las fotografías se analizaron con el programa ImageJ estimando el área correspondiente al tejido coralino. Este proceso se llevó a cabo con imágenes correspondientes al primer registro del experimento (septiembre del 2018), ello para hacer comparación entre el inicio y la temporada más reciente. Los datos fueron transferidos a una hoja de cálculo en Excel para estimar la diferencia de coberturas de tejido coralino entre los dos períodos, determinando si ha habido incremento o decremento en los tres tratamientos. Durante la salida de buceo además de la toma de fotografías, se colocó una cámara de vídeo GoPro en las camas cerrada al forrajeo cuándo se realizó el cambio de malla protectora. La cámara grabó durante lapsos de 25 minutos (Anegada de Adentro) y 50 minutos (Sacrificios). El análisis consistió en registrar riqueza, abundancia y mordisqueos por especie en lapsos de 1 minuto. Los datos de abundancia y mordisqueos fueron convertidos a porcentaje, y analizados por medio de gráficos acumulativos, ello con el fin de determinar el nivel de contribución a la actividad de forrajeo y la abundancia de cada especie a lo largo del tiempo de duración del vídeo.


CONCLUSIONES

Corales Se esperaba que en el tratamiento donde se realizó limpieza de las camas, los fragmentos coralinos mostraran mayor crecimiento y que los corales sin herbivoría (camas con malla) crecieran menos. Se obtuvo que en las camas donde se realizaba la limpieza una quinta parte de los fragmentos presentaron disminución de tejido de un 22 %, los que lograron aumentar su tejido lo hicieron en un 75 %. Por otra parte, en el tratamiento descubierto, pero sin limpieza, solamente dos presentaron reducción de tejido, el resto tuvo un incremento del 95 %. Finalmente, en las camas cerradas a los herbívoros, cerca de la mitad de los fragmentos mostraron reducción de tejido(16.9 %). Los que lograron crecer incrementaron su tejido en un 54.3 %, menor al crecimiento de los otros dos tratamientos. El menor crecimiento coralino, encontrado en camas cerradas, fue acorde a lo esperado, ya que además de las algas prosperaron esponjas y tunicados que al no tener control representaron competencia adicional para los corales. Sin embargo, la razón por la que los fragmentos en camas donde no se realizaba limpieza tuvieron mayor incremento puede ser debido a que cuando las algas son removidas abren espacio a nuevos competidores para los corales con efecto perjudicial para ellos. Para el caso de los peces herbívoros, se observaron diferencias claras en la composición de especies, abundancia e intensidad de forrajeo entre los dos arrecifes. Se registraron las siguientes especies: S. iseri, S. radians (herbívoros móviles), S. adustus, S. partitus, S. variabilis (herbívoros territoriales), H. bivittatus, T. bifasciatum (carnívoros), C. ocellatus, C. rostrata y S. spengleri (coralívoros). Anegada de Adentro presentó mayor riqueza, con todos los carnívoros y herbívoros móviles presentes, así como S. adustus, S. partitus y C. rostrata. Los herbívoros móviles representaron una parte significativa tanto en abundancia relativa como en actividad de forrajeo (60-70 %), seguido de los carnívoros (30—40 %). Por su parte, en Sacrificios estuvieron presentes todos los coralívoros junto con S. radians. S. partitus, S. variabilis y H. bivittatus; tanto S. partitus como S. spengleri no realizaron actividad de forrajeo. Del resto, H. bivittatus y los otros coralívoros constituyeron durante los primeros 20 minutos el total de la actividad de forrajeo, en ocasiones representada únicamente por H. bivittatus. Pasado este lapso la actividad de forrajeo empezó a cobrar importancia por parte de S. radians (30-40 %). En ambos arrecifes, los herbívoros móviles no contribuyeron mucho con la actividad de forrajeo. Las diferencias de riqueza y composición entre los dos arrecifes pueden ser debido a que la cama de Anegada de Adentro se encontraba cubierta por un denso follaje de macroalgas, captando la atención de herbívoros móviles.
Cruz Sánchez Beatriz Isabel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

IMPACTO EN LOS CICLONES TROPICALES SOBRE LA COBERTURA VEGETAL DE LA ZONA COSTERA DE JALISCO.


IMPACTO EN LOS CICLONES TROPICALES SOBRE LA COBERTURA VEGETAL DE LA ZONA COSTERA DE JALISCO.

Cruz Sánchez Beatriz Isabel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los ciclones tropicales son tormentas violentas y destructivas en la tierra. Cuando los vientos en la tormenta giratoria alcanzan 63 kilómetros por hora, la tormenta se denomina tormenta tropical y cuando alcanza los 119 kilómetros por hora se considera oficialmente que la tormenta en un ciclón tropical o huracán. La llegada de estas grandes cantidades de lluvia y humedad influye de manera importante en el desarrollo de la vegetación existente en las costas y tierra adentro y aportan agua para los cultivos de temporada y mantos freáticos.



METODOLOGÍA

Con el Programa busca ciclones de CONABIO se investigó a los ciclones mas relevantes que han pasado por la costa de jalisco y posteriormente se indago la influencia que tuvo cada uno con la vegetación de estos lugares, se realizó la búsqueda de shapes en INEGI y CONABIO para hacer la cartografiá en el software ArcGIS de los años 1997, 2016 y 2018; además de la pagina de la NOAA se rescataron imágenes satelitales de los huracanes como son Patricia, Norman, Kenna y Jova, como último se obtuvieron en campo testimonios de personas que vivieron esos fenómenos y se recolecto imágenes de como quedo la vegetación después del paso del huracán patricia.


CONCLUSIONES

La investigación realizada genero información sobre particularidades y el estado actual de los suelos, en el cual podemos observar como existen áreas donde la vegetación es nula o bien muy escasa. se determinaron las causas de la influencia de ciclones en la degradación de las tierras y se proponen alternativas para el uso y manejo a fin de preservarlos en bien de futuras generaciones, como puede ser un mejor diseño de urbanización y generar mas recursos para preservar las zonas de fauna endógena, incluyendo arrecifes y manglares
Dado Oronia Sorayda Francisca, Universidad Autónoma de Nayarit
Asesor: Dr. Leila Villarreal Dau, Universidad Autónoma de Sinaloa

CONSERVAR Y CRECER JUNTOS


CONSERVAR Y CRECER JUNTOS

Ballesteros Ahumada Dalia Anahí, Universidad Autónoma de Nayarit. Dado Oronia Sorayda Francisca, Universidad Autónoma de Nayarit. Sanchez Castro Nora Briseida, Universidad Autónoma de Nayarit. Asesor: Dr. Leila Villarreal Dau, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Conservar y Crecer Juntos Nuestro verano de investigación inicio el día lunes 17 de junio del presente año en la Universidad Autónoma de Sinaloa en el área de arquitectura con la Dra. Leila Villareal Dau. El primer día nos presentamos formalmente con la maestra y de igual forma ella nos dio la bienvenida a la institución, así como también nos presentó con el resto de las compañeras, las cuales eran 2 chicas del área de comunicación una proveniente de la ciudad de Culiacán y la otra de Ensenada Baja California. Posteriormente la maestra dos dio a conocer el tema de patrimonio para que tuviéramos una idea más clara de lo que se iba a llevar acabo, según a sus indicaciones propuestas nos dijo que el tema de investigación se dividiría en dos áreas distintas. Por un lado, el tema en relación a la investigación de tipo aplicada donde se pretendía llevar a cabo un curso dirigido a niños de 8-10 años. Y por otro lado en el área de difusión de la investigación donde las compañeras comunicólogas se encargarían de investigar la información, de manera documental en fuentes primarias y secundarias, pero que al final de cuenta se estaría trabajando en el mismo tema de investigación, pero desde diferentes perspectivas.



METODOLOGÍA

Después de saber lo que se pretendía realizar se comenzó a diseñar la estructura de dicho curso el cual fue realizado en base a investigaciones y estructuraciones gráficas, con ello fue posible armar todo el proceso y que quedara estructurado de una manera entendible. Lo estructuramos con una introducción, justificación, objetivos y perfiles de ingreso y egreso que fue lo primordial en elaborar ya que fue el punto de partida para poder arrancar con el curso, así como también una convocatoria, tríptico, cronograma de actividades y evaluación. Esta estructuración la llevamos a cabo en una semana ya que no encontrábamos la forma de como la maestra lo quería, pero al final encontramos la manera de terminarlo bien para que funcionara como se tenía planeado. Después de esa semana se comenzó a diseñar el cronograma de actividades y la elaboración de las planeaciones correspondientes con los temas que se pretendían dar a conocer durante el curso, así como también el material que se iba a utilizar en las diferentes actividades. Posteriormente ya listo todo se dio inicio al curso titulado Conservar y Crecer Juntos dirigido a niños de 8 - 10 años en las instalaciones de arquitectura que nos prestaron para implementar el curso. Durante el curso nos pudimos dar cuenta que a los niños le resulto interesante aprender de una cultura diferente como lo era la etnia huichol ya que les llamo mucho la atención los temas y actividades que se estuvieron llevando a cabo, así como la manualidad de ojo de dios que se realizó como cierre del curso porque implementaron sus habilidades y destrezas que tienen como personas.


CONCLUSIONES

Fue para nosotros una experiencia muy bonita poder trabajar e interactuar con niños porque compartimos conocimientos de una etnia perteneciente a nuestra región del norte de Nayarit y es muy satisfactorio poder saber que demás personas se interesen y empiecen a conocer un poco sobre las culturas que existen en tu región. Consideramos que esta estancia de verano nos dejó muchos conocimientos para poderlos implementar en nuestra vida personal y laboral.
Delgado Santana Graciela Leticia, Universidad Autónoma de Guerrero
Asesor: M.C. Cuitlahuac Hernandez Santiago, Universidad del Mar

ANáLISIS DEL IMPACTO ANTROPOGéNICO A ZONAS DE ANIDACIóN DE TORTUGA GOLFINA (LEPIDOCHELYS OLIVáCEA) EN PLAYA CERRO HERMOSO, OAXACA


ANáLISIS DEL IMPACTO ANTROPOGéNICO A ZONAS DE ANIDACIóN DE TORTUGA GOLFINA (LEPIDOCHELYS OLIVáCEA) EN PLAYA CERRO HERMOSO, OAXACA

Delgado Santana Graciela Leticia, Universidad Autónoma de Guerrero. Asesor: M.C. Cuitlahuac Hernandez Santiago, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

En México contamos con una amplia variedad de especies de flora y fauna; paisajes y ecosistemas únicos por lo cual nos podemos hacer llamar un país mega diverso. Las acciones del hombre al momento de expandir sus horizontes y crear nuevas ciudades, formas de generar empleo, maneras de recrearse, de satisfacer sus necesidades, etc., han traído consigo la explotación de recursos, la invasión del habitad de especies y como final la extinción de las mismas. Durante los últimos años especies de tortugas marinas, y para el caso de este estudio, la tortuga golfina en particular, ha sufrido estas consecuencias del impacto que ha generado el hombre para el medio ambiente a manera de invadir sus áreas de desove, de robar sus huevos y de capturar comer los ejemplares de tortuga para el consumo humano. Según la "Norma Oficial Mexicana NOM-059-SEMARNAT-2010, Protección ambiental-Especies nativas de México de flora y fauna silvestres-Categorías de riesgo y especificaciones para su inclusión, exclusión o cambio-Lista de especies en riesgo" definen a la tortuga golfina (lepidochelys olivácea) en un estado vulnerable para lo cual considero de gran atención este estudio antes de que esta especie de tortuga marina suba de categoría  



METODOLOGÍA

Para el desarrollo metodológico se siguió una línea de estudio cuali-cuantitativa, en donde se echó mano de revisión bibliográfica, entrevistas y sistemas de información geográfica. Como primera tarea se hizo una revisión de la información geográfica del área de estudio y de las leyes o normas de protección a la vida silvestre y en particular de la tortuga marina golfina. Se hicieron 3 formatos de entrevista con la ayuda de la NORMA Oficial Mexicana NOM-162-SEMARNAT-2012, Que establece las especificaciones para la protección, recuperación y manejo de las poblaciones de las tortugas marinas en su hábitat de anidación. La primera entrevista fue dirigida para trabajadores del campamento Tortuguero donde se solicitaron datos particulares sobre el numero de nidos totales, amenazas, depredadores naturales, numero total de crías, evaluación de visitas de turistas a la playa, los robos que se hacen de los huevos de tortuga, las actividades humanas que impactan a las tortugas etc.  La segunda entrevista se dirigió para las personas que residen en el área de estudio y constó de preguntas en las cuales se reflejan la participación que tiene la población para con el cuidado de la tortuga golfina. Para el caso de la tercera entrevista, fue dirigida al turismo donde se cuestionó a cerca de las actividades que realizan en la playa, su incidencia con las tortugas o con los nidos de tortuga, así como su interacción con los mismos. Una vez obtenidos los datos se realizaron escenarios sobre las tendencias del impacto que tienen las actividades antropogénicas y mediante las normas aquí mencionadas se realizó una evaluación sobre el impacto de las actividades y su por venir si no se frena y repara esta situación. Por otro lado, se creó una cartografía donde se exponen las zonas de mayor anidación y la de mayor amenaza, las cuales ayudan para el resultado final donde se obtuvo la descripción y representación mediante un mapa de las áreas de mayor cuidado de más atención ante las acciones del impacto antropogénico.


CONCLUSIONES

La afectación para que la población de tortuga golfina este en niveles vulnerables está directamente relacionado debido al impacto que tiene el hombre para con ellas, principalmente mediante el robo de los huevos y por actividades turísticas mediante la perturbación de la tortuga; con ello también podemos concluir que las áreas de mayor cuidado están en relación con las áreas mas cercanas a la población y a las estructuras del equipamiento turístico (hoteles, restaurantes, camastros, etc.).
Díaz Estrada Jesús Ulises, Universidad Autónoma de Guerrero
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.


ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.

Colín Carreño Manuel Alejandro, Universidad Autónoma de Guerrero. Constantino Rios Brian Alexis, Universidad de Ciencias y Artes de Chiapas. Díaz Estrada Jesús Ulises, Universidad Autónoma de Guerrero. Martínez Díaz Ronaldo Daniel, Universidad de Ciencias y Artes de Chiapas. Morales Hernández Elifas Constantino, Universidad de Ciencias y Artes de Chiapas. Segura Hernandez Jesus Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es un componente esencial del ambiente puesto que se considera el factor principal que controla el estatus de salud tanto en humanos como en la biota en general (Kazi et al. 2009). El agua subterránea, después de los glaciares es la principal reserva de agua dulce para consumo humano, después representado aproximadamente el 30% del agua dulce del mundo. Sin embargo el crecimiento demográfico, que provoca el aumento de la marcha urbana, así como los cambios en la cobertura del uso de suelo, la sobreexplotación del recurso hídrico y la variabilidad climática, se han convertido en una fuerte amenaza para la recarga potencial de agua subterránea, lo que nos podría encaminar al agotamiento del agua subterránea. La cuenca del rio Sabinal en el estado de Chiapas es un caso particular para analizar la incidencia que tiene el desarrollo urbano de los municipios de Tuxtla Gutierrez y Berriozabal, así, como los cambios de cobertura vegetal; en la recarga potencial de agua subterránea.



METODOLOGÍA

Se realizó una revisión bibliográfica de diferentes estudios previos sobre la estimación de la recarga potencial de agua subterránea (estado del arte), se obtuvieron datos edafológicos y de uso y cobertura del suelo en archivos shp. Así como imágenes satelitales, modelos de elevación digital, y datos meteorológicos del área de estudio para tres años aleatorios (1990, 2000, 2010). Los archivos se obtuvieron de diferentes plataformas virtuales como INEGI, GEOWEB Chiapas, USGS, Alos Palsar, y del Servicio Meteorológico Nacional. Toda la información se analizó, y se homologó a un mismo sistema de referencia espacial (WGS 84 UTM Z 15). Los archivos shp. de edafología se editaron agregándoles más variables dentro de la tabla de atributos como son el grupo hidrológico, y capacidad de retención de agua. Para poderlos convertir a archivos ráster y estos convertirlos a un código ASCII. Del modelo de elevación digital de Alos Palsar se obtuvo un mapa de direcciones de flujo. De las variables meteorológicas se realizó una interpolación diaria para los tres años con ayuda de la técnica kriging, esto último con ayuda del lenguaje de programación Python, las interpolaciones se obtuvieron en formato Netcdf. Por último se espera estimar la recarga potencial de agua subterránea, con ayuda del modelo Soil Water Balance (SWB) del servicio geológico de los estados unidos, el cual realiza un balance hidrológico en formato ráster por lo que los archivos de entrada para poder trabajar con el modelo deben estar dados en formato Netcdf, y código ASCII. Todo esto para poder realizar una evaluación sobre cómo ha afectado el crecimiento urbano y los cambios de cobertura vegetal en la recarga potencial de agua subterránea.


CONCLUSIONES

Con ayuda de la teledetección y la técnica de fotointerpretación, se visualizó el crecimiento constante de la infraestructura urbana, en un periodo comprendido del año 1990 al 2010, lo cual incide en la recarga potencial de agua subterránea, debido al efecto impermeabilizante que propicia una menor infiltración, así mismo, el crecimiento poblacional ocasiona cambios en la cobertura vegetal y uso del suelo, lo que altera el ciclo hidrológico. Se espera estimar la recarga potencial de agua subterránea con ayuda del software antes mencionado y de todos los datos previamente recolectados y analizados.
Diaz Gutierrez Evelin, Universidad de Guadalajara
Asesor: Dr. Mario Eduardo Cano González, Universidad de Guadalajara

SIMULACIóN MONTE CARLO DE ESFERAS MAGNéTICAS INFLUENCIADAS POR CAMPOS MAGNéTICOS


SIMULACIóN MONTE CARLO DE ESFERAS MAGNéTICAS INFLUENCIADAS POR CAMPOS MAGNéTICOS

Diaz Gutierrez Evelin, Universidad de Guadalajara. Asesor: Dr. Mario Eduardo Cano González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Realizar una simulación empleando el algoritmo Monte Carlo en leguaje Fortran. Graficar los resultados y comprobar si es consistente a la teoría de Langevin



METODOLOGÍA

Se realizo la simulación con el siguiente algoritmo: Generar una distribución de esferas en una caja cuadrada de longitud unitaria. Desplazar aleatoriamente las esferas dentro de la caja (desorden) Girar aleatoriamente las esferas dentro de la caja(orden) Llevar el sistemas de esferas dentro de la caja al equilibrio usando el algoritmo Monte Carlo  4.1 Calcular la energía de orden más la energía de desorden ΔE  4.2 Verificar que a partir de un tiempo la ΔE no cambie  apreciablemente   4.3 Calcular el orden de las esferas Magnetización M mientras se incrementa la fuerza de ordenamiento Campo Magnético B Después de obtener los resultados se grafica M vs B.


CONCLUSIONES

La simulación es consistente con la teoría de Langevin
Diaz Morfin Elidia, Instituto Tecnológico de Colima
Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara

FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO


FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO

Castro Rojas Ricardo Antonio, Universidad de Guadalajara. Diaz Morfin Elidia, Instituto Tecnológico de Colima. Reséndiz Marroquín Kevin Said, Universidad Autónoma de Guerrero. Yepiz Mendez Gustavo Rafael, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente nos enfrentamos a una problemática ambiental mundial, la escasez de agua potable, que desencadena una serie de problemáticas sociales. Por lo que la Organización de las Naciones Unidas (ONU) lleva mucho tiempo abordando la crisis mundial derivada de un abastecimiento de agua insuficiente y la creciente demanda de agua para satisfacer las necesidades humanas, comerciales y agrícolas. La cantidad de agua se encuentra dividida en los siguientes porcentajes 96.5% salada y 3.5% dulce. De esta última el 69% de agua dulce se encuentra congelada, porcentaje que va disminuyendo con el paso de los años debido a cuestiones climáticas. En la actualidad, varios millones de personas viven en regiones que sufren una grave escasez de agua, incluyendo a comunidades y ciudades de México. La desalación supone una manera de incrementar la oferta de agua potable. Teniendo en cuenta que 42 ciudades de más de un millón de habitantes se encuentran en la costa y que la mayoría de la población mundial vive a menos de 50 km de las costas marítimas, algunos expertos prevén que el agua de mar desalada se convertirá en una importante fuente de agua en el siglo XXI. Debido a esto se han buscado alternativas para la desalación del agua, desafortunadamente la mayoría de los métodos son costosos, sobre todo el de osmosis inversa. Uno de materiales novedosos es el óxido de grafeno (GO) debido a sus propiedades fisicoquímicas, anti-bactericidas y es de bajo costo. Sin embargo, la estabilidad del GO en soluciones acuosas es un requisito previo para su aplicación, ya que estará en contacto con agua. A consecuencia de la dificultad de la elaboración de la membrana hecha a base de GO, es necesario usar otros compuestos para mejorar la estabilidad en ambientes acuosos y a la vez proporcionar resistencia mecánica. En experimentaciones anteriores han empleado Nafión que es un compuesto muy caro y contaminante. Por otro lado, los biopolímeros como el galactomanano que es un material amigable con el ambiente, económico y fácil acceso, ya que se encuentra en el fruto del mesquite. Este árbol es nativo de la región Norte del estado de Jalisco. Es por eso que, en esta estancia de verano de investigación, se experimentó con la fabricación de membranas de óxido de grafeno y biopolímeros. De esta manera se pretende proponer una membrana que pueda emplearse para filtrar agua o biorremediación de agua residuales e industriales.



METODOLOGÍA

La experimentación partió de materiales sintetizados en el laboratorio. El proceso de experimentación se dividió en 2 etapas: La fabricación de membranas de GO. Prueba de filtración en la que se incluye el diseño y elaboración del prototipo para colocación de membranas. Fabricación de membranas Para fabricar la membrana a base de GO obtenido por medio del método de Hummers modificado, se emplearon galactomananos (GA) y/o glutaraldehído(G), glicerol, ácido acético, y papel filtro Whatman No.4 y milipore de 0.45 µm. El proceso consistió en la filtración tintas de GO y biopolímeros por gravedad y de vacío, en esta última se utilizó una bomba. El procedimiento fue el siguiente: Se emplearon tres tintas a base de GO, la primera fue hecha con 30 mg de GO y 40 mL de agua, etiquetándola como Tinta 1 (T1). Para la preparación de la segunda Tinta (T2) se utilizaron 120 mg de GO y 40 mL de agua. La última Tinta (T3) se prepraró con 2.1 mg de GO y 50 mL de agua. Las tres tintas se sonicaron 9 ciclos de 30 minutos cada uno. A las tintas de GO se le agregaron sustancias químicas para la elaboraron de  diferentes membranas de las cuales  la 1 y 2, se sometieron a vortex para asegurar una correcta combinación, se vertieron en cajas Petri y se dejaron secar a temperatura ambiente. Mientras que para las  3, 4, 5 y 6, se usó una parrilla eléctrica a una temperatura de 80°C y agitación contante para mezclar las sustancias, hasta que se observaron cristalinas. Después se vertieron en una caja Petri para dejar secar a temperatura ambiente. A todas las membranas se les realizó una prueba mecánica antes de llevar a cabo la filtración. La prueba consistió en someter 1 cm2 de la membrana en H2O y después ultrasónicar durante 10 minutos. Fabricación del dispositivo para filtración La filtración se realizó mediante el fenómeno de gravedad. La fabricación del dispositivo consistió en cortar la parte inferior del vial y a su tapa, a la que se le realizó un orificio de 3 cm de diámetro aproximadamente, la cual fue pegada con silicón frío en la boca principal. Posteriormente, se selló el contorno externo de la tapa con silicón frío. La membrana se pegó en los bordes de la parte exterior de la tapa con el orificio, se recortó el sobrante y se selló por la parte exterior nuevamente con silicón frío. Se preparó una solución electrolítica acuosa con cloruro de sodio (NaCl) a una concentración de uno molar (1 M). A la cual se le midió y registro la conductividad eléctrica antes y después de ser filtrada. En cada filtración se utilizaron 50 mL del electrolito acuoso para probar la capacidad de desalación de las membranas a base de GO. Se realizaron varios experimentos de los cuales se obtuvierón buenos resultados con las membranas 8 y 9, obteniendo una desalación del 8% y 16% respectivamente.


CONCLUSIONES

El óxido de grafeno es inestable en el agua. Se fabricaron membranas a base de óxido de grafeno empleado materiales biopolímeros. Se obtuvo una desalación del 16% con la membrana 9. Estas membranas pueden tener mayor eficiencia, si se aumenta la concentración de óxido de grafeno, así como asegurar que este se encuentre bien disperso en la solución acuosa y ligado a un componente que le brinde estabilidad.
Domene Ashida Juan Ignacio, Universidad de Guadalajara
Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara

CAMPO MAGNéTICO DE UNA ESFERA DE PLASMA


CAMPO MAGNéTICO DE UNA ESFERA DE PLASMA

Domene Ashida Juan Ignacio, Universidad de Guadalajara. Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Consideramos una esfera de plasma en equilibrio, a nivel del suelo y con presión de plasma despreciable en comparación a la presión del campo magnético que genera la misma esfera.  Dadas estas condiciones, queremos encontrar la forma del campo magnético generado, y las regiones en las que este se anula de modo que, si quisiéramos, podríamos colocar ahí una cubierta de plomo para contener la radiación sin riesgo de que las fuerzas magnéticas rompan la cubierta.  



METODOLOGÍA

Utilizar las ecuaciones de la magnetohidrodinámica (MHD) no relativista junto con la ecuación de Euler para encontrar la ecuación que satisface el campo magnético. Proponer un potencial escalar para obtener una única ecuación escalar. Resolver esta ecuación y elegir para trabajar una de las soluciones. Obtener el campo magnético. Estudiar algunas de sus propiedades.


CONCLUSIONES

Se obtuvo la forma explícita de la contribución cuadripolar del campo magnético y la forma general del potencial escalar. Con estos resultados se determinó que el campo magnético cuadripolar se anula cuando r corresponde a cualquiera de los ceros de la función esférica de Bessel j_2(r), de modo que la contención de la radiación se lograría con esferas de plomo de esos radios. 
Domínguez Hernández Nancy Lisset, Universidad Veracruzana
Asesor: Dr. Sergio Ivvan Valdez Peña, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

ANáLISIS EXPLORATORIO DE DELITOS DE ALTO IMPACTO EN LAS ZONAS METROPOLITANAS


ANáLISIS EXPLORATORIO DE DELITOS DE ALTO IMPACTO EN LAS ZONAS METROPOLITANAS

Domínguez Hernández Nancy Lisset, Universidad Veracruzana. Asesor: Dr. Sergio Ivvan Valdez Peña, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se consideran como delitos de alto impacto aquellos que laceran de forma significativa la paz, seguridad y bienestarde las personas. Esta definición denota la importancia que tienen dichos delitos en nuestra sociedad, pues se tratan de acciones que atacan directamente la integridad de la población. Por tanto, es necesario realizar un estudio cuantitativo que nos permita visualizar la incidencia de dichos delitos en las diferentes zonas de la república que sean representativas para cada entidad, dicho análisis nos permitirá comprender el avance o retroceso que hayan tenido a lo largo de los años y encontrar las relaciones que puedan existir entre estos delitos tanto en tiempo como en lugar de aparición, lo cual puede brindarnos información importante para intentar estimar cuándo, dónde y en qué cantidad podrían suceder en el futuro y, por tanto, qué medidas son las convenientes para combatirlos.  Con este propósito se consideraron como delitos de alto impacto aquellos que implican violencia física directa: homicidio doloso, secuestro, violación, robo con violencia y otros que impliquen violencia (lesiones dolosas, disparos en lugares públicos, etc.).  Existen ya algunos análisis estadísticos de la incidencia de crímenes en el país, sin embargo, las representaciones visuales que manejan estas fuentes de información constan en su mayoría de gráficos separados por entidad y año de cada delito con respecto al tiempo, por lo que es muy difícil unificar la información o ver una evolución general de los delitos en todo el país. Tomando en cuenta lo anterior, lo que se propone es unificar toda la información de los delitos de alto impacto ocurridos en el país en los últimos años y utilizarlos para hacer una representación visual con respecto al tiempo y georeferenciada que permita comparar las estadísticas de crímenes del país fácilmente.



METODOLOGÍA

En primer lugar, se establecieron cuáles serían las bases de datos con las que se trabajarían a lo largo de la investigación. Se buscaron bases de datos que provinieran de fuentes confiables, es decir, páginas oficiales o de entidades gubernamentales con alta disponibilidad que reporten los delitos desde hace varios años y que, de preferencia, contengan información sobre la mayoría de los delitos, tanto los más frecuentes como los de alto impacto.  Para corroborar que la base de datos elegida fuera consistente con otras que también están a disponibilidad del público, se compararon gráficas de los registros de dos estados diferentes, creadas en el software Excel, con gráficas proporcionadas por el Semáforo Delictivo. Las gráficas resultaron ser exactamente iguales.  Posteriormente se procedió a la lectura y tratamiento de datos de las bases descargadas y esto se hizo a través del lenguaje de programación Python. A través de la búsqueda de palabras clave en cada elemento de la base de datos, se generó un script en el cual se permite buscar la incidencia de cada delito en todos o un municipio específico y en distintos intervalos de tiempo. Esto se hizo considerando que después deberán hacerse gráficos por tiempo y georeferenciados, por lo que la posibilidad de realizar búsquedas particulares y generales será un gran facilitador. A partir de dicho script se procedió con la graficación de los datos por tiempo utilizando la librería matplotlib, más específicamente, la herramienta Pyplot. Además, se integró al código la lectura de una base de datos nueva que contiene la clasificación de los municipios por zonas metropolitanas. De este modo la generación de las gráficas se realiza por zona metropolitana ingresando la clave de la misma.  Los resultados son una gráfica por cada municipio de la zona por cada año (entre 2011 y 2017 debido a la base de datos utilizada), y dicha gráfica incluye la información por mes de los cinco delitos que se consideraron de alto impacto. Por su parte, para la graficación georeferenciada del conteo de delitos por municipio se utilizó la misma librería matplotlib. En este caso se graficaron puntos en las posiciones correspondientes a las coordenadas de los centroides de los municipios y líneas que unieran los puntos de los muncipios que comparten frontera. Luego, se utilizó el primer script como una función para la búsqueda de la incidencia de cada delito por año en todos los municipios de la república para poder clasificar los municipios por colores dependiendo de los valores obtenidos. De este proceso resultan una serie de imágenes del país correspondientes a la indencia de uno de los delitos de alto impacto en cada municipio, cada imagen corresponde a las cifras mensuales, por lo que se obtienen doce imágenes por año.  Para comenzar a analizar las relaciones existentes entre delitos y tiempo y lugar de aparición se aplicaron matrices de correlación a los valores obtenidos. Por zona metropolitana se generaron dos tipos de matrices, el primer tipo contiene la información de incidencia de un solo delito en diferentes municipios de la zona y el segundo se integra por la indencia de todos los delitos de alto impacto en un mismo municipio. Así, se calcularon las matrices de correlación de cada una de las matrices generadas para observar la dependencia entre delitos en un mismo municipio y entre municipios donde ocurría el mismo delito. 


CONCLUSIONES

Los resultados obtenidos hasta ahora son gráficas por tiempo de la incidencia de delitos de alto impacto por zonas metropolitanas. donde se comparan por año y en cada municipio la cantidad de veces que ocurrió cada delito de alto impacto.  También se tienen mapas donde se puede analizar geográficamente la incidencia delictiva en todo el país y observar su avance a lo largo de los años.  Aún se está trabajando en el análisis de resultados y la búsqueda de relaciones entre delitos y su lugar y momento de aparición. Se espera encontrar relaciones númericas que permitan obtener datos de la incidencia de delitos en un tiempo "t" utilizando datos registrados en un tiempo "t-1". 
Dorantes López Pablo Deiner Alexis, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. David Carlos Avila Ramírez, Universidad de Guadalajara

TEMA: “PROPUESTA URBANO-ARQUITECTONICA DE VIVIENDA SUSTENTABLE, INCLUYENTE Y ADECUADA: ESTRATEGIA DE REGENERACION DE VIVIENDA ABANDONADA EN TLAJOMULCO DE ZÚÑIGA” SUBTEMAS: TALLER DE DISEÑO PARTICIPATIVO EVALUACION SOCIAL DEL PROYECTO URBANO


TEMA: “PROPUESTA URBANO-ARQUITECTONICA DE VIVIENDA SUSTENTABLE, INCLUYENTE Y ADECUADA: ESTRATEGIA DE REGENERACION DE VIVIENDA ABANDONADA EN TLAJOMULCO DE ZÚÑIGA” SUBTEMAS: TALLER DE DISEÑO PARTICIPATIVO EVALUACION SOCIAL DEL PROYECTO URBANO

Buenfil Carmona Lorena, Consejo Quintanarroense de Ciencia y Tecnología. Dorantes López Pablo Deiner Alexis, Consejo Quintanarroense de Ciencia y Tecnología. Villanueva Mejia Eva Julissa, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. David Carlos Avila Ramírez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El enfoque social es una etapa principal que consta de retomar información de la experiencia y conocimiento de personas que forman parte de un grupo afectado por situaciones que perjudican su calidad de vida y que requieren un análisis por parte de personas profesionistas en la materia, que toman el papel de coordinadores analíticos. La problemática que se presenta dentro del fraccionamiento analizada desde un enfoque social involucra distintos factores como: Falta de comunicación entre las autoridades y los habitantes, La incertidumbre generada por el desconocimiento sobre temas relacionados con la seguridad de tenencia La ayuda inexistente en temas de protección jurídica  El ser catalogado como un grupo social vulnerable a situaciones de extorsión, invasión de la privacidad y por ultimo; El habitar un espacio que no cumple con las condiciones de una vivienda digna.  



METODOLOGÍA

Metodología aplicada para el proyecto específico de Planificación y aplicación de talleres de diseño participativo (charretes) como parte del desarrollo de estrategias para la vivienda sustentable Definición de conceptos  Generación de estrategias que cumplan con las condiciones de vida digna establecidas por la CONAVI Consulta pública primera sesión Generación de alternativas como posibles soluciones Consulta pública segunda sesión Retroalimentación y refinamiento de estrategias Consulta pública tercera sesión Integración de propuestas urbano - arquitectónicas y de espacios interiores Consulta pública cuarta sesión Estrategias y generación final de propuestas urbano - arquitectónicas Consulta pública quinta sesión Presentación final del proyecto urbano - arquitectónico Metodología aplicada para evaluación social del proyecto urbano - arquitectónico Etapa de recopilación de información, datos estadísticos y antecedentes Etapa de análisis de la información recopilada Etapa de análisis de la situación actual de la zona de estudio Etapa del análisis de la situación sin proyecto de inversión Etapa de análisis de la situación con proyecto de inversión Análisis de costo - beneficio con y sin proyecto de inversión Mejoras y posibles soluciones Viabilidad del proyecto  


CONCLUSIONES

-Después de concluir una evaluación social aplicada al proyecto urbano arquitectónico en base a las etapas indicadas por la metodología de evaluaciones, se concluyó que el proyecto puede ser viable, teniendo, así como resultado del análisis Costo - Beneficio que el total de inversión requerida para poder llevar a cabo esta intervención traerá mayores beneficios sociales no solo a los habitantes del fraccionamiento lomas del mirador, sino también al gobierno municipal de Tlajomulco. Gracias a las optimizaciones propuestas, así como a la reactivación de las zonas en abandono, se proyectó que con dicha intervención los índices de inseguridad de la zona, los índices de abandono de vivienda y se rezago social podrán disminuir hasta en un 70%. Por último, con este proyecto no solo se podrán maximizar los beneficios sociales por medio de la liberación de recursos públicos, si no que se podrán disminuir los costos de mantenimiento gracias a las propuestas de vivienda y mobiliario sustentable que se fundamentan en el uso de materiales económicos, duraderos, nativos de la región, etc. Del costo total de la inversión total dividido entre el número de viviendas proyectadas a ser beneficiadas se tiene como dato final que: Por cada vivienda beneficiada se deberá realizar una inversión de $ $                                                                                          254,044.66 El costo total de la inversión final será de: $ 334322766.2231   Se pudo observar la escasez de proyectos de rescate de vivienda abandonada, como parte del cambio a esta situación se elaboró una investigación urbano-arquitectónica de rescate de viviendas en Tlajomulco de Zúñiga, teniendo como resultados esperados la rehabilitación de los inmuebles y del espacio urbano, propiciando sentido de pertenencia de los espacios en todos los habitantes. Un proyecto realizado mediante el diseño participativo permite a la sociedad, adentrarse en temas más allá de su visión como ciudadano ya que mediante su participación, pueden generarse mecanismos para la transformación de su calidad de vida, su contexto, su ciudad. El enfoque social fue el arranque inicial para esta investigación, el cual es considerado como un eje rector, este enfoque fue de vital importancia porque se determinaron las problemáticas en conjunto con las personas afectadas y en base a la información recolectada de los talleres de diseño participativo, se crearon las estrategias y soluciones. Estos talleres fueron el eje rector de esta investigación pues en ellos se pudo obtener un acercamiento productivo afectado-profesionista para analizar, explicar y orientar sobre las polémicas presentadas. Los resultados obtenidos en conjunto con los habitantes del caso de estudio mediante la reflexión son favorables ya que, mediante la retroalimentación de cada taller de diseño participativo, los afectados se iban percatando de los resultados e iban señalando sus inquietudes, y lo más importante, indicando sus ideas sobre el proyecto para obtener resultados más acordes a sus necesidades Partiendo de los resultados y conclusiones expuestos en apartados anteriores, se sugieren algunas prospectivas de investigación para futuros proyectos de investigación: Al realizarse el proyecto la zona generara beneficios sociales, como seguridad, vivienda digna y espacios urbanos confortables. Siguiendo con el método participativo se pueden generar soluciones de acuerdo a las necesidades reales de los habitantes de las viviendas, empleando los talleres se logra conocer a fondo las problemáticas principales de la comunidad. Otra línea de investigación se podría dirigir hacia los planes de mantenimiento para las viviendas con el propósito de rehabilitar aquellas que se encuentren en mal estado, debido a diversos factores.  
Echeverria Rivera Oscar Eduardo, Instituto Tecnológico de Lázaro Cárdenas
Asesor: M.C. Aideé Montiel Martínez, Benemérita Universidad Autónoma de Puebla

ASESINATOS CONTRA PERSONAS DEFENSORAS DEL MEDIO AMBIENTE EN MéXICO: ¿DóNDE ESTáN SUCEDIENDO?


ASESINATOS CONTRA PERSONAS DEFENSORAS DEL MEDIO AMBIENTE EN MéXICO: ¿DóNDE ESTáN SUCEDIENDO?

Echeverria Rivera Oscar Eduardo, Instituto Tecnológico de Lázaro Cárdenas. Zamora Ceja Antonio, Instituto Tecnológico de Lázaro Cárdenas. Asesor: M.C. Aideé Montiel Martínez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

México es uno de los países más peligrosos para las personas defensoras del medio ambiente, es por ello que estudios que realicen la localización de estos crímenes son necesarios. La localización puede utilizarse para detectar zonas problemáticas y así, aplicar acciones concretas en lugares específicos para solucionar o disminuir los conflictos. El objetivo del presente trabajo es realizar un mapa de México con la ubicación de los asesinatos hacia personas o grupos relacionados con conflictos ambientales con la finalidad detectar zonas de riesgo. Los datos se obtuvieron a través de medios de noticias impresos y digitales, tesis, tesinas relacionadas con el tema y bases de datos realizadas de 2014 a 2019.



METODOLOGÍA

Se realizó una hoja de datos en Excel en la que se ubicaron los casos con nombre de la víctima, estado, municipio, coordenadas del municipio donde se registró el asesinato, la etnia a la que pertenecía la víctima, la fecha y el link a la nota completa. El mapa con la ubicación de los asesinatos se realizó en la aplicación Mapa Digital de México del INEGI, asimismo, se usó un mapa de las áreas protegidas de México para mostrar su relación con las zonas donde los crímenes fueron cometidos.


CONCLUSIONES

Los resultados mostraron que, del total de 66 casos encontrados, el 21.21% de los casos pertenecen al estado de Oaxaca, siendo el Estado con mayor número de asesinatos de personas defensoras del medio ambiente entre los años mencionados anteriormente. Chihuahua, Veracruz y Michoacán presentaron el 18.18%, el 16.67 y el 10.61%, respectivamente. Además, se concluyó que una gran cantidad de los asesinatos están cercanos a las áreas nacionales protegidas e incluso unos se encuentran dentro de dichas áreas por lo que es prioritario que además de proteger los recursos naturales se implementen programas que protejan a todos los ciudadanos que habitan y protegen estas áreas.
Encinas Castillo Mirella, Universidad de Sonora
Asesor: Dr. Nicholas Robert Varley Middle, Universidad de Colima

ANáLISIS DE DERRUMBES DE ROCAS DEL MES DE SEPTIEMBRE 2014, VOLCáN DE COLIMA


ANáLISIS DE DERRUMBES DE ROCAS DEL MES DE SEPTIEMBRE 2014, VOLCáN DE COLIMA

Encinas Castillo Mirella, Universidad de Sonora. Asesor: Dr. Nicholas Robert Varley Middle, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El monitoreo de desprendimientos de rocas es importante debido a que contribuye en la evaluación de riesgos y ayuda a examinar la actividad de un volcán, desde que se tienen estudios de este. La tasa de derrame es un parámetro crítico para la determinacion en el estilo de actividad y, por lo tanto, los peligros asociados con un volcán en erupción. Los desprendimientos pueden llevar a muchas situaciones amenazadoras para el medio ambiente y todo lo que se encuentra cerca del lugar. El Volcán de Colima es uno de los volcanes activos de México, por lo que se tiene que estar monitoreando, ir a campo seguido, estudiarlo; para así saber su comportamiento, su evolución y el estado actual.  Mediante esto ha mostrado ciclismo en varios órdenes diferentes de magnitud de tiempo, por lo que es importante estar monitoreando y analizando los distintos datos, para ver su evolución al paso del tiempo. La relación que tienen los derrumbes de las rocas con las explosiones representa una problemática para validar el enlace que podría existir entre la explosión como causa del derrumbe de rocas o contrario a esto; el derrumbe de rocas causa una explosión, por esto se estudian los datos sísmicos para la determinación de los eventos.



METODOLOGÍA

Para los primeros monitoreos se realizaron dos salidas a campo al inicio del verano de investigación. La primera fase se realizó por medio de dos visitas en campo, la primera se llevó a cabo los días 19 y 20 de junio en La Mesa situado al norte de la ciudad de Colima; sitio en el cual se acampo durante un día para la recolección de muestras y la realización de recorridos en los dos días. Los recorridos fueron en diferentes zonas en la base del volcán, en estas emergen aguas termales, las cuales se tomaron muestras y se caracterizó sus propiedades tal como; temperatura, conductancia, salinidad, entre otras. Las muestras recolectadas fueron llevadas al laboratorio para ser analizadas y observar su composición actual, con ello hicieron comparaciones con datos anteriores. La segunda salida fue llevada a cabo los días 3 y 4 de julio, en Montegrande, localizado en las faldas del volcán. Consistió en acampar durante un día para dar comienzo al día siguiente a primera hora, dando un recorrido en dirección al volcán. De los depósitos de corrientes de densidad piroclástica se recolecto un total de cinco muestras, esto debido a que las condiciones climatológicas que no permitieron la recolección de más muestras. Estas consisten en flujos piroclásticos de 2015, una vez obtenidos se llevaron al laboratorio para realizar un tamizado y determinar su granulometría y otros datos que ayudan a la determinación de la columna del lugar previsto. Al concluir las salidas a campo, se asignaron los datos sismológicos de distintas estaciones del mes de septiembre de 2014, para la determinación de eventos de derrumbes de rocas, para ello: Se hizo lectura de varios artículos sobre el tema de derrumbes de roca, manuales de los pasos para utilizar el programa a utilizar que es WebPlotDigitizer en el cual se cargan las imágenes dadas de los resultados del sismógrafo, una vez cargada la imagen en el programa se tiene que calibrar mediante cuatro puntos (X1, X2 y Y1, Y2), crear una base de datos llamada C (Calibration) donde se ponen cuatro puntos cada uno en las esquinas de las líneas del sismógrafo, de ahí crear una base de datos llamada R (Rockfalls) en la cual se van guardando los puntos que se van seleccionando para el evento, en este caso son tres puntos: Al inicio del evento Su máxima amplitud Final del evento Ya que se tienen seleccionados todos los derrumbes de rocas en la imagen, se verifica que el total de puntos sea múltiplo de 3 para así verificar que se realizaron bien la selección de puntos. Cuando se tiene todos los pasos ya listos, se tiene que guardar el proyecto en .TAR con el nombre de YY/MM/DD en números, de igual manera se exportan los datos en .CSV con el mismo nombre que el proyecto. Una vez que se tienen los dos archivos guardados en la computadora se separan en distintas carpetas, los archivos .TAR se guardan en una llamada Project y los archivos .CSV se guardan en una carpeta llamada Dates. Todo esto se realizó en cada una de las imágenes de cada día del mes de septiembre. Para tener un mejor manejo de los datos y de forma breve, se hizo un archivo Excel con las principales características de cada día. Ya que se tienen todos los archivos de cada día, lo final fue hacer una comparación con los eventos de explosiones del mismo mes para ver la relación tienen con los derrumbes de rocas y poder dar solución a la problemática del mes ya visto.  De igual manera se hizo realización de los archivos de explosiones, que fueron de la misma manera y los mismos pasos que con los derrumbes solo que con una base de datos llamada E (Explosions).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los volcanes, como su composición, eventos que se monitorean, entre otras cuestiones importantes; de igual manera de forma practica y salidas a campo para reforzar conocimientos. Sin embargo, con los archivos obtenidos se esperan tener resultados que digan la relación que tienen los derrumbes de roca con las explosiones; con lo que se pudo concluir que en el mes de septiembre de 2014 se tuvo un mes muy activo en el Volcán de Colima, con gran cantidad de eventos de magnitud alta. Y que las explosiones en este mes fueron muy continuas al igual que los derrumbes.
Escalera Hernández Yannick Selwyn, Universidad de Guadalajara
Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara

ECUACIóN ESTELAR DE TOLMAN- OPPENHEIMER-VOLKOFF EN PRESENCIA DE UNA DENSIDAD DE ENERGíA DE VACíO CONSTANTE.


ECUACIóN ESTELAR DE TOLMAN- OPPENHEIMER-VOLKOFF EN PRESENCIA DE UNA DENSIDAD DE ENERGíA DE VACíO CONSTANTE.

Escalera Hernández Yannick Selwyn, Universidad de Guadalajara. Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La constante cosmológica se introdujo por primera vez en 1917 por Einstein, ya que sus ecuaciones de campo modelaban un universo que se contraía y él buscaba un universo estático ya que era la idea que reinaba en esa época. Sin embargo, Einstein rechazó esta idea una vez que las observaciones de Hubble comprobaran que el universo no es estático sino más bien que las estrellas se alejan, fenómeno mejor conocido como el corrimiento al rojo.  El descubrimiento de la aceleración cósmica en 1998 renovó el interés en la constante cosmológica que actualmente se investiga tanto teóricamente como experimentalmente la existencia de esta constante. Incluso si en la ecuación de Einstein modificada se supone un vacío se puede comprobar que esta constante es equivalente a tener una densidad de energía de vacío, o energía oscura, lo que explicaría la expansión del universo. La ecuación de Tolman-Oppenheimer-Volkoff modela el cambio de presión según el radio de una estrella, considerando un universo estático. Ahora bien, si se introduce una densidad de energía de vacío en el universo, la ecuación de T-O-V sufre modificaciones. En el presente trabajo se pretende comparar ambas ecuaciones para distinguir las implicaciones de la constante cosmológica en el cambio de presión según el radio en estrellas de distintas masas solares.



METODOLOGÍA

-Se resolvieron las ecuaciones de Einstein para la métrica de Schwarzschild-De Sitter y con estas se dedujo la ecuación de TOV, la cual fue resuelta integrando por fracciones parciales. -Se utilizó la ecuación de Einstein con constante cosmológica para deducir la ecuación de TOV correspondiente y se resolvió utilizando el software Maple, programa orientado a la resolución de problemas matemáticos. -Se compararon ambas soluciones de la ecuación de TOV, es decir p(r) con distintos cuerpos estelares.


CONCLUSIONES

La ecuación de TOV considerando la presencia de constante cosmológica es distinta a la original, por lo que se espera que si haya cambios en la presión según el radio. Se están buscando cuerpos estelares con masas representativas para poder ser graficados.
Esparza González Laura Nayeli, Universidad de Guadalajara
Asesor: Dr. Diana Berenice Hernández Uresti, Universidad Autónoma de Nuevo León

DEGRADACIóN FOTOCATALíTICA DE ÁCIDO SALICíLICO UTILIZANDO FOTOCATALIZADORES G-C3N4-MOS2.


DEGRADACIóN FOTOCATALíTICA DE ÁCIDO SALICíLICO UTILIZANDO FOTOCATALIZADORES G-C3N4-MOS2.

Esparza González Laura Nayeli, Universidad de Guadalajara. Asesor: Dr. Diana Berenice Hernández Uresti, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Los compuestos orgánicos importantes en las aguas residuales industriales incluyen colorantes, fenoles, clorofenoles, alcoholes alifáticos, aromáticos, polímeros y ácidos carboxílicos. Entre los ácidos carboxílicos, el ácido salicílico ha sido identificado como un contaminante de agua que proviene de diversas fuentes, entre ellas, la molienda de papel y las industrias cosméticas y farmacéuticas. La presencia de ácido salicílico en el medio acuático constituye una amenaza potencial para la salud humana. Una opción atractiva para la degradación de contaminantes es la fotocatálisis, debido a su facilidad de aplicación y rapidez. Con el fin de acentuar el cuidado del medio ambiente y a la vez ser un material apto para resolver problemas reales, un fotocatalizador debe tener las siguientes características: baja toxicidad, síntesis sencilla de bajo costo, capacidad para aprovechar la mayor parte del espectro de la luz solar, alta estabilidad térmica y química, alta reciclabilidad y una elevada eficiencia fotocatalítica. El nitruro de carbono grafito (g-C3N4) es un polímero semiconductor con una estructura laminar similar al grafito. Este polímero es un gran candidato para aplicaciones fotocatalíticas ya que cumple con las características que requieren los catalizadores. El g-C3N4 se ha unido a distintos metales y óxidos metálicos aumentando considerablemente la degradación y mineralización de contaminantes.



METODOLOGÍA

Se preparó g-C3N4 a partir de cianamida, se calcinó a 500  ͦC por 4 horas con una rampa de 10  ͦC/min y los productos fueron recogidos y molidos en polvo. Una vez obtenido el  g-C3N4 se sintetizaron fotocatalizadores de heterounión g-C3N4-MoS2 mediante un método de mezcla y calentamiento, con diferentes porcentajes en peso de MoS2 (1, 3, 5, 10 y 15%). Curva de calibración  A partir de una solución madre de 50 ppm del contaminante utilizado (Ácido salicílico) se prepararon estándares de 1, 2, 3, 4, 5, 6, 8, 10, 15, 20 y 25 ppm. Se realizó una cuantificación en el espectrofotómetro para obtener la curva de calibración. Actividad Fotocatalítica Cinéticas Las actividades fotocatalíticas de las muestras compuestas de g-C3N4-MoS2 se evaluaron mediante la degradación fotocatalítica del Ácido Salicílico (SA) en solución acuosa bajo irradiación de luz visible. Una lámpara de Xe de 35 W proporcionó irradiación de luz visible.  En cada experimento, se mezclaron 0.2 g de fotocatalizador con una solución de 200 ml de SA (25 mg/L) y se llevaron a ultrasonido durante 30 segundos. Antes de la irradiación, las suspensiones se agitaban magnéticamente en la oscuridad durante 1 hora para lograr una absorción saturada de SA en el catalizador. Los intervalos de tiempo de irradiación fueron de 0, 15, 30, 45, 60, 90, 120, 150, 180, 210 y 240 minutos. Las suspensiones fueron recogidas y centrifugadas (4000 rpm, 5 min) para eliminar las partículas del fotocatalizador. Las concentraciones de SA fueron monitoreadas a 297 nm durante el proceso de fotodegradación usando un espectrofotómetro UV-vis. Se determinó cuál fotocatalizador era más óptimo mediante el análisis e interpretación de los resultados de las cinéticas, el cual fue la mezcla 1% MoS2 - 99% g-C3N4. Reproducibilidad Se reutilizó el mismo fotocatalizador (MoS2 1%) para realizar la fotodegradación cuatro veces y así determinar si es reproducible.   Scavengers Se realizaron pruebas de secuestradores para identificar las principales especies oxidantes que forma el fotocatalizador, utilizando EDTA, Isopropanol, catalasa y solución de benzoquinona.   Fotoluminiscencia Se agregaron 2x10-3 M de NaOH a 200 mL de agua destilada y se agitó hasta disolver totalmente. Posteriormente se agregó a la solución  ácido tereftálico y se disolvió llevando a ultrasonido durante 5 minutos. Posteriormente se adicionó el  fotocatalizador. Antes de la irradiación se agitó magnéticamente durante 1 hora en la oscuridad y se tomaron muestras en los tiempos 0, 5, 10, 15, 20, 25, 30 y 45 minutos. La fotoluminiscencia de cada muestra fue determinada por un fluorómetro.   TOC Se realizaron las pruebas de TOC para medir el grado de mineralización. -Primeramente, se realizó el lavado de los instrumentos del laboratorio con ácido para evitar la contaminación de residuos orgánicos. -Se preparó una solución acuosa de SA de 500mL con una concentración de 25 mg/L -En un reactor se colocó g-C3N4 y en otro el fotocatalizaor 1% MoS2 - 99% g-C3N4 en 250 mL de la solución de SA cada uno con una estequimetría 1:1. -Antes de la irradiación, las suspensiones se agitaban magnéticamente en la oscuridad durante 1 hora. -Los tiempos de irradiación fueron de -1, 0, 4, 24, 48 y 72 horas. -Una vez tomada cada muestra se llevaba a refrigeración.   Caracterización La estructura cristalina de las muestras se investigó utilizando difracción de rayos X (DRX). La morfología de las muestras se examinó mediante microscopía electrónica de barrido de emisión de campo (SEM). Se realizó espectroscopia de reflexión difusa (DRS).


CONCLUSIONES

El fotocatalizador  1% MoS2 - 99% g-C3N4 mostró buena degradación fotocatalítica de Ácido Salicílico en disolución acuosa baja irradiación solar simulada. El g-C3N4 ha demostrado ser uno de los candidatos más prometedores para el diseño y la fabricación de fotocatalizadores de compuestos avanzados para diversas aplicaciones. Por lo tanto, no cabe duda de que el enorme crecimiento de los fotocatalizadores compuestos basados en g-C3N4 continuará acelerándose en un futuro próximo.
Espinosa Ozuna Lady Azucena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Johan Manuel Redondo Ortegón, Universidad Católica de Colombia (Colombia)

ANáLISIS DE SOSTENIBILIDAD DE UNA PROPUESTA DE APROVECHAMIENTO INTEGRAL DE RESIDUOS ORGáNICOS EN LA ZONA METROPOLITANA DE GUADALAJARA


ANáLISIS DE SOSTENIBILIDAD DE UNA PROPUESTA DE APROVECHAMIENTO INTEGRAL DE RESIDUOS ORGáNICOS EN LA ZONA METROPOLITANA DE GUADALAJARA

Espinosa Ozuna Lady Azucena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Terán Uribe Magdalena, Universidad de Guadalajara. Asesor: Dr. Johan Manuel Redondo Ortegón, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Las industrias producen grandes cantidades de desechos. En las zonas urbanas aproximadamente se producen 1.3 millones de t/año siendo un 46\% residuos orgánicos (Porras, 2016). Bajo el marco de la Economía Azul, el aprovechamiento de los residuos orgánicos resolvería problemas ambientales y sociales, además de crear empleos.  Los residuos orgánicos son desechos biodegradables de origen vegetal o animal, se componen naturalmente y tienen la propiedad de poder desintegrarse o degradarse rápidamente, transformándose en otra materia orgánica, susceptible de ser aprovechada energéticamente (Jaramillo, 2008). La adecuada gestión de los residuos orgánicos es fundamental y necesaria para garantizar un adecuado tratamiento y contribuir así, al ahorro de energía y emisiones de gases de efecto invernadero. Se entiende por destino final de los residuos al conglomerado de acciones orientadas a su eliminación o su aprovechamiento (Sierra, 2010). En este contexto, se ha propuesto como pregunta de investigación del trabajo desarrollado la siguiente: ¿Cuál es la sostenibilidad de una propuesta de aprovechamiento integral de residuos orgánicos en la Zona Metropolitana de Guadalajara? En la pregunta de investigación propuesta debe entenderse la sostenibilidad como ha sido definida en (Herman E. Daly, 1995) que enmarca la sostenibilidad como un desarrollo económico, ambiental y social. Al desarrollar la propuesta de aprovechamiento integral se busca obtener beneficios para la sociedad además de beneficios ambientales, en dicha propuesta el objetivo no fue únicamente tener beneficios económicos de los residuos orgánicos, es por ello que se crearon planes de oportunidades.



METODOLOGÍA

Utilizando el marco de la economía azul, se planteó un plan de aprovechamiento integral de los desechos orgánicos. El plan de aprovechamiento involucró la recepción de residuos orgánicos provenientes de la plaza de mercado, los residuos de las hogares, las tequileras y las maleza del bosque primavera, los cuales generan materia orgánica en descomposición, con el que, separando los residuos cítricos, se puede crear un  biodetergente y, adicionalmente, se puede producir compost, que permite la reforestación, la cual, se dará a través del bambú, para la utilización de material de construcción de colegios y de papel. La materia orgánica en descomposición, a su vez, por medio de un biodigestor, permite la elaboración de biocombustible y energía. Al juntar todas estas innovaciones se obtiene un plan de oportunidades que entreteje planes de negocios para el beneficio común de la región. Cada una de las líneas de negocio y la manera como se entretejen para dar lugar al plan de oportunidades que constituye la propuesta integral de aprovechamiento de residuos para la zona Metropolitana de Guadalajara fue representada a través de la Dinámica de Sistemas, siguiendo la metodología propuesta por (Aracil, 1995). De este modo, se obtuvo un diagrama de niveles y flujos que fue implementado en el software libre Vensim PLE 7.3.5, utilizando el método numérico Runge-Kutta 4 automático con tamaños de paso de 0,0625. Las simulaciones se realizaron para dos escenarios denominados Business As Usual BAU y Business As Vision BAV, cada uno de los cuales representaba el escenario en el que no se realizaba ninguna implementación y el escenario en el que se implementaba el plan de aprovechamiento integral propuesto, respectivamente. A partir de las simulaciones se realizaron comparaciones sobre los indicadores de sostenibilidad definidos, los cuales fueron: rentabilidad, empleo, secuestro de carbono y cantidad de residuos sólidos. De la comparación se obtuvieron las conclusiones sobre los beneficios, contra-beneficios.


CONCLUSIONES

Para la definición de un arreglo social, económico y ambiental de una propuesta de aprovechamiento integral, en el marco de la Economía Azul, se entretejieron diferentes innovaciones sobre los residuos orgánicos, las cuales fueron implementadas en una cascada de valor de la propuesta, llegándose a la conclusión que, el arreglo seleccionado daba lugar a múltiples beneficios ambientales, sociales y económicos. Para desarrollar un modelo matemático para la evaluación sistémica, se siguió la metodología de la Dinámica de Sistemas, vea (Aracil, 1995), de donde se obtuvo un sistema de ecuaciones diferenciales ordinarias de primer orden, representado a través de un diagrama de niveles y flujos. Se concluye que la Dinámica de Sistemas es la metodología más adecuada para la representación de este tipo de sistemas al permitir, no solo entretejer todos los aspectos sociales, económicos y ambientales, sino también, la revisión de su comportamiento en el tiempo. Para calcular los beneficios y contra-beneficios financieros, sociales y ambientales de la propuesta, se evaluó el sistema en los escenarios Business As Usual (BAU) y Business As Vision (BAV), comparando simulaciones preliminares. Se concluye, a partir de los resultados preliminares, que la propuesta de aprovechamiento integral de residuos orgánicos realizada para la Zona Metropolitana de Guadalajara, no solamente es más viable que la BAU, sino que también produce sostenibilidad.  
Esquivel Fajardo Edgar Alejandro, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Luis Benjamin Mendoza Ballines, Instituto Tecnológico Superior de Uruapan

SOBRE LAS PROPIEDADES OPTOELECTRÓNICAS DE LA TINTA DEL HUESO DE AGUACATE


SOBRE LAS PROPIEDADES OPTOELECTRÓNICAS DE LA TINTA DEL HUESO DE AGUACATE

Esquivel Fajardo Edgar Alejandro, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Luis Benjamin Mendoza Ballines, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La región de Uruapan en Michoacán México es una de las principales productoras de aguacate (Aguacate (Persea Americana Mill)) y cuenta con plantas que lo industrializan, produciendo pastas, por consiguiente, en la localidad existe un gran volumen de desecho de la semilla del aguacate, por lo que este proyecto pretende aprovechar esos desechos para obtener una tinta e investigar su aplicación. Obteniendo de esta manera un valor agregado a este deshecho



METODOLOGÍA

Se procedió a realizar una investigación documental acerca de; Moléculas componentes de la tinta de hueso de aguacate(THA), Efecto fotoeléctrico, Modelo atómico, Dopaje en semiconductores, Polímeros con sistemas π-electrón, Concentración de las cargas, y pruebas de resistividad y efecto hall. Se planea caracterizar los componentes de la THA por medio de instrumentos radiométricos como el HPLC-MS y un medidor de resistividad y efecto Hall, sin embargo, la investigación comienza con una simulación de las reacciones químicas referente al proceso de extracción de la tinta, en base a las moléculas descritas en el trabajo de tesis EXTRACCIÓN Y CARACTERIZACIÓN DE LOS PRINCIPIOS ACTIVOS FENÓLICOS CON ACTIVIDAD ANTIOXIDANTE A PARTIR DE RESIDUOS DE AGUACATE: EPICARPIO Y SEMILLA (Persea americana)


CONCLUSIONES

Se espera de la tinta de hueso de aguacate (THA) que presente características prometedoras para la elaboración de OPVs por sus propiedades optoelectrónicas, se propone entonces, la adición de una fina capa de THA a celdas fotovoltaicas a base de silicio poroso con la finalidad de incrementar el porcentaje de eficiencia por unidad de área.
Fierro Chimal Edith, Universidad Veracruzana
Asesor: Dr. José Esteban Hernández Gutiérrez, Universidad de Guanajuato

ANÁLISIS DE LA INCIDENCIA DEL FENÓMENO DE BOUTIQUIZACIÓN EN LA IMAGEN URBANA DEL CENTRO HISTÓRICO DE LA CIUDAD DE XALAPA, 1985 - 2016.


ANÁLISIS DE LA INCIDENCIA DEL FENÓMENO DE BOUTIQUIZACIÓN EN LA IMAGEN URBANA DEL CENTRO HISTÓRICO DE LA CIUDAD DE XALAPA, 1985 - 2016.

Fierro Chimal Edith, Universidad Veracruzana. Asesor: Dr. José Esteban Hernández Gutiérrez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

¿De qué manera el fenómeno de boutiquización incide en la imagen urbana del centro histórico de la ciudad de Xalapa? 



METODOLOGÍA

Este trabajo de investigación partirá del acopio de información de distintas fuentes, esencialmente de primera mano tales como bibliográfica, hemerográfica, cartográfica, fotográfica, así como documentación y datos oficiales otorgados por instituciones públicas y/o privadas, esto con el propósito de establecer un marco de datos históricos, teóricos y técnicos que nos permitan abordar, dirigir y abundar en el tema. Posteriormente se procederá a realizar un análisis de dicha información, iniciando con la depuración de los datos ya previamente obtenidos, con el fin de eliminar la información no representativa para los objetivos de esta investigación, logrando así una asertiva selección y clasificación de ésta. Una vez teniendo la información filtrada se procederá a ordenarla y sistematizarla de acuerdo al carácter que represente, ya sea cuantitativo y/o cualitativo mediante la digitalización de ésta, lo cual permitirá manipularla y transformarla con la finalidad de que ésta logre expresar los objetivos planteados inicialmente. En este caso específico, la información será expresada por medio de la elaboración de planos y croquis mediante el empleo de diferente simbología, de la mano y con el apoyo de elementos visuales tales como fotografías y/o bocetos. Aunado a lo anterior, se hará empleo de la técnica de georreferenciación de un plano histórico, la cual permitirá lograr el posicionamiento espacial de una entidad en una localización geográfica única y bien definida en un sistema de coordenadas. Para dicho proceso se recurrirá al ejercicio de forma paralela de los softwares: Google Earth, Qgis y Map Tiler; todo ello teniendo como guía el documento creado por Javier Escudero Infante, miembro de la Sección de Informática de la BUS. Producto de lo anterior se ejecutará la adecuada fusión y comparación de diversos datos espaciales y temporales, con el fin de construir acertadas interpretaciones de la información, así como resaltar los argumentos necesarios para los objetivos inicialmente establecidos. Finalmente se realizará la representación de los resultados obtenidos, expresados en conclusiones y con apoyos gráficos.      


CONCLUSIONES

Con base en el análisis realizado en esta investigación podemos inferior la existencia de una incidencia del fenómeno de boutiquización en la imagen urbana, en este caso en el centro histórico de la ciudad de Xalapa, incidencia que se ve expresada en diferentes aspectos tales como: Actualmente la zona comprendida entre las vialidades: Juan de la Luz Enríquez, Leandro Valle, Ignacio Zaragoza y José María Mata, área perteneciente al perímetro A de centro historio de nuestra ciudad; presenta una ocupación predominante por sectores de comercio, servicios y ocio ocupando el 34.68%, 26.90% y 12.33% respectivamente, representando así 3/4 partes de esta zona.  Con base en la realización de una comparativa entre el uso habitacional que en algunos casos escasos específicos de inmuebles que aun poseen dicho carácter y función, en contraposición al incremento o mutación que han tenido el resto, se obtuvo que el total de viviendas habitadas está en decadencia y prácticamente con nula presencia, intercambiando su uso por el comercio al por menor y al por mayor, así como por la apertura de establecimientos de servicios.  Una de las expresiones que trae este fenómeno de estudio (boutiquización) es el aumento en la construcción de niveles de los edificios, esto con la finalidad de atender o priorizar en las plantas bajas establecimientos de comercio, servicios y ocio; e inclusive en algunos de los casos, en estos nuevos niveles se es trasladada e implementada la vivienda, generando así un uso mixto y una mezcla de elementos formales, así como de carácter y función del inmueble. Reflejando así esta vialidad un 19.25% y 54.93% correspondientes a inmuebles de uno y dos niveles, mientras que un 8.89% y 16.93% representan aquellos edificios de tres y cuatro niveles correspondientemente. Reflejo de la mutación de función del suelo del que ha sido objeto esta área y específicamente la vialidad, se obtienen evidentes modificaciones en el Coeficiente de Utilización del Suelo (CUS), infiriendo que el 2.73% del área de análisis responde a aquellos predios que presentan un rango de ocupación que oscila de un 61 a 80%, mientras que el porcentaje restante, es decir, el 97.27% representa los predios que han sido ocupados de un 81 a 100%. Indicando así la gran concentración y explotación del que han sido objeto estos edificios. Estas expresiones generan nuevas circunstancias y elementos encadenados, pues esto conlleva un aumento en el valor de las rentas y/o precios de venta de los predios para estos nuevos usos. Concluyendo de acuerdo con Barragan, 2016., que estos valores han ido en aumento entre un 15% a 20% en cada año, esto como reflejo del crecimiento y actividad de la zona. Como respuesta y consecuencia de los puntos anteriores, la ciudad se ve inmersa en una saturación de anuncios publicitarios que enmarcar vialidad, sobre todo en vías primarias de comunicación, las cuales se han convertido en foco principal y de deseo para el desarrollo de estas actividades.  Las modificaciones en el carácter y función de los inmuebles se traducen a nuevas expresiones paralelas y de su entorno tales como: en vialidades o conductos, los cuales Lynch expresa como sendas, inserción de mobiliario urbano, así como vegetación y arbolado, señalética y nodos; todo ello con la finalidad de dar abasto y atención a las necesidades y nuevas actividades que deriva este fenómeno.  
Flores Andrade Javier, Universidad Autónoma de Occidente
Asesor: Dr. Guadalupe Durga Rodríguez Meza, Instituto Politécnico Nacional

ANÁLISIS DE METALES PESADOS EN TEJIDOS DE ALMEJAS (LARKINIA GRANDIS Y CHIONOPSIS GNIDIA)


ANÁLISIS DE METALES PESADOS EN TEJIDOS DE ALMEJAS (LARKINIA GRANDIS Y CHIONOPSIS GNIDIA)

Flores Andrade Javier, Universidad Autónoma de Occidente. Asesor: Dr. Guadalupe Durga Rodríguez Meza, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El término metal pesado es utilizado para referirse de una manera amplia a aquellos metales o metaloides con potencial de causar problemas de toxicidad. Los metales pesados se encuentran de forma natural en la corteza terrestre en concentraciones muy bajas, pero las actividades antropogénicas han provocado un incremento en estas concentraciones, favoreciendo la bioacumulacion de estos, en los organismos o sitios. La contaminación por metales pesados se ha incrementado en estos últimos años, debido a actividades antropogénicas que la generan, como la agricultura, la minería y la industria. En las costas de Sinaloa, las aguas provenientes de la agricultura, acuacultura y de los asentamientos humanos son vertidos a través de drenes, que aportan gran cantidad de materia orgánica, nutrientes, plaguicidas, metales pesados, bacterias, material particulado, entre otros. Tomando en cuenta el daño que producen estos contaminantes en los ambientes costeros, el proyecto de investigación en el que se participa tiene la finalidad de evaluar la presencia de Cu, Fe, Mn, Zn, Ni, Cd y Pb en almejas (Larkinia grandis y Chionopsis gnidia) de interés comercial del sistema lagunar San Ignacio-Navachiste-Macapule, para determinar el posible daño a la salud humana.



METODOLOGÍA

Para ello, se colectaron dos especies de almejas en el mes de junio en 8 sitios del sistema lagunar, los organismos se almacenaron y en el laboratorio se midieron y se puso a secar el tejido. La cuantificación de metales se hizo mediante la digestión ácida de 0.5 g de tejido y con un espectrofotómetro de absorción atómica GBC Avanta. Se prepararon curvas de calibración de los elementos y se incluyeron materiales de referencia certificados (TORT-2, PACS-2, MESS-3).


CONCLUSIONES

A partir de las concentraciones se observó que ambas especies de almejas presentan similar secuencia de concentración, que fue: Fe> Zn> Mn> Ni≥ Cu, con respecto a Cd y Pb el contenido fue muy bajo y no fue posible detectarlo en la mayoría de las muestras. La presencia de Fe, Mn y Zn se atribuye que son elementos bioesenciales, requeridos por los animales en pequeñas cantidades o cantidades traza, necesarios para que todos los organismos vivos completen su ciclo vital. Estos elementos son muy importantes en el metabolismo o como constituyentes de los tejidos corporales. Por lo que aumentar estas concentraciones provocaría daño al organismo.
Flores de la Cruz Angel Moises, Universidad Autónoma de Nayarit
Asesor: M.C. Andrés Mauricio Grisales Aguirre, Universidad Católica Luis Amigó (Colombia)

SERIES DE TIEMPO APLICADAS AL ANáLISIS DE LA BALANZA COMERCIAL DE MERCANCíAS DE MéXICO


SERIES DE TIEMPO APLICADAS AL ANáLISIS DE LA BALANZA COMERCIAL DE MERCANCíAS DE MéXICO

Flores de la Cruz Angel Moises, Universidad Autónoma de Nayarit. Asesor: M.C. Andrés Mauricio Grisales Aguirre, Universidad Católica Luis Amigó (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La necesidad de conocer los eventos futuros sobre un suceso de tipo aleatorio plantea la necesidad de estudiar las técnicas más importantes para el tratado de datos que permitan estimar el comportamiento a futuro de dichos datos, para así anticiparse a ciertos comportamientos y más importante aún, para tomar las decisiones más convenientes en el contexto y naturaleza de los datos. En particular, nos interesa mostrar la importancia de las series de tiempo mediante una predicción del comportamiento en los próximos tres meses de la Balanza Comercial de Mercancías de México, en primer lugar, para apropiarse de un desarrollo teórico que no se tiene en el pensum regular del programa de estudios de la licenciatura en Matemáticas de la Universidad Autonóma de Nayarit y, en segundo lugar, para mostrar a través de un ejercicio práctico utilizando datos reales de la economía mexicana, el potencial predictivo de este tipo de técnicas.



METODOLOGÍA

En primera medida se desarrolló una revisión sistemática de la bibliografía con el fin de generar un base conceptual del tema de series de tiempo y sus componentes. Posteriormente a esto, se establecieron las diferentes técnicas de ajuste y se evaluaron cada una de estas a la base de datos de la Balanza Comercial de Mercancías de México, desarrollando e implementando estos procesos mediante el paquete estadístico R, obteniendo así un modelo predictivo. Finalmente, se hizo el ejercicio de aplicar estas técnicas predictivas al comportamiento a futuro de esta serie de tiempo y corroborar con el comportamiento real de los datos.


CONCLUSIONES

Las series de tiempo son un gran herramienta como apoyo para la toma de decisiones en cualquier ámbito, ya que proporcionan modelos con un alto porcentaje de efectividad mostrando información que no es fácil visualizar. Los paquetes para el analisis de datos en R facilitan en gran medida el cálculo computacional para series de tiempo, haciendo posible un rapido estudio del objeto en cuestión. Se abre la oportunidad para continuar con el tratado de datos, ahora con el objetivo de relacionar las variables y como influye el comportamiento de una o varias variables sobre otras que se pueden analizar desde esta perspectiva.  
Flores Freeman Stefany, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla

CRIPTOGRAFíA Y SEGURIDAD DE LA INFORMACIóN.


CRIPTOGRAFíA Y SEGURIDAD DE LA INFORMACIóN.

Flores Freeman Stefany, Benemérita Universidad Autónoma de Puebla. Fuentes Gallardo Roberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

¿Cómo influye en la mejora, el diseño de un Algoritmo Criptográfico para las redes de Comunicaciones? Las organizaciones han realizado siempre lo imposible por la seguridad, así mismo los desafíos técnicos en redes y telecomunicaciones requieren de herramientas técnicas para dar mayor protección a los datos e información. Debido a que, transmitidas a través de Internet, pasan por muchos computadores a lo largo de su camino, y existe la posibilidad de que alguien pueda estar averiguando y extrayendo información confidencial. La necesidad de establecer y mantener transmisiones seguras usando canales de comunicaciones, ha conseguido que esta tendencia se convierta en algo extremadamente complejo de elaborar que un conjunto de esquemas de cifrados sea no fiable. De hecho, en muchos casos, un esquema de cifrado es solamente un elemento más de criptografía formado por innumerables capas, llevando todos ellos a la función de garantizar la seguridad de la información asociada a ese nivel, uno de los puntos que siempre está en discusión sobre el almacenamiento de la información en computadoras digitales, fue la seguridad de los sistemas computacionales en entidades privadas, gubernamentales y militares, la necesidad de resguardar la información almacenada allí se hace evidente.  Hoy en día, la información se maneja en grandes cantidades y de procedencias muy diversas, el valor añadido de una empresa puede ser la información que maneja. Como capital de la empresa cada vez es más importante mantener la seguridad de los datos e información, pero también los riesgos cada vez son mayores.   



METODOLOGÍA

La metodología utilizada es: La investigación científica de tipo explicativa, descriptiva y evaluativa. En relacion con la investigación científica se identifican las principales técnicas en relación al análisis del algoritmo criptográfico de Vernam. Se utiliza la metodología de programación orientada a objetos para diseñar el modelo de sistema criptográfico de seguridad para las redes de comunicaciones.


CONCLUSIONES

Objetivo General: Modelar el sistema criptográfico de seguridad: Algoritmo de Vernam. El desarrollo de un modelo de sistema criptográfico, pretende analizar cómo puede apoyar un buen modelo a la mejora continua de la seguridad y gestionar la protección de datos y la información en las redes de comunicaciones durante su envío por medios inseguros de la red, de esta manera proteger su fiabilidad minimizando de los riesgos voluntarios.   Objetivo Específico:  Analizar los procesos de seguridad para las redes de comunicaciones.   La realización del presente trabajo de investigación dada la importancia y necesidad de toda organización es la de proteger el valor de la información de los riesgos voluntarios y/o mantener el proceso de mejora en la seguridad de información. Dada la posibilidad de que exista un incremento de vulnerabilidad en él envió de información sobre medios inseguros a consecuencia de procesadores y personas que se encargan de corromper la seguridad de criptografía, ocasionando que no exista confidencialidad en la transferencia de la información. De esta manera que les otorgue una ventaja competitiva frente a las demás organizaciones.
Flores Gonzalez Ana Elizabeth, Universidad Autónoma de Zacatecas
Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

OSCILACIONES DE NEUTRINOS: PROBABILIDAD DE OSCILACIóN DE UN NEUTRINO DEL ELECTRóN A UN NEUTRINO DEL MUON


OSCILACIONES DE NEUTRINOS: PROBABILIDAD DE OSCILACIóN DE UN NEUTRINO DEL ELECTRóN A UN NEUTRINO DEL MUON

Flores Gonzalez Ana Elizabeth, Universidad Autónoma de Zacatecas. Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los neutrinos son partículas fundamentales de tipo fermiónico, sin carga eléctrica y espín ½. Existen tres tipos de neutrinos asociados a cada una de las familias leptónicas (o sabores): neutrino del electrón (ve), neutrino del muón (vµ) y neutrino del tau (vT). Los neutrinos pueden cambiar de sabor en un proceso conocido como oscilación de neutrinos. En este trabajo realizamos un análisis teórico de probabilidad de oscilación ve → vµ, en el contexto del independiente del modelo, viajando en el vacío y materia.   



METODOLOGÍA

Para conocer el contexto de la física de neutrinos se realizó la revisión del estado del arte, enfocado en la teoría de oscilación de neutrinos independiente del modelo. Posteriormente, estudiamos las expresiones teóricas conocidas para las oscilaciones de neutrinos en el vacío y en materia. Además, se interpretaron los resultados experimentales obtenidos por colaboraciones  DUNE, NOvA, T2K, OPERA, ICARUS.  Finalmente, dadas la energía Ev y longitud l de los detectores de cada experimento obtenemos el comportamiento de la probabilidad de oscilación para el cambio de sabor entre un neutrino del electrón a un neutrino del muón.  


CONCLUSIONES

Se estudió la probabilidad de oscilación ve → vµ considerando el contexto de modelo independiente. El cálculo P(ve → vµ) se realizó tanto para vacío como materia. Específicamente, se observa que un mayor ángulo de mezcla origina un cambio más importante en la proporción del otro sabor con respecto al del neutrino inicial (mayor amplitud de la oscilación), mientras que el efecto de una mayor diferencia de masas o de una menor energía de los neutrinos es aumentar la frecuencia del cambio de sabor (menor longitud de la oscilación). Los resultados de la simulación numérica se presentan comparando los diferentes resultados experimentales de DUNE, NOvA, T2K, OPERA, ICARUS.  
Flores Hernández Mario Arturo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima

ESTUDIO DE RELATIVIDAD ESPECIAL Y MECáNICA CUáNTICA


ESTUDIO DE RELATIVIDAD ESPECIAL Y MECáNICA CUáNTICA

Castillo Santillán Adrián, Benemérita Universidad Autónoma de Puebla. Flores Hernández Mario Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Para poder realizar una investigación en Física de Partículas es necesario comprender completamente los conceptos primordiales de la Teoría de la Relatividad Especial y las bases de la Mecánica Cuántica, así como las teoría surgidas a partirde estas que son base de las Teorías Cuánticas de Campos.



METODOLOGÍA

Durante las primeras dos semanas nos encargamos a entender los conceptos básicos de la Relatividad Especial, como lo son los postulados de Einstein, la dilatación temporal, la contracción de Lorentz, la necesidad de utilizar cuadrivectores covariantes para expresar la posición, momento y fuerza de cuerpos viajando cerca de la velocidad de la luz, así como la relación de momento y energía dada por la ecuación de Einstein. Las siguientes semanas estudiamos los principios que dieron origen a la Mecánica Cuántica como la distribución de probabilidad de energía de la Radiación del Cuerpo Negro, el Efecto fotoeléctrico y las líneas espectrales obtenidas debido a los niveles de energía en el átomo. También estudiamos el comportamiento de las partículas como ondas y con esto la difracción de electrones y el estudio de estos "paquetes de onda" como la suma infinita de ondas superpuestas con las series de Fourier, debido al comportamiento ondulatorio de las partículas se deduce el principio de incertidumbre de Heisenberg.


CONCLUSIONES

Con lo aprendido durante estas 6 semanas podemos comprender los principios básicos del comportamiento de la luz y de partículas a escala atómica, con esto podemos dar paso a entender el comportamiento de los electrones en el átomo analizando la ecuación de Schrödinger, la cual surge a partir de la idea de De Brogie y la confirmación empírica con el experimento de Davisson. Asimismo resolvimos una serie de problemas acerca de los temas estudiados para aplicar el conocimiento adquirido.
Flores Padilla Brianda Lucero, Universidad de Guadalajara
Asesor: Dr. Alf Enrique Meling López, Universidad de Sonora

CONSERVACIÓN DE LA FAUNA DE CARRETERAS


CONSERVACIÓN DE LA FAUNA DE CARRETERAS

Flores Padilla Brianda Lucero, Universidad de Guadalajara. Asesor: Dr. Alf Enrique Meling López, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Si bien es cierto, las vialidades nos permiten estar comunicados con diferentes lugares la mayoría de las veces carecen de un diseño armónico con el medio ambiente (Bissonette y Rosa, 2009), ya que, interrumpen el paso natural, crean barreras e incrementan las muertes diarias de animales que se pueden ver gravemente amenazados por atropellamiento, otros efectos son la posible modificación de los genes en las diferentes especies, el ruido y la contaminación. La mortalidad de animales que se presenta por el tráfico vehicular es uno de los principales problemas a los que se enfrenta la ecología de carreteras. Entre los principales afectados por muerte en carretera se encuentran los anfibios, reptiles y mamíferos (Forman, 2003). Por lo que, el estudio de ecología de carreteras enfocado en la conservación consiste en plantear alternativas que disminuyan los efectos negativos de las carreteras sobre los ecosistemas. Tomando en cuenta la importancia y el valor que brinda la subsistencia de especies endémicas. 



METODOLOGÍA

El área de estudio seleccionada fue la carretera Hermosillo-Mina Pilares, ubicada al norte de Hermosillo, Sonora. Algunos aspectos que se tomaron en cuenta al seleccionar la zona de estudio fueron; la constante mortalidad de fauna, la facilidad para acceder, el tránsito vehicular moderado (10-11 vehículos por noche), y la baja densidad de viviendas y asentamientos humanos (Pacheco Hoyos, 2010).  El recorrido en ambos sentidos cuenta con una distancia de 105 km (ida y regreso), 52.5 km en un solo sentido. Por otro lado, se espera que exista menor mortalidad de fauna en carreteras que cuentan con drenajes y puentes que en aquellas que carecen de estos. En la carretera Hermosillo-Guaymas, se contabilizaron 223 drenajes y 27 puentes en un recorrido de 104 km (en un solo sentido). Se realizaron colectas de especímenes (milpiés, tarántulas, alacranes, otros). Los muestreos se llevaron a cabo en la carretera Hermosillo-Mina Pilares semanalmente durante la estancia de verano (27 de mayo al 03 de julio del 2019), sumando un total de 4 visitas. Estos muestreos se realizaron en periodos nocturnos de seis horas (6:30-7:30 a 1:30-2:30). Los transectos se recorrieron a una velocidad de 25-30 km/h utilizando un automóvil y linternas de mano para tener una mayor visibilidad de los animales. Las especies eran colectadas en recipientes de plástico. Durante el muestreo se registraba los animales que pasaban o estaban sobre la carretera en bitácoras, estos se clasificaban en vivos y muertos, y se capturaban algunos animales como arañas, tarántulas, milpiés, alacranes, etc. Además, se realizo un conteo de los automóviles que transitaban por la zona obteniendo que la mayoría eran trailers y camiones de carga que circulaban a alta velocidad por la carretera. Los animales capturados se llevaron al laboratorio para sexarlos, medirlos y analizarlos. Con el fin de obtener información de los especímenes que interactúan en la carretera Hermosillo-Minas Pilares. Después, los datos registrados en las bitácoras se vaciaban en una hoja de excel para obtener una base de datos y así sacar la tasa de mortalidad de fauna en carreteras, asimismo se podía hacer un análisis del tipo de especie que se presentaba más, en qué kilómetros, y la hora. Finalmente se realizo una comparación con datos previos de la misma carretera llevado acabo en años pasados por el investigador y su equipo de trabajo.


CONCLUSIONES

La falta de planeación y medidas de prevención en las carreteras a llevado a incrementar el impacto ambiental, impidiendo el desarrollo sustentable, una de las razones es porque se considera que las acciones preventivas son muy costosas. Si bien la presente investigación se realizó en un periodo corto de tiempo la presencia de diversas especies no fue tan significativa, sin embargo, con los estudios anteriores sobre la misma carretera pudimos notar que en los periodos de mayo, junio y julio el flujo de fauna se reduce debido a condiciones climáticas y otros factores. La mayor presencia se da en los periodos de calores y lluvias (agosto-septiembre). De acuerdo con los muestreos realizados se encontró mayor mortalidad en diferentes especies de roedores, libres y aves. Se presenciaron conejos, gatos montes, tarántulas, alacranes, milpiés, arañas lobo, chotacabras, iguanas, etc.; con esto podemos notar que es una zona diversa aun en periodos bajos de flujo de fauna. Por lo que, en conjunto con los datos de los otros periodos, se puede decir que la carretera Hermosillo-Minas Pilares requiere de una acción inmediata y una opción podría ser la construcción de puentes y drenajes, sin embargo, resulta una si bien es medida de prevención costosa, por lo que se puede optar por otras acciones como el uso de horarios para el tránsito vehicular durante la noche en las zonas de alta actividad animal, otra opción es la realización de planes de manejo como la colocación de letreros y señalamientos para indicar que se debe disminuir la velocidad debido a que existe tránsito de fauna. Durante la estancia de verano se logró adquirir conocimientos prácticos del estudio de la ecología de carreteras, la realización practicas de campo fue fundamental para entender como el flujo vehicular y la intervención humana son factores que causan el impacto negativo sobre zonas con alta actividad de fauna como en la carretera Hermosillo-Mina Pilares. La conservación de fauna en carreteras es un reto debió a que no solo es cuestión de rediseñar la infraestructura o colocar letreros, sino de hacer conciencia e informar a la población sobre el efecto que tiene la perdida de especies nativas. “El hombre no solo subsiste y actúa en su medio, sino que lo moldea y es a su vez moldeado por él” (Benassini, 1984, 63 pag.)  
Flores Perez Marco Antonio, Universidad de Guadalajara
Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara

FLUIDO OSCURO COSMOLóGICO A PARTIR DE UN VACíO GEOMéTRICO PENTADIMENSIONAL


FLUIDO OSCURO COSMOLóGICO A PARTIR DE UN VACíO GEOMéTRICO PENTADIMENSIONAL

Flores Perez Marco Antonio, Universidad de Guadalajara. Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En relatividad general, las ecuaciones de campo de Einsten nos permiten relacionar la geometría del espacio-tiempo con la materia presente en él. En este proyecto, se desea describir materia a partir de un vacío geométrico en 5D, para obtener una ecuación que hable de geometría con geometría y así, describir un fluido oscuro geométricamente.



METODOLOGÍA

A partir de las ecuaciones de Einsten 5D se obtiene el tensor de energía-momento en términos de la quinta dimensión en una hipersuperficie 4D para un universo en expansión, una vez obtenidas las componentes del tensor, se calculan expresiones para la densidad y presión del fluido para poder obtener una ecuación de estado y así calcular el factor de escala para la era de vacío (energía oscura).


CONCLUSIONES

Los resultados obtenidos corresponden a un universo espacialmente plano dominado por una constante cosmológica que está respaldado por las evidencias observacionales.
Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa

SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.


SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.

Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla. Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla. Jiménez Reyes Susana Berenice, Universidad Autónoma de Sinaloa. Ortiz Olivas Jesus Raul, Universidad Autónoma de Sinaloa. Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El método de Monte Carlo (MC) es un método estadístico que usa números aleatorios para aproximar expresiones matemáticas complejas y difíciles de evaluar con exactitud. Este método es muy útil en estudios de sistemas con un gran número de grados de libertad, por ello, se dio el interés de simular un electrolito. Por otra parte, para hacer que las configuraciones del sistema sean representativas del equilibrio se empleó el algoritmo de Metrópolis, cuya finalidad es realizar los desplazamientos de las partes del sistema modelo de manera similar a las partes de un sistema real. El algoritmo cambia la configuración del sistema modelo por otra de acuerdo con la variación de la energía total de éste. De este modo, se acepta o rechaza una configuración con cierta probabilidad dependiendo de la variación de la energía, respecto a la energía total de la configuración anterior.  Un electrolito o solución iónica es cualquier sustancia que contiene en su composición iones libres, que hacen que se comporte como un conductor eléctrico. La importancia en el estudio de estas sustancias recae en aplicaciones dentro de la electroquímica, física médica, fisiología, en bebidas deportivas, salud, etc. Por ello, comprenderlos podría suscitar futuramente un nuevo avance científico o bien, una mayor eficiencia de los mismos en contacto con otros agentes.



METODOLOGÍA

Inicialmente, se definió un sistema modelo, se escogió su configuración inicial a partir de las condiciones descritas; de ese modo, se desarrolló un algoritmo para manipular las partes del modelo de manera que las configuraciones de este, después de cierta cantidad de movimientos (termalización) sean similares a las condiciones de equilibrio del sistema real. Además, cabe mencionar que las simulaciones MC son atemporales y por otra parte, cada configuración del sistema es influida por la configuración anterior. Una vez termalizado el sistema, se procedió a almacenar la estadística de las distintas magnitudes físicas que nos interesó medir. Para el caso del modelo del electrolito, fueron la cantidad de cargas positivas y negativas, iteraciones, pasos, temperatura, concentración, actualización, distancias de desplazamiento, permitividad dieléctrica relativa del agua, diámetro de las partículas y densidad de carga. Todo lo mencionado anteriormente se almacenó en un archivo de salida, el cual era posible modificarlo posteriormente para electrolitos con sales 1:1, 2:1 y 3:1. Por otra parte, para cumplir la hipótesis ergódica, la cual dice que es necesario que cualquier punto accesible en el espacio de configuraciones del sistema pueda ser alcanzado en un número finito de pasos de simulación desde cualquier otro punto, se tuvo especial cuidado en que las configuraciones de los iones que se utilizaron para realizar cálculos fueran suficientes y representativas de un sistema en equilibrio. A continuación, se recabó toda la estadística para después calcular sus promedios. Se empleó entonces el algoritmo de Metrópolis, que como se ha mencionado, si la energía de la nueva configuración es menor a la de la anterior tiene mayor probabilidad de ser aceptada, mientras que si esta es mayor muy probablemente será rechazada, en analogía a un sistema real. Efectuado ello, se procedió a realizar correcciones al modelo, es decir, si se tratan esferas rígidas o no, la pared cargada con la que interaccionaron las partículas, el confinamiento de las mismas, la ecuación de la energía de interacción total entre los iones, la dirección en la distancia x, la ecuación de la interacción de los iones con la pared cargada ubicada en el plano "x, y" y el efecto de la Doble Capa Eléctrica (DCE). Finalmente, se visualizó el comportamiento del sistema en el programa GeoGebra y se realizó el análisis estadístico en el programa Origin.


CONCLUSIONES

Generados los archivos de salida, se visualizaron los resultados en GeoGebra, facilitando el estudio de la distribución de los iones en el electrolito. Del mismo modo, para una mayor comprensión y un análisis detallado de su comportamiento, se revisaron los datos de la simulación en Origin. Se aplicó la simulación para sales con una densidad superficial de carga de -24 µC/cm2 , -12 µC/cm2, y -4 µC/cm2, en presencia de una sal simétrica 1:1, con iones de 0.72 nm  de diámetro a una concentración salina 100 mM y 1M para cada una de ls densidades mencionadas.  También se obtuvieron los perfiles de concentración iónica para un sistema de un plano cargado con las mismas densidades superficiales de carga en presencia de sales simétricas 2:1 y 3:1, con iones de 0.84 nm de diámetro a una concentración salina 333 mM y 0.96 nm a 167mM, respectivamente. En general, se observó que el achatamiento de las curvas depende de la densidad superficial de carga, es decir, si esta es más negativa, será más angosta; la elevación de la curva en los perfiles se debe al efecto de la Doble Capa Eléctrica (DCE) y tiende a ser asintótica debido a que intenta alcanzar el equilibrio en el seno de la solución.
Free Toledo Alexia, Universidad Autónoma de Occidente
Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán

EVALUACIÓN DE UN SISTEMA DE TRATAMIENTOS DE AGUA RESIDUAL CON COLORANTES TEXTILES


EVALUACIÓN DE UN SISTEMA DE TRATAMIENTOS DE AGUA RESIDUAL CON COLORANTES TEXTILES

Free Toledo Alexia, Universidad Autónoma de Occidente. Jimenez Ruvalcaba Ana Maria, Universidad Autónoma de Occidente. Loera Valenzuela Helmut Osvaldo, Universidad Autónoma de Occidente. Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán



PLANTEAMIENTO DEL PROBLEMA

Industria textil es el nombre que se da al sector de la economía dedicado a la producción de ropa, tela, hilo, fibra y productos relacionados. En las estadísticas económicas se suele incluir la industria del calzado como parte de la industria textil. Es un término genérico para toda sustancia química capaz de producir toda gama de tinte para dar color a productos de la industria textil, cosmética y alimentaria. El azul de metileno, cuyo nombre científico es cloruro de metiltionina, es un colorante orgánico que se usa para tratar una enfermedad llamada metahemoglobinemia. El tratamiento de aguas residuales consiste en una serie de procesos físicos, químicos y biológicos que tienen como fin eliminar los contaminantes físicos, químicos y biológicos presentes en el agua efluente del uso humano. El objetivo del tratamiento es producir agua limpia (o efluente tratado) o reutilizable en el ambiente y un residuo sólido o fango (también llamado biosólido o lodo) convenientes para la disposición o rehúso. Es muy común llamarlo depuración de aguas residuales para distinguirlo del tratamiento de aguas potables.



METODOLOGÍA

La caracterización del agua residual por el colorante azul básico 9 se llevó a cabo en el Laboratorio de Posgrado e Investigación en Ciencias Ambientales y en el Laboratorio de Cromatografía y Espectrometría pertenecientes al Instituto y equipadas adecuadamente para realizar las pruebas necesarias en cuanto a las determinaciones fundamentales de la investigación. La caracterización de agua residual se llevó a cabo mediante parámetros químicos de la calidad del agua, se analizaron mediante el parámetro de la Demanda Química de Oxigeno (DQO), debido a que la finalidad de la investigación es remover contaminantes como materia orgánica y nutrientes. Para la remoción de nuestro contaminante, en este caso el colorante azul básico 9, primero se usó un pre-tratamiento. El pre-tratamiento que fue seleccionado para la remoción de cierta cantidad de contaminantes fue la filtración. Las muestras fueron pre-tratadas a través de un filtro tubular. En su interior se encuentran 3 materiales filtrantes, seleccionados por la alta capacidad de retención de contaminantes como lo son sólidos y algunos microorganismos. El diseño del reactor se realizó a base de las características del agua residual analizada y de la eficiencia de los materiales elegidos. Los tres materiales seleccionados son: antracita, zeolita y carbón activado.


CONCLUSIONES

Con base a los resultados obtenidos, puedo expresar que la remoción del colorante Azul Básico 9 es más eficiente cuando se le aplica un pre-tratamiento con un porcentaje de remoción al 83.26% después de 3 filtraciones, a comparación de solo analizar el agua residual pura con el contaminante. Para que esta formulación pueda ser destruida necesita implementarse distintas técnicas de tratamiento para poder eliminar por completo el colorante de un agua residual. Con esta investigación pude entender y realizar distintas técnicas de descontaminación de un agua residual contaminada por colorantes, y el entender que una sola técnica no es suficiente para la remoción, en su mayoría, y que el usar pre-tratamientos puede ser bastante económico y sencillo si sabemos analizar y buscar opciones que puedan darnos un mejor resultado.
Frias Osorio Luis Emiliano, Instituto Politécnico Nacional
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

DOSIMETRíA EN PACIENTES


DOSIMETRíA EN PACIENTES

Frias Osorio Luis Emiliano, Instituto Politécnico Nacional. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Este reporte se origina a partir de la estancia que tuve en el Centro de Investigación de Ciencia Aplicada y  Tecnología Avanzada del Instituto Politécnico Nacional, en la Ciudad de México, Gracias a la convocatoria del verano de investigación del programa delfín. Los Rayos-X en la medicina han aumentado su uso, para diagnosticar problemas internos de los pacientes, ya que se vuelve visible para el medico los problemas internos del paciente y más fácil detectarlo si se hace correctamente la fluoroscopia, donde los pacientes tienen probabilidad de presentar en un futuro un efecto contra producentes a su salud, como puede ser inmediato como es tener frio, cansancio, vomito, o a largo plazo tener cáncer. Los rayos-X no son visibles a simple vista ya que su frecuencia es muy alta para el ser humano; Estos atraviesan cuerpos opacos. Se dispersan en forma de ondas las cuales tienen una longitud de onda entre 0,1-10 nanómetros (nm), con frecuencias de 30 a 3 000 pico Hertz. La gravedad de la lesión depende de la dosis absorbida, la sensibilidad del tejido frente a la radiación y al tipo de radiación. La Organización Mundial de la Salud (OMS) se ha planteado: "La radiología diagnóstica es la causa más importante de exposición humana a fuentes artificiales, también sabemos que el grado de seguridad alcanzado hasta hoy es muy elevado minimizando el riesgo inevitable del paciente y compensándolo con los beneficios de los mismos". Objetivo General Evaluar las dosis de los pacientes para dar a conocer a los médicos que deben tener precaución con la radiación dada a los pacientes. Especifico Medir las dosis que absorben los pacientes.



METODOLOGÍA

El Doctor Teodoro Rivera Montalvo nos impartió clases sobre la dosimetría y sobre cómo utilizar el equipo. Se calibraron los dosímetros en el hospital militar. Se seleccionaron los que estuvieron dentro de 1 desviación estándar Se acomodaron los dosímetros en los pacientes. Se realizaron 2 visitas el 4 y 15 julio, a la sala de cardiología del hospital Juárez en CDMX, para colocar los TLD100 previamente acomodados en una hoja de 15cm por 15cm de papel adhesivo transparente, a los pacientes de diagnóstico y cirugía en los que los médicos especialistas ocupan los rayos-x para el procedimiento. Se leyó los dosímetros TLD100 con termoluminiscencia en el Laboratorio de CICATA Legaría para saber cuánta radiación absorbió cada paciente, en el equipo Thermo scientific Harshaw TLD 3500. Equipo para leer la radiación absorbida por los pacientes, ya que la radiación fue absorbida  en los TLD100. Se analizaron, se hizo un reporte con gráficas y se concluyó. ​


CONCLUSIONES

Las dosis que obtuvieron los pacientes son pequeñas para presentar síntomas visibles, el paciente 3 tuvo la mayor dosis absorbida con 119 mGy, las mediciones de radiación nos ayudan a tener un parámetro para saber cuál serán sus síntomas secundarios, si el medico está aprendiendo el procedimiento para diagnosticar es mucho más lento y se radia más al paciente, ya que cuando lo realiza un especialista con experiencia como es el Doctor Uruchurto se utiliza menor dosis. Sugiero que sigan preocupando para la mejora de la realización del procedimiento y aprendizaje de la utilización de los rayos, para para que se eficiente las dosis dadas al paciente. Se puede observar en los resultados que a mayor peso mayor dosis, también la dosis aumenta, por lo tanto el paciente absorbe más dosis, ya que se le aplica más dosis para poder obtener una imagen, cuando hay más disparos por ejemplo en el paciente 5 obtuvo 93 disparos. La mayor dosis en el primer paciente es en el centro de la espalada, en el segundo paciente en el centro y abajo izquierdo, en el tercer paciente se radio más la parte derecha del paciente, el cuarto paciente se radio más en la parte derecha abajo, el quinto paciente fue mayormente radiado en la parte derecha arriba. ​  
Fuentes Gallardo Roberto, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla

CRIPTOGRAFíA Y SEGURIDAD DE LA INFORMACIóN.


CRIPTOGRAFíA Y SEGURIDAD DE LA INFORMACIóN.

Flores Freeman Stefany, Benemérita Universidad Autónoma de Puebla. Fuentes Gallardo Roberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

¿Cómo influye en la mejora, el diseño de un Algoritmo Criptográfico para las redes de Comunicaciones? Las organizaciones han realizado siempre lo imposible por la seguridad, así mismo los desafíos técnicos en redes y telecomunicaciones requieren de herramientas técnicas para dar mayor protección a los datos e información. Debido a que, transmitidas a través de Internet, pasan por muchos computadores a lo largo de su camino, y existe la posibilidad de que alguien pueda estar averiguando y extrayendo información confidencial. La necesidad de establecer y mantener transmisiones seguras usando canales de comunicaciones, ha conseguido que esta tendencia se convierta en algo extremadamente complejo de elaborar que un conjunto de esquemas de cifrados sea no fiable. De hecho, en muchos casos, un esquema de cifrado es solamente un elemento más de criptografía formado por innumerables capas, llevando todos ellos a la función de garantizar la seguridad de la información asociada a ese nivel, uno de los puntos que siempre está en discusión sobre el almacenamiento de la información en computadoras digitales, fue la seguridad de los sistemas computacionales en entidades privadas, gubernamentales y militares, la necesidad de resguardar la información almacenada allí se hace evidente.  Hoy en día, la información se maneja en grandes cantidades y de procedencias muy diversas, el valor añadido de una empresa puede ser la información que maneja. Como capital de la empresa cada vez es más importante mantener la seguridad de los datos e información, pero también los riesgos cada vez son mayores.   



METODOLOGÍA

La metodología utilizada es: La investigación científica de tipo explicativa, descriptiva y evaluativa. En relacion con la investigación científica se identifican las principales técnicas en relación al análisis del algoritmo criptográfico de Vernam. Se utiliza la metodología de programación orientada a objetos para diseñar el modelo de sistema criptográfico de seguridad para las redes de comunicaciones.


CONCLUSIONES

Objetivo General: Modelar el sistema criptográfico de seguridad: Algoritmo de Vernam. El desarrollo de un modelo de sistema criptográfico, pretende analizar cómo puede apoyar un buen modelo a la mejora continua de la seguridad y gestionar la protección de datos y la información en las redes de comunicaciones durante su envío por medios inseguros de la red, de esta manera proteger su fiabilidad minimizando de los riesgos voluntarios.   Objetivo Específico:  Analizar los procesos de seguridad para las redes de comunicaciones.   La realización del presente trabajo de investigación dada la importancia y necesidad de toda organización es la de proteger el valor de la información de los riesgos voluntarios y/o mantener el proceso de mejora en la seguridad de información. Dada la posibilidad de que exista un incremento de vulnerabilidad en él envió de información sobre medios inseguros a consecuencia de procesadores y personas que se encargan de corromper la seguridad de criptografía, ocasionando que no exista confidencialidad en la transferencia de la información. De esta manera que les otorgue una ventaja competitiva frente a las demás organizaciones.
Fuentes Mirón Victor Manuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alfonso Hernández Sámano, Universidad de Guadalajara

TERAPIAS CONTRA EL CáNCER POR HIPERTERMIA MAGNéTICA


TERAPIAS CONTRA EL CáNCER POR HIPERTERMIA MAGNéTICA

Fuentes Mirón Victor Manuel, Benemérita Universidad Autónoma de Puebla. Rodríguez Pérez René Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfonso Hernández Sámano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El ciclo de vida de una célula ordinaria se resume en: crecimiento, reproducción y muerte. Las células se reproducen cuando es necesario, es decir, cuando otras se dañan o envejecen; sin embargo, en el cáncer estos procesos ocurren distinto. Las células dañadas o viejas no mueren mientras que otras siguen formándose, las células cancerígenas pueden reproducirse ininterrumpidamente hasta formar masas llamadas tumores. Esta enfermedad es la principal causa de muerte a nivel mundial, tan sólo en 2015 provocó alrededor de 8.8 millones de muertes (Organización Mundial de la Salud [OMS], 2017). Para tratarlo se han desarrollado técnicas principalmente radiológicas con el fin de dañar el ADN de las células cancerígenas e inducirlas a la apoptosis, no obstante, estos tratamientos no sólo afectan a las células enfermas si no también a las sanas por lo que se han buscado alternativas de tratamiento para evitar el daño colateral. La hipertermia magnética es un tratamiento no ionizante que consiste en administrar una suspensión de nano partículas superparamagnéticas con recubrimiento bio compatible directamente dentro el tumor. Una vez que las nano partículas entran a las células por endocitosis o se adhieren a la membrana celular externa, se aplica sobre el tumor un campo magnético alternante que interacciona con las nano partículas magnéticas (MNPs por sus siglas en inglés) y estas a su vez aumentan su temperatura hasta alcanzar los 45°C (Temperatura a la cual las proteínas de la membrana celular se desnaturalizan provocando apoptosis). Sin embargo, para que todo lo anterior sea posible es necesario que las MNPs pasen por todo un proceso de caracterización para así asegurar que pueden ser útiles para hacer pruebas con células humanas por lo que durante el verano de investigación se realizó parte de las pruebas de caracterización de un ferro fluido de nano partículas sintetizadas en el Centro Universitario de Ciencias Exactas e Ingenierías (CUCEI) de la Universidad de Guadalajara.



METODOLOGÍA

El ferro fluido a caracterizar es una suspensión de nanopartículas de Magnetita (Fe3O4) con un diámetro de 25 nm., recubiertas de ácido fólico para lograr biocompatibilidad con las células. Para la caracterización fue necesario calcular la tasa de absorción específica (SAR por sus siglas en inglés) de las MNPs, y para esto fue necesario un experimento en el cual se obtuvieron sus curvas de calentamiento. En este experimento se utilizó un sistema de hipertermia magnética de frecuencia variable, que consiste en un inversor de corriente de frecuencia variable y una bobina a la cual, al aplicarle una corriente con una fuente de voltaje, genera un campo magnético alternante. En el centro de la bobina colocamos el ferro fluido y con un termómetro de fibra óptica se mide la temperatura dentro de la muestra. Para comenzar a medir, debemos esperar a que el fluido llegue a su temperatura de equilibrio con el medio. En un programa hecho en Labview podemos verificar este proceso por medio de una gráfica de temperatura vs. tiempo. Una vez que la muestra alcance el equilibrio termodinámico, se enciende la fuente de voltaje, la corriente comienza a viajar por la bobina, generando un campo magnético. Las nanopartículas por sus características superparamagnéticas toman la energía dada por el campo y la transforman en calor. Cada medición de la temperatura se realizó durante 500 segundos por cada muestra, los primeros cien segundos transcurrían en ausencia de campo magnetico para obtener la temperatura inicial, al segundo 100 se enciende el campo para continuar por 300 segundos de calentamiento y en últimos 100 segundos se retiraba el campo. Se repitió este procedimiento para 5 campos magnéticos diferentes, 100, 150, 200, 250 y 300 Oe para poder obtener una grafica que muestre como varía la SAR con respecto al campo magnético y observar si cumple con la relación predicha por la teoría, la cual nos indica que ambas deberían estar relacionadas por el cuadrado del campo magnético. Al graficar y analizar los datos obtenidos en el programa OriginPro, se buscó la pendiente, que nos daba el valor del cambio en la temperatura respecto al tiempo usando cada campo, y de esta forma calcular la SAR de las nanopartículas.


CONCLUSIONES

Durante la etapa de revisión bibliográfica adquirimos el conocimiento necesario para comprender los procesos por los cuales atraviesan las MNPs para lograr transformar la energía magnética en térmica, sin embargo, durante el análisis de las curvas de calentamiento del ferro fluido pudimos observar comportamientos que diferían excesivamente de lo predicho por la teoría que describe la relación entre el campo magnético aplicado y el calor generado. Para discernir entre los factores determinantes de este comportamiento, es necesario llevar a cabo otra serie de experimentos para analizar las curvas de histeresis dinámica y de magnetización. Por otro lado, el error sistemático en las curvas de calentamiento sugiere que nuestra metodología experimental no era la correcta para controlar las variables del experimento.
Galicia Palencia Sandra Yael, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mtro. Juan Francisco Carranco Lozada, Instituto Politécnico Nacional

EVALUACIóN HIDROGEOQUíMICA EN LA COSTA DEL ÁREA NATURAL PROTEGIDA YUM BALAM EN LA ALCALDíA DE HOLBOX, PARA DIAGNOSTICAR LOS IMPACTOS AMBIENTALES POR CONTAMINACIóN ANTRóPICA


EVALUACIóN HIDROGEOQUíMICA EN LA COSTA DEL ÁREA NATURAL PROTEGIDA YUM BALAM EN LA ALCALDíA DE HOLBOX, PARA DIAGNOSTICAR LOS IMPACTOS AMBIENTALES POR CONTAMINACIóN ANTRóPICA

Galicia Palencia Sandra Yael, Consejo Quintanarroense de Ciencia y Tecnología. Pérez Lozada Sofía, Instituto Politécnico Nacional. Asesor: Mtro. Juan Francisco Carranco Lozada, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las principales actividades económicas en la isla de Holbox son el turismo, agricultura, ganadería y la pesca, entre otros. Por esta razón, la presencia de contaminación afectaría directamente las actividades del lugar, la salud humana y la alteración a largo plazo de la calidad del agua de las costas del ANP Yum Balam. En México, el turismo es el tercer generador de divisas del país; de acuerdo con la Cuenta Satélite del Turismo de México de 2004, aporta 7.8% del producto interno bruto (PIB) del total nacional. ( Magaña,2018.). Debido a la afluencia de visitantes y pobladores a la Isla de Holbox y su importancia económica a nivel nacional, es necesario realizar evaluaciones de la calidad del agua. La utilidad de esta investigación radica en identificar contaminantes presentes en la isla de Holbox a fin de demostrar la polución antropogénica, mediante el análisis hidrogeológico de la región, así como comparar las concentraciones de dichos residuos con la norma oficial mexicana NOM-001-SEMARNAT-1996 que establece los límites máximos permisibles de contaminantes en las descargas de aguas residuales y bienes nacionales. 



METODOLOGÍA

La metodología de trabajo consistió en la recopilación bibliográfica del área de estudio y análisis de la estratigrafía, topografía y geología de la Isla Holbox. El lugar de estudio se encuentra en el extremo norte del estado de Quintana Roo, en  las coordenadas 21° 31’ Latitud Norte y 87°23’ Longitud Oeste, perteneciente al municipio de Lázaro Cárdenas. Tiene una extensión de 40 km de largo y 2 km de ancho y unos 34 km de playa hacia el norte. El área de interés se ubica en la zona 16 de acuerdo con las coordenadas UTM, con las que se trabajaron en los diferentes programas. Para la investigación se estudiaron datos relativos de la zona acerca de su geología,que servirán para entender el posible movimiento de contaminantes a través de la realización de un muestreo para el análisis de la calidad de agua de las costas de la isla. A través del programa  ArcMap, se generó el recorte de la topografía de la zona de Isla de Holbox  en el cual puede visualizarse un mayor detalle en elevaciones y que se empleó como referencia para la comparación de la geología del lugar. La CARTA GEOLÓGICO-MINERA CANCÚN F16-8, indicó la geología predominante en cada parte de la Isla de Holbox, en el que encontramos Suelo Palustre y Litoral. La formación  acuífera está formada por depósitos de arenas con gravas y limos y se encuentra confinada por depósitos arcillas limosas. En condiciones naturales el acuífero se comporta prácticamente como un acuífero libre puesto que el nivel  freático se sitúa muy próximo al techo de las arenas.( Molinero,J. 2005) Por medio del programa ArcMap, se adaptaron ambos gráficos en coordenadas UTM y de esta manera se pudo obtener más precisión en la caracterización del lugar. A partir de ello se creó el mapa de la geología del lugar, incluyendo su georeferencia a través de la topografía. El mapa creado fue utilizado en el programa Surfer para generar los vectores que servirán  para referenciar los cortes de la geología de la zona. Se definieron dos cortes, el corte longitudinal A’ -A’1 que atraviesa la mayor parte del ANP Yum Balam y el corte transversal B- B’1 que corresponde a  la punta de la Isla de Holbox, donde se encuentra la zona urbana y parte de la Península de Yucatán. Teniendo en cuenta los vectores generados, se utilizaron la longitud del vector y la elevación de cada punto de intersección con la geología del lugar para caracterizar el tipo de suelo predominante,todo ello con ayuda del programa Grapher. En el corte longitudinal A’ - A’1, inicia en la punta de la Isla de Holbox, de la longitud  0-1,500 pertenece al inicio de la alcaldía de Isla de Holbox, mientras que de los 9,000-10,500 m a la zona más cercana a la reserva Yum Balam. Este corte atraviesa la mayor parte de la isla, indicándonos que  aproximadamente en la parte media de la isla y la más cercana a la Reserva Yum Balam, encontramos depósitos de Litoral, que en su mayoría está compuesta por arena blanca. Mientras que en el inicio de la isla, podemos encontrar mayor suelo palustre. De la misma forma con el corte transversal B’-B’1, siendo la elevación máxima 6 metros, se observa suelo palustre en  gran parte de la costa, de composición de limo y arcilla, mezclado con materia orgánica. Al final del corte se puede distinguir el inicio de la piedra caliza, que es el tipo de suelo que caracteriza a la Península de Yucatán y que comprende a un tipo de rocas carbonatadas. A través del muestreo se espera caracterizar el tipo de agua conforme el Diagrama de Pipper, diagramas triangulares que se utilizan para representar la proporción de tres componentes en la composición de un conjunto o de una sustancia. La suma de los tres componentes debe representar el 100% de la composición de lo que se considera. Con ello, se espera llegar a una caracterización adecuada del lugar, así como demostrar el estado de la calidad del agua en el momento de las costas del Área Natural Protegida Yum Balam.


CONCLUSIONES

La estancia de investigación del Programa Delfín permitió la adquisición de nuevos conocimientos teóricos sobre la interacción del agua con los diferentes tipos de suelo y roca presentes en la Isla Holbox, así como su correlación con la contaminación. De igual forma, el conocimiento en campo que adquirimos acerca de la interacción hidrogeoquímica y la adaptación de vegetación y fauna, nos hace comprender la importancia del estudio del suelo, las actividades que se llevan a cabo en ellas y el aprovechamiento que puede darse a partir de sus características. Finalmente, la investigación busca obtener un diagnóstico fidedigno de las concentraciones de contaminantes antropogénicos.
Gallardo Delgado Aldair, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Francy Nelly Jiménez García, Universidad Autónoma de Manizales (Colombia)

CARACTERIZACIóN DE PANELES SOLARES FOTOVOLTAICOS POLICRISTALINOS EN LA CIUDAD DE MANIZALES: INCIDENCIA EN EL áNGULO DE INCLINACIóN.


CARACTERIZACIóN DE PANELES SOLARES FOTOVOLTAICOS POLICRISTALINOS EN LA CIUDAD DE MANIZALES: INCIDENCIA EN EL áNGULO DE INCLINACIóN.

Gallardo Delgado Aldair, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Francy Nelly Jiménez García, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La energía solar fotovoltaica es producida gracias al efecto fotoeléctrico, el cual se da por  la excitación de electrones que pasan de un nivel a otros debido a la incidencia de la luz solar. El objetivo de este proyecto es determinar la incidencia del ángulo de inclinación de un panel solar policristalino, sobre su eficiencia en condiciones de radiación y temperatura de la ciudad de Manizales, Colombia.



METODOLOGÍA

Se obtuvieron las curvas corriente-voltaje para diferentes radiaciones y ángulos de inclinación que permitieron encontrar los parámetros necesarios para calcular la eficiencia del  panel,  las cuales se modelaron a partir de una ecuación de un diodo simple


CONCLUSIONES

Se encontró que este panel funciona adecuadamente a radiaciones bajas de 300W/m2, que los voltajes arrojados no son mayores a los 22 V; que presenta mayor eficiencia a ángulos bajos (menores a 40º), y que su eficiencia esta alrededor de un 20%, bajo las condiciones del sitio de trabajo.
Gallegos Villar Luis Daniel, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa

MONITOREO DE OBRAS CIVILES CON SISTEMA GNSS


MONITOREO DE OBRAS CIVILES CON SISTEMA GNSS

Gallegos Villar Luis Daniel, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En esta investigación se demuestra una de las diferentes aplicaciones de los Sistemas Globales de Navegación por Satélite (GNSS, por sus siglas en ingles), siendo una aplicación que inició a finales de la década de los 90´s: el monitoreo de estructuras civiles. El método de posicionamiento que se ha venido utilizando para el monitoreo de estructuras es el GNSS diferencial (DD-GNSS). Donde este método consiste en tener una estación de referencia (con coordenadas conocidas) y una estación móvil a la que se le desea dar coordenadas, pero este método es costoso ya que se requiere por lo menos dos receptores GNSS. Una alternativa al método de GNSS diferencial y en cual se analiza en este trabajo, es el método de Posicionamiento, Puntual Preciso (PPP). El PPP requiere de diferentes productos para garantizar un posicionamiento confiable, donde estos pueden ser: correcciones a las orbitas satelitales y relojes, modelos troposféricos, modelos ionosféricos o combinaciones lineales, parámetros de las antenas, entre otros. Se analizaron dos tipos de desplazamientos derivados de la técnica PPP: estáticos y dinámicos con diferentes mascaras de elevación (7.5° y 15°) y productos de orbitas (de navegación y efemérides precisas).



METODOLOGÍA

El método PPP-GNSS requiere de solo un receptor para calcular la posición con exactitud. Este método requiere las correcciones a los relojes del satélite y receptor, orbitas precisas, modelado troposférico, etc. para alcanzar una buena precisión. PPP es una técnica bien vista para determinar desplazamientos con precisión milimétrica. Para este trabajo se utilizaron dos métodos para su procesamiento de posicionamientos puntual preciso utilizamos los todos dinámicos con archivos de navegación y observación, además para los estáticos utilizamos archivos de observación y efemérides precisas, ambos con máscaras de elevaciones de 7.5° y 15°.


CONCLUSIONES

Después de haber obtenido los resultados de la práctica podemos concluir que el método de Posicionamiento Puntual Preciso (PPP) es uno de los nuevos métodos para la aplicación acerca de la salud de las obras civiles tales como puentes, carreteras, edificios, etc. Los datos dados en esta investigación se pueden utilizar para inspección, rehabilitación y mantenimientos a cada obra civil que se le aplique este método, así como planificación y construcción de un proyecto.
García Álvarez José Alfredo, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

USO DE FIBRAS NATURALES DE OCOXAL COMO REFUERZO EN CONCRETO HIDRáULICO.


USO DE FIBRAS NATURALES DE OCOXAL COMO REFUERZO EN CONCRETO HIDRáULICO.

García Álvarez José Alfredo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Velazquez Vega Joel Calep, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

A partir de que las fibras de asbesto fueron relacionadas con potenciales peligros para la salud se inició la búsqueda de posibles sustitutos que le proporcionaran al concreto las propiedades tan favorables que el asbesto le daba, además de ser competitivos en calidad y precio. Las fibras de acero, de vidrio y más recientemente las de polipropileno, son alternativas viables para reforzar al concreto. Sin embargo, otro grupo de fibras llamadas naturales o vegetales han sido motivo de varios estudios para su posible aplicación como refuerzo del concreto. Materiales reforzados con fibras naturales se pueden obtener a un bajo costo usando la mano de obra disponible en la localidad y las técnicas adecuadas  para  su obtención. Estas  fibras son llamadas típicamente fibras naturales no procesadas. Sin embargo, las fibras naturales pueden ser procesadas químicamente para mejorar sus propiedades. Estas fibras son generalmente derivadas de la madera. Estos procesos son altamente industrializados y no se dispone en los países en desarrollo. A tales fibras se les conoce como fibras naturales procesadas.



METODOLOGÍA

La metodología llevada a cabo por este trabajo consistió en la elaboración de una mezcla de concreto con una agregado de ocoxal de porcentaje variado con relación a los agregados de cemento, grava y arena, considerando la longitud de la fibra y el porcentaje de adición de la fibra como variables. Con respecto al tratamiento de la fibra de ocoxal, se tomó como un aislante de humedad la rebaba de nopal, exprimiendo el nopal, sumergiendo el ocoxal justo antes de realizar la mezcla con los demás agregados. En las dosificaciones de cada cilindro fueron 29.16% de arena, 41,66% de grava, 12.4% de agua y 16.66% de cemento con respecto a un bote, y 10% de fibra de ocoxal en el primero, 15% en el segundo y 20% de fibra en el tercer cilindro.  Se hicieron especímenes para pruebas a comprensión, al ensayarlos se observó que la mezclas que contenían mayor cantidad de ocoxal resistan mas en fracturarse completamente.


CONCLUSIONES

Con base en las pruebas realizadas a los tres cilindros de concreto, con agregado de ocoxal se obtuvo lo siguiente: Cilindro 1: 1793.7 kgf=101.5 kgf/cm2 Cilindro 2: 24816.5 kgf=140.4 kgf/cm2 Cilindro 3: 26601.734 kgf=150.5 kgf/cm2 Tras la obtención de los resultados mostrados anteriormente, podemos observar que no se tiene un resultado muy favorable, ya que la dosificación se realizó con una resistencia a obtener de 250 kg/cm2, sin embargo se realizó un análisis de los resultados y se obtuvo que las fuerza no es trasmitida directamente ya que las fibras de ocoxal las desplazan con forme estén ubicadas en el cilindro.
García Bon Miguel Ángel, Universidad de Guadalajara
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))


SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))

García Bon Miguel Ángel, Universidad de Guadalajara. Pérez Salvador Cinthya Paola, Tecnológico de Estudios Superiores de Tianguistenco. Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México. Sánchez Duarte Soraida, Universidad Estatal de Sonora. Schmerbitz Valdés David, Universidad de Guadalajara. Talamantes Herrera Ana Bertha, Universidad de Guadalajara. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cromo es un elemento metálico inodoro e insípido que forma parte de la corteza terrestre. También se encuentra en grandes cantidades en el aire, el agua, la tierra y los alimentos. Los compuestos de cromo hexavalente son un grupo de sustancias químicas que tiene propiedades beneficiosas, como resistencia a la corrosión, durabilidad y dureza. Estos compuestos se han usado en amplia medida como anticorrosivos y para fabricación de pigmentos, acabado de metales y cromados, producción de acero inoxidable, curtido de cueros y conservantes para madera. También se han usado en procesos de teñido en la industria textil, tintas de impresión, lodos de perforación, fuegos artificiales y síntesis de sustancias químicas. Los desechos, a su vez, son vertidos en cuerpos de agua, muchas veces los mismos sin un tratamiento adecuado para su liberación. El cromo es un contaminante ambiental de fácil dispersión y de gran importancia debido a su toxicidad. El cromo hexavalente está clasificado en el grupo 1 de cancerígenos con múltiples mecanismos complejos por los cuales la enfermedad puede ser desarrollada en diferentes zonas del cuerpo. En este verano de investigación se plantea la implementación de los HDLs como absorbentes de este contaminante, experimentando con variaciones en la síntesis de estos; añadiendo estructuras diversas y/o modificando las proporciones utilizadas en su reacción.



METODOLOGÍA

Se comenzó inicialmente con la síntesis de los HDLs. El primer día se procedía a hacer los cálculos prudentes para el pesado de las muestras para obtener al final HDLs con una masa aproximada de 5 g, para esto se utilizaron  y  en una proporción molar que variaba de muestra en muestra pero siempre manteniéndose en el rango de 1:2 - 1:3, siendo el compuesto de zinc el que siempre existía en mayor proporción. Si se daba el caso en el que se requiriera adicionarle además una estructura distinta para evaluar después su repercusión en la adsorción, se procedía a pesar también una cantidad significativa del reactivo, añadiendo también las sustancias necesarias para su buena dispersión; por ejemplo, en el caso de las nanofibras de carbono, se requería funcionalizarlas primero o adicionarle   algún surfactante (SDS), además de unas horas en sonicación. Todo era mezclado en agitación, una vez el reactivo anterior se percibía completamente disuelto, se agregaba el siguiente. Esto en un volumen de agua destilada no mayor a 300 mL. Una vez se alcanzaba la homogeneidad se procedía a adicionarle , el mismo era gradualmente añadido con ayuda de una probeta, como si de una titulación se tratase. El pH de la mezcla era monitorizado con ayuda de un potenciómetro, se buscaba idealmente obtener un pH final de 9, conseguido esto se dejaba en agitación constante por un periodo aproximado de 24 h. Para el segundo día, el objetivo cambiaba a, mediante lavados en centrifugación (10,000 rpm, por 5 min), disminuir el pH de la muestra hasta neutralizarlo. A su vez, el número de lavados variaba de muestra en muestra, algunos requiriendo simplemente 3 y otros más de 6. La manera en la que se realizaban era mediante la adición de agua destilada a los tubos de centrifugación conteniendo el volumen de la muestra y el posterior desecho del sobrenadante para la repetición del proceso. Una vez el objetivo era conseguido, los HDLs limpios y húmedos eran depositados en capsulas de porcelana para someterlos a un proceso de secado en una estufa, esto también durante aproximadamente 24 h. En el tercer día de la síntesis se retiraba del secado y se procedía a moler en un fino polvo con ayuda de un mortero. Para finalmente guardar en bolsitas de plástico. Realizando este procedimiento, y haciendo más de una muestra por día, se lograron obtener más de 20, las mismas siendo casi todas distintas. Para los análisis de adsorción se utilizó la técnica de la espectrofotometría Uv-visible, previamente se habían dejado individualmente en tubos por dos días cada una de las muestras (50 mg), cada tubo tenía un volumen de 20 mL de una disolución aproximada de 300 ppm de . Esto en un estado constante de agitación. Se retiraron, y se dejaron reposar para que el HDL precipitara. Cuando esto sucedió, se siguió el método estandarizado para la colorimetría en el análisis del cromo. Se realizaron otros análisis tales como la difracción de rayos x, el XPS y el SEM para la caracterización de las muestras, revelando información muy interesante, como que el procedimiento fue el adecuado por la limpieza de las muestras. Se realizó la misma experimentación con  revelando una presunta adsorción, la misma no siendo concluyente por la necesidad de darle mantenimiento al equipo.


CONCLUSIONES

De las muestras sintetizadas, las que contenían nanofibras de carbono sin SDS fueron las que adsorbieron en mayor medida. Gracias al análisis del XPS se pudo confirmar que debido a alguna interacción con el aluminio en su composición la adsorción podría llevarse a cabo, entre otras cosas. En este verano de investigación el aprendizaje fue muy grande y variado, nos familiarizamos con todos esos métodos de análisis, su fundamento y el cómo funcionaban. Desarrollamos más destreza en el laboratorio y en el trabajo en equipo, sin mencionar todo el conocimiento teórico detrás de una quizás síntesis sencilla. Aprendimos algunas otras metodologías, como es el caso de la funcionalización de estructuras de carbono, la colorimetría del cromo, del Flúor además de cómo funciona la investigación de manera generalizada. El proyecto deja muchas cosas y datos con los cuales se podría trabajar, análisis que extras que podrían revelar información muy valiosa. Y una pregunta al aire, por la cual esta idea surgió. ¿Podrán adsorber PCBs?   https://www.sciencedirect.com/science/article/pii/S2468202019300294 https://www.sciencedirect.com/science/article/pii/B9780444594532000330 https://www.cancer.gov/espanol/cancer/causas-prevencion/riesgo/sustancias/cromo  
Garcia Contreras Juan Daniel, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

PROTOTIPO DE ECOBLOCK ESTRUCTURAL ALIGERADO, BASADO EN UN ALMA DE PET.


PROTOTIPO DE ECOBLOCK ESTRUCTURAL ALIGERADO, BASADO EN UN ALMA DE PET.

Alfaro Barrientos Luis Angel, Instituto Tecnológico de Tláhuac. Garcia Contreras Juan Daniel, Tecnológico de Estudios Superiores de San Felipe del Progreso. Hernández Martínez Danny Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Actualmente México es uno de los principales países que producen más desechos, siendo el primer consumidor de botellas plásticas del mundo (INEGI, 2018),  la mayoría de estos se genera en viviendas, edificios, calles, avenidas, parques y jardines.  Gran parte de los desechos acaban en basureros o en el mar lo que ocasiona la contaminación, ya sea del aire, suelo o agua. Los productos plásticos que tienen un elevado consumo, tales como: las botellas de plástico, que normalmente se elaboran de PET (Tereftalato de Polietileno), así como las bolsas de algunos alimentos que en su mayoría están elaboradas de polipropileno junto con polietileno. A lo largo de los últimos años se ha considerado implementar el plástico en el área de la construcción, ya que recientemente lo que se busca es disminuir el daño al medio ambiente buscando materiales alternos como los son los Eco-block, aprovechando que el block es uno de los elementos más usados en la construcción se tomó en cuenta para la fabricación de un bloque estructural que sea de tipo ecológico.



METODOLOGÍA

Durante esta investigación se empleó una metodología experimental de tipo cuantitativa debido a que el proyecto se considera factible considerando los datos obtenidos. Uno de los datos más importantes es el que se obtenga de la prueba de resistencia a la compresión, la cual es realizada en la máquina universal gracias a esta máquina se pueden hacer pruebas de compresión y tracción para medir la resistencia de la carga que se le aplica al block.   Para llegar a obtener este resultado fue necesario conocer las Normas Oficiales Mexicanas que estandarizan la fabricación de los bloques, así  como las pruebas de calidad a las que están sometidos. Una de las principales normas es la NOM-404-ONNCCE-2012 para piezas de uso estructural, hace referencia a las especificaciones del block tales como: dimensiones, partes de la pieza, métodos de ensayo que deben cumplir los bloques, establecida por el Organismo Nacional de Normalización y Certificación de la Construcción y Edificación (ONNCCE). Este organismo tiene el propósito de contribuir a la mejora de la calidad y de la competitividad de los productos, procesos, servicios y sistemas relacionados con la industria de la construcción.   Para obtener la  dosificación adecuada del block  se realizaron dos procedimientos, el primero consistió en guiarse de la dosificación recomendada por el fabricante del cemento, y el segundo, se empleó el método del módulo de fineza de la combinación de los agregados que consiste en efectuar un diseño de una mezcla para alcanzar la resistencia deseada del block, tomando en cuenta los agregados principales, los cuales pueden causar una variación de la resistencia. En el caso de los agregados se usaron los siguientes: Grava o Tepojal, Arena, Cemento, Agua También se incluyeron botellas de PET, que se recolectaron recolectaron dentro del Tecnológico de Estudios Superiores de Valle de Bravo, una vez conseguido el material suficiente, se seleccionó un tamaño adecuado para que cumpliera las especificaciones del área neta de un block hueco, sin embargo se considera como un block hibrido, ya que el área bruta incluye el material utilizado, junto con el PET. Los tamaños elegidos fueron botellas de un litro y de 355 ml. las cuales fueron rellenadas con otros plásticos, los cuales habían sido recolectados previamente. Para llenar un envase de litro se necesitó un aproximado de entre 25 a 30 botellas de PET, lo cual corresponde a 1569 ml. Antes de realizar la mezcla para el prototipo se requirió hacer una prueba de granulometría para el agregado grueso (grava o tepojal). Con el objetivo de seleccionar el tamaño nominal solicitado por norma. Ya que se tenían todos los materiales necesarios para hacer la mezcla se procedió a realizar el prototipo físico, se empleó la dosificación ocupada, además el plantel tiene una bloquera, la cual ya cuenta con un apartado de moldeado de block con una medida estándar de 12x20x40 cm, por medio de ella se pudo realizar la compactación y el vibrado del material para que el block quedará con las medidas adecuadas, la mezcla se hizo de manera manual. Para colocar los envases de PET en el interior del block primero se colocó una capa de mezcla en el molde, luego se incluyó la botella de plástico para finalizar se cubrió con otra capa de mezcla, dándole un varillado en los extremos. Para un mejor muestreo se realizaron 7 blocks, de los cuales 4 fueron con tepojal y los 3 restantes con grava. Como se ocuparon dos dosificaciones los prototipos tienen diferentes características. Las características físicas de cada uno son: Block con agregado de Tepojal Menor adherencia de la mezcla, mejor dimensión, peso medio de 10 kg, tuvo más oquedades y  mayor disgregación Block con agregado de Grava Mayor compactación al momento de fraguado, reducción en medidas exteriores de un aproximado de 1 a 2 cm,  peso medio  de 15 kg, tuvo menos oquedades y menor disgregación.  Y  dándole pasó a la prueba de compresión en un lapso de 28 días para el análisis de datos. 


CONCLUSIONES

Las pruebas a resistencia a la compresión  se realizaron en tres especímenes. Los resultados obtenidos son los siguientes.                   Peso aplicado                        Resistencia a la compresion  Prueba 1      11967.9 kgf                           24.93 kg/cm2 Prueba 2       4016 kgf                              8.36 kg/cm2 Prueba 3      8383.2 kgf.                          17.46 kg/cm2   Terminando con las pruebas necesarias al block, se realizó un presupuesto en el cual se dedujo que que el precio del block para su proceso de elaboración es de 7.45 pesos. Como resultado final concluimos que no se alcanzó totalmente la resistencia a la compresion  establecida en la NOM-C-404-ONNCCE, obteniendo nosotros una resistencia promedio de 16.91 kg/cm2.  Sin embargo su uso no sera de manera estructural, aunque podra utilizarse como block ligero, se observó en la prueba de compresión que el PET no sufrió deformación total, ayudo a reducir el peso del bloque a 10kg y la cantidad de materia prima, así mismo a ocupar los desperdicios sólidos. Los datos de estas pruebas se pueden mejorar, en la modificación del cálculo de la mezcla disminuyendo la cantidad de volumen del PET.  
García Cornejo César Isaí, Universidad de Guadalajara
Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara

OSCILADOR ARMóNICO CUáNTICO ESTOCáSTICO


OSCILADOR ARMóNICO CUáNTICO ESTOCáSTICO

García Cornejo César Isaí, Universidad de Guadalajara. Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Dada la inmensidad de modelos usados para inflación se optó por estudiar aquel de caracteristicas estocásticas, ss decir el proyecto se basó en comprender y analizar este tipo de herramienta. Empezando por el oscilador armónico de la teoría clásica con cierta constante ahora dependiente del tiempo. La cual procedió a ser cuantizada imponiendo las relaciones de conmutacion de Heisenberg. Así se pudo hacer un análisis estocástico. Todo esto con la finalidad de obtener campos con sus modos de oscilación.



METODOLOGÍA

Partiendo del Lagrangiano del oscilador armonico y con el obteniendo su ecuacion de movimiento, se propusó con la finalida de cuantizar el problema, que la solución a la ecuación de movimiento fuera expandida en modos de vibración expresados con los operadores de creación y aniquilación. Sustituyendo e imponiendo las relaciones de conmutación se obtuvo la ecuación diferencial para los modos expresada en funcion de 3 campos que convenientemente son estocasticos. Por consiguiente se analizaron las correlaciones y autocorrelaciones de estos 3 últimos campos y su probabilidad de transición. Por simplificar se enfocó en aquellas perturbaciones de campos cuyas correlaciones fueran menores que las correlaciones de cualquiera de los otros 3 campos estocásticos.


CONCLUSIONES

Dada la complejidad del problema se tomarón los resultados de casos particulares de vibración, ademas se puede decir que fue posible hacer el análisis estocástico debido a que se cuantizó el problema.
García Coronado Olivia Paola, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)

RECONOCIMIENTO DE GESTOS MANUALES PARA LA AUTOEVALUACIÓN DE EMOCIONES


RECONOCIMIENTO DE GESTOS MANUALES PARA LA AUTOEVALUACIÓN DE EMOCIONES

García Coronado Olivia Paola, Instituto Tecnológico de Piedras Negras. Rodriguez Ortiz Kathelyn Rosse, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El reconocimiento de gestos de las manos ha traído un creciente interés por sus aplicaciones en diversos campos. En esta estancia se desarrollará una interfaz de usuario capaz de obtener información sobre el estado emocional del usuario (activación y valencia). Para ello, se usará un dispositivo Leap Motion pero se desarrollarán e implementaran diferentes estadísticas que nos servirán de entrada para un clasificador. El objetivo es diseñar, implementar y probar una interfaz de usuario basada en gestos manuales para autoevaluación de sentimientos.



METODOLOGÍA

Primeramente comenzamos a estudiar el SDK del Leap Motion (sistema de control gestual) las características y la manera de obtener los datos crudos de las manos que detectara el sensor.  Utilizamos la plataforma de desarrollo Eclipse, más específicamente el IDE de Java. Se realizaron modelos matemáticos para poder calcular los ángulos entre los puntos de "Tip Position" (punta de los dedos) con respecto a la palma, de esa manera se podrían configurar algunos gestos predeterminados para poder realizar el sistema de conocimiento de gestos para realizar autoevaluaciones del estado de animo de una persona.  Se utilizaron fórmulas de cálculo vectorial para poder realizar todas las mediciones correspondientes para poder obtener los ángulos entre los dedos. Además de esto, se optó por obtener la mediana de los ángulos como "máximo" para poder evaluar si una mano tiene los dedos abiertos o cerrados.


CONCLUSIONES

Durante la estancia de este verano adquirimos más conocimientos y habilidades en el área de la informática, llegando a programar en un entorno tal como el SDK de LeapMotion, una programación más avanzada y profunda de lo que habíamos manejado. Nos adentramos también un poco más en la disciplina de la interacción humano computadora.  A lo largo de las semanas conocimos a varios estudiantes de maestría, quienes nos incentivaron a tomar una en el Centro de Investigación donde estamos trabajando (CIMAT). Tuvimos la gran oportunidad de asistir a la Escuela de verano que el CIMAT realiza, donde tuvimos varias conferencias y talleres donde durante una semana estuvimos viendo nuevas tecnologías, las cuales nos ayudarán en nuestro desarrollo académico y profesional en el futuro, tuvimos talleres de Ing. en Software, Bioestadística, Creación de videojuegos en Unity y uno de Criptografía. Además de motivarnos también a tomar una maestría en CIMAT Zacatecas. 
Garcia de Arcos Jose Angel Eduardo, Instituto Politécnico Nacional
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

DESARROLLO DE UNA APLICACIóN MóVIL PARA UN SISTEMA DE MOVILIDAD


DESARROLLO DE UNA APLICACIóN MóVIL PARA UN SISTEMA DE MOVILIDAD

Garcia de Arcos Jose Angel Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En un sistema de compartir automóviles se debe actualizar constantemente el perfil de los usuarios con el fin de propósito de contar con datos actualizados en cuanto a su deseo de permanecer en el sistema activo y compartiendo su auto o recibiendo el apoyo de un automóvil.    



METODOLOGÍA

Inicialmente, para el desarrollo de la aplicación móvil, se estudió la programación orientada a objetos y se  realizaron ejercicios de programación en el sistema operativo Android, en particular las operaciones CRUD para SQLite. También se revisó el articulo Challenge In Data Crowdsourcing para contar con una idea de la importancia de colectar datos de miles de personas. Se realizó el análisis de la aplicación móvil solicitada y además se realizó el diseño. También se realizaron diferentes ejercicios para comprender el ambiente de Android y así realizar la aplicación  móvil. Se elaboró el programa requerido, participando junto con otro compañero que usará la aplicación para integrarla a un sistema de sugerencias de viajes compartidos. Se realizaron varias pruebas de la aplicación para ver si realmente la base de datos cumplía con su función al  mantener actualizados  los datos del perfil de usuario.


CONCLUSIONES

Con la aplicación movil que se ha desarrollado se espera que los usuarios del sistema de sugerencias de viajes compartidos puedan mantener actualizados sus datos.
García Parra Joel Alberto, Universidad de Sonora
Asesor: Dr. Luis Arturo Ureña Lopez, Universidad de Guanajuato

ANáLISIS DEL MODELO COSMOLóGICO, ENFOCADO A ENERGíA OSCURA MODELADO POR QUINTAESENCIA.


ANáLISIS DEL MODELO COSMOLóGICO, ENFOCADO A ENERGíA OSCURA MODELADO POR QUINTAESENCIA.

García Parra Joel Alberto, Universidad de Sonora. Asesor: Dr. Luis Arturo Ureña Lopez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Se comenzó trabajando con el libro de introducción a la cosmología moderna de Andrew Liddle, en donde se obtuvieron los conocimientos necesarios para la identificación y caracterisación de modelos cosmológicos. Esto con el fin de ser capaces de analizar el modelo estándar de la cosmología y los enfocados a la caracterización de la energía oscura por medio de tres modelos: quintaesencia, CPL y en el que me enfocaré, quintaesencia.



METODOLOGÍA

Se utilizó como base "Introduction to modern cosmology" de Andrew Liddle y "Introduction to cosmology" de Barbara Rayden para adquirir las herramientas necesarias para caracterizar las bases de los modelos cosmológicos, siendo los principales conocimientos las ecuaciones básicas: ecuación de Friedman, ecuación de aceleración y ecuación del fluido. Se llevó a cabo la lectura y solución de los capítulos principales del primer libro mientras que el segundo fue usado como complementación en las últimas semanas del curso. Mientras se adquirían estos conocimientos se llevaba a cabo la familiarización con el código CLASS de cosmología para la resolución del modelo estándar Lamnda-CDM que es el que actualmente encaja mejor con las observaciones actuales y la teoría, lo que se hizo con este código, en primera instancia, fue usarlo como una herramienta de aprendizaje para poder ver de una forma más clara el cómo los parámetros de densidad evolucionan con respecto a el factor de escala y el corrimiento al rojo.  De esta forma haciendo uso de una prueba de bondad de ajuste de chi-cuadrada para los datos observados de varias supernovas y los resultados numéricos obtenidos al variarla omega_cdm entre 0.1 y 0.9, dejando fijo los demás valores para identificar qué valor era el adecuado según las observaciones. Esto corriendo el código CLASS en una interfaz de Python para facilitar y agilizar la visualización de los resultados. Avanzando un poco más en los métodos teóricos se usó MontePython para hacer lo mencionado anteriormente pero variando una mayor cantidad de parámetros y poder así aplicar una prueba similar a la chi_cuadrada para definir el mejor conjunto de parámetros. En estos momentos se encuentra trabajando con los modelos de energía oscura usando dicho código.


CONCLUSIONES

Dados los resultados obtenidos del modelo estándar de la cosmología, la radiación gobernaba el universo temprano mientras este se enfriaba, más sin embargo una vez la materia no-relativista  aclanzó a la materia relativista, el universo empezó a enfriarse más rápido, esto significa que hubo un momento en donde había igual cantidad de materia relativista y no-relativista, a este se le conoce como el periodo de igualdad y según lo teorizado, sucedió alrededor de un redshift de 3400. La prueba de bondad dio como mejor valor a una omega_cdm de alrededor de 0.3, ya que cuando se graficaba la omega_cdm con respecto al valor de la chi-cuadrada, se formaba una parabola cuyo punto más bajo se formaba aproximadamente en 0.3. Lo siguiente fue realizar una variación de omega_lambda y omega_cdm para obtener la combinación que mejor se acercase a lo observado, pero aún no se logra realizar de manera correcta. Con MontePython se han tendio algunos problemas, ya que mi computadora no es lo suficientemente rápida además de la falta de algunas librerías, pero pronto se resolverá el probela y se comenzarán a obtener los resultados tanto del modelo estándar como para los de energía oscura. En cuanto a las dificultades e impedimentos, una parte fue por falta de tiempo por un problema personal, cosa que no hay forma de cambiar. Otro impedimento fue la falta de flexibilidad al momento de programar e identificar código así como el desconocer de relatividad general, aunque esto último no afectó tanto.
García Parra Pedro Antonio, Universidad de Sonora
Asesor: Dr. Luis Carlos Padierna García, Universidad de Guanajuato

ESTRATEGIA DE INVERSIóN USANDO MáQUINAS DE SOPORTE VECTORIAL


ESTRATEGIA DE INVERSIóN USANDO MáQUINAS DE SOPORTE VECTORIAL

García Parra Pedro Antonio, Universidad de Sonora. Ruiz Ortiz Miguel Angel, Universidad de Guanajuato. Asesor: Dr. Luis Carlos Padierna García, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una estrategia de inversión es un conjunto de reglas, metodologías y procedimientos diseñados para que un inversionista seleccione y gestione una cartera de instrumentos de inversión. Se pueden tener estrategias de inversión a través del análisis de indicadores técnicos.  Un indicador técnico no es más que una herramienta de análisis bursátil que sirve para estudiar la evolución futura de los precios de un activo financiero. Los indicadores están dados por funciones matemáticas del precio del activo y del volumen (cantidad de transacciones del activo) a través de tiempo. A un activo financiero se le puede asociar una serie de tiempo dada por la fluctuación de su precio. El problema de plantear una estrategia de inversión se reduce a la predicción de los precios futuros a partir de las series de tiempo. Esto es una tarea desafiante ya que los mercados financieros se caracterizan por seguir dinámicas complejas, no lineales, caóticas, ruidosas y cambiantes, haciéndolas volátiles, no estacionarias, multifractales, de memoria larga, inestables y de alto riesgo. Debido a su naturaleza compleja, es deseable que las estrategias de inversión sean analizadas mediante métodos computacionales que permitan minimizar el error humano y el riesgo, y maximizar nuestros beneficios. Existen diversos modelos computacionales que intentan predecir el comportamiento a futuro de las series de tiempo financieras, tales como redes neuronales artificiales, sistemas expertos y máquinas de soporte vectorial. Sin embargo, no se ha encontrado que alguna de estas técnicas resuelva el problema de predicción para cualquier serie de tiempo financiera. Por lo cual se requiere explorar diversas técnicas para cada nuevo conjunto de datos. En la presente investigación se aborda un problema para la predicción de los precios futuros de las acciones de Amazon. Nuestra hipótesis es que las máquinas de soporte vectorial permitirán predecir el comportamiento de los precios futuros sobre esta serie de tiempo.  



METODOLOGÍA

Modelaremos el problema de la predicción de los precios como un problema de clasificación. Vamos a clasificar las operaciones financieras a realizar en cada cierto periodo de tiempo (un día, una semana, etc.). De este modo, una operación tendrá la etiqueta 1 si deberíamos abrir posiciones de compra (ir en largo, en la jerga de las inversiones), y -1 si deberíamos abrir posiciones de venta (ir en corto). Si una operación se clasifica como 1, esperamos que el precio suba al terminar el periodo de tiempo, y se clasifica como -1 si esperamos lo contrario. El problema de clasificación se abordará con el algoritmo de Máquinas de Soporte Vectorial (SVM). Nótese que el algoritmo sólo nos estaría diciendo cuándo comprar y cuándo vender, pero no estarían diciendo cuándo cerrar las posiciones ni la ganancia esperada. Esos podrían ser considerados como problemas extras a resolver en futuras investigaciones. Los datos a utilizar para los algoritmos se extrajeron de distintas series de tiempo con la API en Python de Alpha Vantage, el cual es un proveedor gratuito de datos históricos financieros. Las series de tiempo corresponden a indicadores técnicos asociados a los precios de Amazon. Cada indicador técnico Ij, j=1, .., n, es una serie de tiempo. Hay dos enfoques que se le podría dar a la caracterización de las operaciones que vamos a clasificar. En ambos, se utilizan datos diarios y las ideas que utilizan son las siguientes: Se toman n=12 indicadores técnicos y la operación del día se caracteriza con el vector (I1[hoy], I2[hoy], ..., I12[hoy]). En este artículo menciona que con ciertos parámetros de la SVM, se acertó en la clasificación el 57% de las veces en los datos de prueba. Es decir, que si ganamos el 1% de nuestra inversión por cada acierto, y perdemos el 1% en cada fallo, en 100 operaciones estaríamos ganando aproximadamente 57 operaciones y perdiendo 43, teniendo así una ganancia total del 57-43=14% de la inversión inicial. Se toman n=5 indicadores técnicos, pero resulta interesante cómo platean aquí la caracterización del día de hoy. Lo caracterizan como el vector (I1[antier], I1[ayer], I1[hoy], ..., I5[antier], I5[ayer], I5[hoy]). Es interesante porque en el análisis técnico no nos interesa el valor actual de un indicador, si no más bien el comportamiento que tuvo en una vecindad de su valor. Tal vez los autores del artículo querían que de alguna manera la SVM captara mejores decisiones de inversión si obtenía el comportamiento de los indicadores Ij en una vecindad de Ij[hoy] (es decir, con los datos Ij[antier], Ij[ayer], Ij[hoy]). En el trabajo se utilizarán n=10 indicadores, usando la idea de las vecindades en el segundo punto.


CONCLUSIONES

Debido a la complejidad de los datos, el porcentaje de aciertos en la predicción del precio es bajo. Como resultado de una extensa busqueda en el estado del arte, este porcentaje se encuentra entre el 50% y el 60% de precisión. Incluso con algoritmos tan avanzados como lo es el Deep Learning, se obtienen estos resultados. A través de heurísticas, se hizo una búsqueda de un hiper-parámetro adecuado de la SVM usando las funciones kernel RBF, Lineal y Lineal2. Para la búsqueda del hiper-parámetro de la SVM, se utilizó la función GridSearchCV de la librería SciKit-Learn. Esta función encuentra el mejor hiper-parámetro del clasificador que optimiza el porcentaje de aciertos usando validación cruzada. Esto se logra a través de una búsqueda exhaustiva en una cuadrícula de hiper-parámetros dada. Usamos 5 pliegues para la validación cruzada en nuestra heurística. Los mejores resultados encontrados en nuestra serie de experimentos alcanzaron un porcentaje de aciertos del 59% utilizando el kernel RBF con los hiper-parámetros de Valor de Regularización C de 20.9606 y gamma de 0.0001; y Valor de Regularización C de 16.7090 para el Lineal.
García Saucedo Gisela Ivone, Universidad de Guadalajara
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE DOS CENTELLADORES BC404 ACOPLADOS A SIPM, PARA CALCULAR LA RESOLUCIóN TEMPORAL.


DESARROLLO DE DOS CENTELLADORES BC404 ACOPLADOS A SIPM, PARA CALCULAR LA RESOLUCIóN TEMPORAL.

García Saucedo Gisela Ivone, Universidad de Guadalajara. Pulido Hernández Alam Hayyim, Universidad Veracruzana. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El acelerador NICA (Nuclotron-based Ion Collider fAсility) en el JINR (Joint Institute for Nuclear Research) ubicado en Dubna, Rusia será inaugurado en 2020[1]. Uno de sus experimentos es el detector MPD capaz de detectar partículas como hadrones, electrones y fotones, dentro del funcionamiento del detector, se requiere de pequeños detectores de disparo los cuales se encargarán de activar los detectores más grandes en caso de la ocurrencia válida de un evento. Para el correcto funcionamiento del sistema, es necesario que los detectores de disparo cuenten con una resolución temporal alrededor de 10 picosegundos (10x) para ser capaz de observar todos los eventos ocurridos durante las colisiones, pues estos ocurren con una diferencia temporal media de este tiempo. Los plásticos centelladores son comúnmente utilizados para llevar a cabo esta tarea. El sistema de disparo es una parte fundamental de los detectores pues permiten discriminar los eventos válidos de los no válidos y evitar el desperdicio de medios en la recolección de información no necesaria. [1] http://nica.jinr.ru/



METODOLOGÍA

Contamos con plástico centellador BC404 cortado en trozos con dimensiones 2cm x 2cm x 0.3cm. Lo primero que se debe hacer es preparar el plástico ya que cuenta con algunas imperfecciones derivadas del proceso de fabricación. El proceso de pulido consta de tres fases, la primera es lijar las caras del plástico para que tenga una superficie uniforme, en la segunda se le aplica una pasta que lustra el plástico y finalmente se limpia con alcohol para eliminar los restos de la pasta y obtener un plástico completamente limpio. Una vez se cuenta con el plástico limpio se debe forrar con dos materiales, Tyvek y Mylar. El mylar funciona como un espejo, desviando los fotones hasta que se dirigen al fotodetector, el tyvek es un material obscuro que aísla al detector de la luz exterior. Lo primero que hicimos fue diseñar el molde que usaríamos como guía para cortar el material dejando una abertura de 0.6cm x 0.6cm en el centro de una de las caras grandes para acoplar el fotodetector ahí, después aplicamos una capa de mylar y dos capas de tyvek. Con los plásticos forrados, los acoplamos a las SiPM uniéndolos con cinta, el forrado debería ser suficiente para aislar el detector de la luz exterior pero en nuestro caso tuvimos fugas así que adaptamos una caja para colocar los detectores dentro. Para la toma de datos era necesario que los dos detectores sean colocados uno cerca del otro, esto lo hicimos con unas piezas de plástico que se encontraban en el laboratorio, permitiéndonos así acoplar ambos detectores. Se requiere que estén juntos para asegurar que el mismo rayo cósmico ha pasado por ambos. Hecho esto conectamos los detectores al osciloscopio y una vez que comprobamos que había señal en los detectores pasamos a la toma de datos, en donde obtuvimos 465 eventos con los cuales sacamos la resolución temporal con ayuda del programa mpdroot.


CONCLUSIONES

Durante todo el proceso concluimos que para construir un detector de partículas de rayos cósmicos con plástico centellador es de suma importancia realizarlo con las técnicas adecuadas, utilizar un material de forrado que sea altamente  reflejante (99%), así como aislar la luz completamente para que las señales sean lo más limpias posibles. Nuestro principal objetivo era calcular la resolución temporal de los centelladores BC404 acoplados a un SiPM cada uno. Se esperaba que el resultado fuera cerca de 10 picosegundos. En nuestro caso, con 465 eventos y un tiempo de 1.2 a 2 nanosegundos, obtuvimos una resolución temporal de 12 picosegundos, esto indica la frecuencia con la que nuestros detectores son capaces de captar la señal de una partícula de rayos cósmicos dentro de su misma área.
García Saucedo Luis Felipe, Universidad de Guadalajara
Asesor: Dr. Jorge Alejandro Reyes Esqueda, Universidad Nacional Autónoma de México

ESTUDIO EXPERIMENTAL SOBRE LA GENERACIóN DE PLASMONES POLARITONES DE SUPERFICIE EN DIFERENTES NANOESTRUCTURAS PLASMóNICAS.


ESTUDIO EXPERIMENTAL SOBRE LA GENERACIóN DE PLASMONES POLARITONES DE SUPERFICIE EN DIFERENTES NANOESTRUCTURAS PLASMóNICAS.

García Saucedo Luis Felipe, Universidad de Guadalajara. Asesor: Dr. Jorge Alejandro Reyes Esqueda, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La luz ha sido, desde hace siglos, un tema de relevancia y de estudio debido a la interacción en nuestra vida diaria con este fenómeno. Y con este estudio continuo de la luz, hemos conocido nuevas manifestaciones relacionadas con ésta, que han dado lugar a nuevos y más profundos conocimientos acerca del comportamiento e interacción de los fotones con diferentes objetos. La respuesta óptica de un sistema micro o nanométrico, además de depender de su forma o de su tamaño, va a depender fuertemente de su entorno y de la estructura de éste. Sabemos que la respuesta óptica se debe al acoplamiento de una onda electromagnética con los electrones libres del sistema nanométrico haciendo que oscilen colectivamente generando plasmones de superficie, que es la propagación de una onda electromagnética en la interfase formada entre un metal y un dieléctrico. Entender la correlación entre la estructura y la respuesta óptica de diferentes nanomateriales nos permite, eventualmente, proponer aplicaciones en áreas como sensado, biosensado, comunicaciones clásicas o cuánticas, etc. 



METODOLOGÍA

Para el presente trabajo se utilizaron muestras de Arreglos de Nanohoyos (NHA), Nanoesferas depositadas en una película de oro (NSAu) y Arreglos de Nanoprismas (NPA) previamente sintetizados por litografía de nanoesferas. Se obtuvo la transmisión para muestras de NHA y NSAu con luz blanca en polarización TM y TE variando el ángulo de incidencia de 0° a 78° para cada polarización. El sistema para medir la transmisión se construyó integrando una fuente de luz blanca conectada por fibras ópticas al detector, un polarizador, lentes y un porta muestras giratorio. Los datos experimentales para todos los ángulos de incidencia se agruparon para determinar la transmitancia en función del ángulo de incidencia y la longitud de onda. Para la reflectancia se utilizó un láser verde (532 nm) y un láser rojo (635 nm). Se hicieron incidir sobre muestras de NHA, NSAu y NPA en polarización TM y TE variando el ángulo de incidencia de 5° a 75° para cada polarización. Para la realización de este experimento, se formó un sistema en el que se utilizó un láser, el cual fue alineado con espejos, la luz atravesó un polarizador y se hizo incidir sobre la muestra. La luz reflejada fue detectada con un medidor de potencia dando diferentes valores para cada ángulo de incidencia. El experimento se hizo para ambas longitudes de onda.    También se realizaron experimentos con la Configuración de Krestchmann (prism coupling) con láser verde (532 nm) y láser rojo (635 nm) para las muestras de NHA, NSAu y NPA en polarización TM y TE variando el ángulo de incidencia desde 30° hasta 60° para cada polarización. El sistema para este experimento es similar al que se compuso para los experimentos de reflectancia, en el cual un láser emitió luz en dirección a un par de espejos que funcionaron para alinear la luz emitida. Teniendo el sistema alineado, se hizo pasar a través de un polarizador para, posteriormente, hacerse incidir sobre la muestra unida a un prisma de vidrio por medio de un aceite especial para empatar índices de refracción. La luz reflejada por la muestra después de atravesar el prisma se detectó para obtener los valores correspondientes para cada uno de los ángulos. Tras realizar los tres experimentos, los datos obtenidos fueron agrupados y graficados por medio de MATLAB para lograr una representación visual más clara de los resultados conseguidos.


CONCLUSIONES

De acuerdo con los datos obtenidos de los experimentos, observamos que se lograron excitar los plasmones satisfactoriamente para las muestras de NHA y NPA. Se localizaron exitosamente las longitudes de onda necesarias para excitar los plasmones de cada una de las muestras y los resultados son los esperados basándonos en la teoría de plasmones de superficie y la configuración de Krestchmann.
García Téllez Indira Angie, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas

PROYECTO ESCARAMUJO


PROYECTO ESCARAMUJO

García Téllez Indira Angie, Benemérita Universidad Autónoma de Puebla. León Delgado Monserrat, Universidad de Guadalajara. Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

Comprender y analizar el comportamiento de los rayos cósmico a través del detector Escaramujo, con las condiciones presentes en Tuxtla Gutierrez, Chiapas. 



METODOLOGÍA

Estudiar la teoría de los rayos cósmicos. Revisar la documentación del detector Escaramujo, la composición y el funcionamiento de cada una de sus partes, así como el manejo de su software y hardware. Toma de datos con el detector en intervalos de 24 horas. Creación de diferentes programas en Python para la clasificación, arreglo y transformación de sistema numérico. Realizar un análisis de datos a traves de la visualización con gráficos.  


CONCLUSIONES

En las primeras pruebas de ángulo, altitud y número de placas, se comprobó lo establecido en la teoría. En el análsis de datos se observó que existe una variación en el número de coincidencias durante el día y la noche. Sin embargo, este análisis se realizó con datos tomados con anterioridad debido a que el GPS del detector presentó daños por antiguedad, impidiendo que se registrara la fecha y la hora correctamente. Se espera hacer una nueva serie de toma de datos para hacer una análisis más completo cuando se resuelva el problema.  
Garza Landa Fernando, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas

CáMARA DE NIEBLA


CáMARA DE NIEBLA

Barajas Ramirez Mariana, Universidad de Guadalajara. Garza Landa Fernando, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La cámara de niebla es un dispositivo para detectar radiación ionizante, por lo que el diseño y armado de una es de vital importancia para permitirnos visualizar el paso de astropartículas tales como muones.



METODOLOGÍA

Se hizo un armado desde cero a base de celdas peltier y se fue mejorando conforme fuera necesario en base a pruebas de funcionamiento realizadas constantemente.


CONCLUSIONES

El armado de una cámara de niebla sin el uso de hielo seco presenta un reto considerable pues aunque el experimento en esencia sea simple, si no se alcanzan temperaturas adecuadas no se obtendrán los resultados deseados.
Gaytán Villarreal José Daniel, Universidad de Sonora
Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato

DARKOGéNESIS


DARKOGéNESIS

Gaytán Villarreal José Daniel, Universidad de Sonora. González Montoya Sofía, Universidad de Sonora. Mancilla Xinto Nestor Raul, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas de la física moderna en el área de física de partículas es tratar de explicar por qué existe más materia que antimateria. El surgimiento de la antimateria es producto de la ecuación de Dirac, formulada en 1928 donde predice la existencia de antipartículas además de las partículas conocidas. El problema se genera al pensar que justo después del Big bang el universo era simétrico, por lo cual debería existir la misma cantidad de materia que antimateria, esto provocaría que al entrar en contacto las partículas con las antipartículas éstas se aniquilen produciendo fotones, pero no es así, vemos que la cantidad de materia es mayor y por lo tanto el universo es asimétrico permitiendo la existencia de materia. Para intentar resolver este problema, existe el proceso físico llamado Bariogénesis, el cual trata de explicar la producción de la asimetría bariónica en el universo temprano dando lugar a modelos basados en las interacciones entre partículas fundamentales. El trabajo se enfocó en el modelo llamado Darkgenesis que genera la asimetría bariónica a través del sector de materia oscura, simultáneamente relacionándola con la densidad de materia oscura.



METODOLOGÍA

Parte del trabajo se enfocó en la construcción del lagrangiano del modelo estándar de física de partículas, por ello se comenzó por los principios de la mecánica cuántica relativista, la notación y convenciones utilizados. Para esto, primero se introdujeron las simetrías del sistema: la invarianza del marco de referencia inercial conocida como invarianza de Lorentz, las simetrías de paridad (P), conjugación de carga (C) e inversión de tiempo (T), y el conjunto de éstas, CPT. Se trabajó con la ecuación de Dirac para describir las partículas de spin 1/2 bajo las simetrías de paridad y conjugación de carga, introduciendo los términos de quiralidad y helicidad. Se trabajó en un lagrangiano que sea invariante bajo las simetrías globales de la teoría de grupos U(1) y SU(2). Después se utilizó el rompimiento de simetría espontánea para llegar al teorema de Goldstone, donde surgen partículas escalares sin masa llamados bosones de Goldstone. Con ayuda de la teoría de norma y el mecanismo de Higgs, éstos se convierten en bosones vectoriales masivos. Para comenzar a construir el lagrangiano del modelo estándar se necesitan al menos tres bosones, W+ , W- y ϒ, para esto se necesita el producto SU(2)xU(1) y tenemos cuatro bosones gauge, incluyendo a Z0 . El lagrangiano completo bajo la simetría SU(2)xU(1) se conforma por la parte invariante localmente, la parte fermiónica, el término de Yukawa y la parte invariante de gauge para escalares. Como primer paso se trabajó con el lagrangiano del doblete conformado por el electrón y su correspondiente neutrino para después generalizar a las tres familias de leptones, incluyendo este primer doblete como la primera generación, el muón y su neutrino como la segunda generación y finalmente el tau y su respectivo neutrino como la tercera generación, únicamente con cambios en el término de Yukawa. De aquí se extendió el modelo estándar para incluir a los quarks, de igual manera cambiando el lagrangiano fermiónico y el de Yukawa.  Una vez con el lagrangiano del modelo estándar completo se estudió sobre el proceso de bariogénesis, tomando en cuenta las condiciones de Sakharov necesarias para una asimetría entre materia y antimateria. Estas tres condiciones son la violación del número bariónico, las interacciones fuera del equilibrio térmico y la violación de C y CP (conjugación de carga y paridad).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de física de partículas, así como las herramientas matemáticas que nos permitieron desarrollar dichos conocimientos de una manera más técnica. Si bien no se contribuyó al desarrollo del modelo estándar, se revisó de manera íntegra la física que abarca; además, al realizar una suposición teórica que sobrepasa al modelo, se revisó lo que se considera física nueva, es decir,  la física más allá del modelo estándar, a partir de la realización del modelo bariónico ya mencionado, Darkogénesis.  Se espera, a partir de la investigación experimental llevada a cabo en los distintos aceleradores de partículas a lo largo del globo, llegar a resolver las cuestiones sin respuesta del modelo estándar, tales como la interacción gravitacional, la masa de los neutrinos, la energía oscura, la materia oscura, y, como se vio en el verano, la asimetría presente en el universo entre materia y antimateria.
Gerardo Espinoza David Efren, Universidad Autónoma de Sinaloa
Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla

IDENTIFICACIóN DE BARRANCAS Y LADERAS DEL VOLCáN POPOCATéPETL COMO ZONAS DE RIESGO GEOLóGICO UTILIZANDO IMáGENES SATELITALES.


IDENTIFICACIóN DE BARRANCAS Y LADERAS DEL VOLCáN POPOCATéPETL COMO ZONAS DE RIESGO GEOLóGICO UTILIZANDO IMáGENES SATELITALES.

Gerardo Espinoza David Efren, Universidad Autónoma de Sinaloa. Asesor: Dr. Rogelio Ramos Aguilar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Del volcán Popocatépetl se derivan numerosas barrancas con distintas relevancias, las cuales, en ocasiones confluyen a su vez en algún punto para formar, de varias, una sola; tal es el caso de la barranca Huiloac, la cual es producto de otras tres, su inicio se localiza a una altura aproximada de 3554 metros, y termina a menos de los 2600 metros por encima del nivel del mar. El volcán en cuestión se encuentra en la actualidad, en estado activo, esta condición lo convierte automáticamente en un foco de posibles catástrofes producto de erupciones inminentes. La barranca mencionada en el párrafo anterior está directamente relacionada a los riesgos que los productos eruptivos representan debido a su gran extensión longitudinal, profundidad, pendiente y el hecho de que su descenso transita por algunas poblaciones del estado de Puebla.



METODOLOGÍA

Como inicio, se hizo una descripción teórica de todos y cada uno de los conceptos técnicos y básicos del área de estudio para mantenerse en contexto bajo todas las lecturas.  Se hizo una identificación de un tramo de esta barranca, el cual inicia en las coordenadas 19° 04’ 17’’ de latitud norte y 98° 36’ 35’’ de longitud oeste, y termina justo al llegar a la población de Santiago de Xalitzintla a 19° 4' 45.50" de latitud norte y 98° 31' 11.30" de longitud oeste. El tramo abarca una longitud de 12 kilómetros divididos en secciones de 500 metros sobre los cuales se calcularon sus pendientes tanto máximo como mínima y el promedio de la sección en base a las alturas del fondo de la barranca en cada una de sus partes. Posteriormente se obtuvieron del software Google Earth Pro los perfiles transversales de cada sección con la relación longitud-altura, teniendo en el de las abscisas la longitud y en las ordenadas a la altura. Por último en respecto a la barranca, se calculó sobre cada uno de los 25 vértices del tramo de 12 kilómetros, la aceleración de la gravedad respecto a las alturas y las coordenadas de los mismos mediante una de las utilerías del proyecto MetAs. Además de la aceleración de la gravedad, se calcularon también las anomalías de la misma mediante el portal PTB, el cual es un sistema de información gravimétrica de procedencia alemana. El bajo Índice de Explosividad Volcánica promedio de las erupciones del Popocatépetl no descarta la posibilidad de que cualquiera de los tipos de erupciones pueda ocurrir, por lo tanto, la masa, el tamaño y fuerza de expulsión de los piroclastos generada por una erupción del volcán en cuestión, puede variar entre márgenes inmensos. En base a esto, se hizo un modelado de los 3 principales tipos de erupciones posibles del volcán con el software especializado en estos procesos llamado Erupt 3 del desarrollador KWare, cada una con parámetros estandarizados con base en las características usuales de una erupción y ajustados a las condiciones del área del Popocatépetl. Por último, se hizo un análisis y descripción de las simulaciones eruptivas para determinar cuanto riesgo implica cada una de ellas.


CONCLUSIONES

Considero mi estancia de verano, como una gran experiencia personal la cual me ha ayudado a superar algunas cuestiones tanto personales, como profesionales y sentir que, de cierta manera, he "crecido" al desenvolverme en nuevos ambientes. En respecto al trabajo de investigación, se obtuvieron algunos resultados técnicos para cada sección de la investigación. Respecto a la identificación, medición y realización esquemática de la barranca Huiloac por secciones, se obtuvo un promedio de la pendiente (solo en sentido de descenso, excluyendo los tramos 7 y 8 por ser una ramificación) que ésta pronuncia, el resultado, es una pendiente negativa de 8.15 %. Lo anterior implica algunas curiosidades y riesgos evidentes, en principio, y de manera natural, esta barranca se comporta como un conducto predeterminado para escurrimientos de agua y/o acueductos superficiales, usualmente esto no presenta un peligro mayor bajo condiciones comunes, sin embargo, se reconoció que la barranca en cuestión tiene una profundidad de algunos metros con respecto a la superficie en toda su extensión; lo último se traduce como una característica de la barranca que le otorga la propiedad y capacidad de almacenar cantidades tremendas de piroclastos de cualquier categoría (cenizas, lapillos o bloques), los cuales, debido a la pendiente tan pronunciada y el sentido de los escurrimientos, pueden ser arrastrados grandes distancias por el agua de cualquier lluvia de gran magnitud, provocando los anteriormente mencionados Lahares y resultando en una posible catástrofe para las sociedades por las que atraviesa la barranca en cuestión, principalmente Santiago Xalitzintla y San Nicolás de los Ranchos. En base a las simulaciones de erupciones volcánicas, se obtuvo una relación de características y productos eruptivos para cada uno de los casos; esta relación presenta 3 tipos de erupciones volcánicas de las cuales describe su fuerza eruptiva, su Índice de Explosividad Volcánica (IEV), el volumen de piroclastos expulsados y el tiempo de erupción propio de cada una. 
Gijón Vázquez Mildred Valeria, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León

PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACIóN, TRATAMIENTOS POST-DEPóSITO Y CARACTERIZACIóN)


PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACIóN, TRATAMIENTOS POST-DEPóSITO Y CARACTERIZACIóN)

Aviles Cardos Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología. Gijón Vázquez Mildred Valeria, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Gonzalez Soria Rodolfo, Instituto Tecnológico Superior Purépecha. Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La energía es indispensable en nuestra vida cotidiana, y el Sol es una fuente de luz y energía esencial en el desarrollo de nuestra vida y de todo ser vivo en nuestro planeta. Por medio de los rayos solares podemos obtener la energía suficiente para el funcionamiento de los aparatos electrónicos que se pueden encontrar dentro de la Institución y en ésta ocasión se podría alimentar también sistemas de iluminación, de una manera favorable al medioambiente.



METODOLOGÍA

Para la técnica de depósito de películas por baño químico, uno de los requisitos es que los sustratos en los que se depositarán las películas estén completamente limpios y sin impurezas que puedan afectar el resultado final del experimento y se adhiera de forma correcta la solución a los sustratos. Se realiza la limpieza de los sustratos, con jabón neutro  y agua,  de modo que estos queden limpios. Secando los sustratos con una secadora para eliminar toda humedad que conserven los sustratos. Hecho todo esto los sustratos deberán quedar totalmente transparentes y sin manchas visibles. Para la preparación solución para el baño químico son necesarios los siguientes reactivos: 1 gr. de SnCl22H2O y Disolver en 5 ml. de Acetona SnCl22H2O. Disolver la sal con la acetona por completo antes de agregar los siguientes reactivos. 12 ml. de (TEA) al 50%, 65 ml. de  destilado, 8 ml. de (TA) 1 mol y 10 ml. de Hidróxido de amonio (acuoso) 4 mol. Los reactivos deben ser agregados uno a uno y en el orden en el que están descritos. Una vez preparada la solución que se utilizara, los sustratos ya limpios se acomodaran en un vaso de precipitado de 100 ml, se acomodaran 6 sustratos por cada vaso de precipitado, los sustratos se tendrán que acomodar de una manera en la que queden ligeramente inclinados, ya que la cara del sustrato donde se depositara será la cara de abajo. Se utilizará una máquina para baños de recirculación PolyScience la cual se programará a 40º y se esperara a que la temperatura del interior llegue a la deseada, una vez alcanzada la temperatura se introducirán los vasos de precipitados con los sustratos a la máquina y se tapara. Los tiempos de baño serán de 8h y 17h, se harán 6 muestras de 8h y 6 muestras de 17h. Una vez transcurrido y terminado el tiempo de baño, las muestras se sacarán, se lavarán con agua destilada y se secaran con aire frio. Cuando las muestras estén secas, se tomarán y con un paño con alcohol por el lado donde no hay película depositada se limpiara, cuidando siempre el lado donde hay película depositas. Cabe destacar que desde este paso en adelante es bueno tener siempre identificadas las muestras para que posteriormente no se revuelvan, se recomienda no marcar las muestras con plumón o pincel ya que algunos procesos futuros podrían borrarlos. Ya listas las películas de sulfuro de estaño lo siguiente es doparlas con cobre, para esto se utilizará la maquina (nombre de la maquina). Las muestras se pondrán en un disco el cual se encuentra en el interior, se colocarán con la película hacia la parte de arriba y una vez las muestras colocadas, la puerta se cerrará y se sellará al vacío a un valor de, la maquina empezará a evaporar el cobre, esto se logrará gracias a la corriente y el voltaje que la maquina aplica al cobre para fundirlo. Una vez realizado el dopaje de cobre las muestras se hornearán. El horno de vacío que se implementó para este proceso fue un TM Vacuum products V/IG-803-14, su temperatura con la que se puede trabajar, va desde la temperatura ambiente hasta los 400°C, e incorporando cualquier grado de ambiente de vacío desde la atmósfera hasta 10 -8 torr. Los hornos de vacío de la serie V / IG tienen una cámara que tiene un diseño de "pared caliente", que permite la utilización completa del interior de la cámara de vacío, maximizando la capacidad de carga. Los hornos de vacío mantienen una temperatura de procesamiento estable en el interior de la cámara en todo momento, también ofrece ofrecen válvulas estándar de llenado y ventilación de gas inerte que permiten varios tipos de procesamiento de piezas utilizando un entorno de relleno de gas. Con el PLC de pantalla táctil estándar, el funcionamiento del sistema está completamente automatizado con el registro de datos de los parámetros del proceso. Al tener las películas ya colocadas en las placas Petri, se registrará su ubicación dentro del horno para así evitar confusiones debido a las altas temperaturas que se manejaran y esto hará que, si la película fue marcada con algún plumón de aceite, automáticamente la marca se evaporizara. Ya introducidas las muestras y verificar que la cámara este bien cerrada, se encenderá la bomba mecánica que producirá el vacío, y esperaremos hasta que la cámara llegue a un vacío de 10 -3 torr. Después se tendrá que fijar la temperatura del horneado que manejaremos a 300°C y 400°C con el display que se encuentra en el lado izquierda del horno. El factor tiempo correrá al llegar a la temperatura de 290°C y 390°C y al trascurrir una hora, se apagará el horno y las películas se extraerán hasta que el horno llegue a una temperatura de 50°C y así evitar un choque térmico por la diferencia de temperaturas. El proceso de enfriado de la cámara tiene un lapso de 3 horas. CARACTERIZACIÓN Caracterizacion por SEM, Caracterización por Raman, Caracterización de propiedades ópticas y electricas y Caracterización por XPS.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos. Se puede concluir que, en el trabajo presentado, se obtuvieron resultados esperados según los tratamientos que se llevaron a cabo (tratamiento químico y térmico). La variación del tiempo y de la temperatura con la que se trataron las muestras, mostró cambios importantes en la estructura del SnS:Cu los cuales se pudieron observar con la caracterización en el SEM. Agradecemos previamente al programa Delfín y al Dr. David Avellaneda por habernos brindado esta oportunidad de vivir la experiencia en la investigación.
Gil Mota Omar, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo

ESTADOS ELECTRóNICOS CUáNTICOS SUPERSIMéTRICOS DE MATERIALES 2D-DIRAC-WEYL BAJO TENSIóN UNIAXIAL EN LA NORMA DE LANDAU.


ESTADOS ELECTRóNICOS CUáNTICOS SUPERSIMéTRICOS DE MATERIALES 2D-DIRAC-WEYL BAJO TENSIóN UNIAXIAL EN LA NORMA DE LANDAU.

Gil Mota Omar, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En 1991, se observó una nueva forma en la que puede encontrarse el carbono: los nanotubos de carbono, láminas delgadas de este elemento químico que, como su nombre lo indica, se enrollan para formar tubos de distintas formas y cuyas propiedades pueden ser de tipo metálicas o superconductoras. La base de las estructuras mencionadas es el grafeno. Este material consta de una lámina de átomos de carbono caracterizada por su espesor que es apenas el de un átomo y no como el de las películas delgadas que consta de cientos de átomos. Los átomos están enlazados en una red hexagonal que tiene la forma de un panal de abejas. Es un material tan duro como el diamante, pero posee una flexibilidad superior, además soporta intensas corrientes eléctricas sin calentarse, pues es mucho mejor conductor térmico que la plata. Además el grafeno no puede clasificarse ni como semiconductor o metal, es un hibrido de estos dos, lo cual lo hace más interesante, no sólo por sus potenciales aplicaciones, sino porque brinda la posibilidad de estudiar los principios básicos de la Relatividad de Einstein y de la Mecánica Cuántica. La base de nuestra tecnología actual es el silicio, pero todas estas propiedades han hecho del grafeno un posible sucesor de este.



METODOLOGÍA

Se inicia estudiando las condiciones bajo las cuales la ecuación de Dirac asociada a ciertos potenciales electromagnéticos permite una factorización de acuerdo a una estructura supersimétrica en el sentido de la mecánica cuántica. Posteriormente esta parte de la teoría es aplicada a casos particulares con distintos potenciales electromagnéticos bajo la norma de Landau. Los casos considerados son: Campo magnético constante Pozo o barrera hiperbólica Pozo trigonométrico singular Campo magnético en decaimiento exponencial Campo hiperbólico singular Campo magnético singular Con estos resultados se procede a estudiar el caso del grafeno con deformación uniaxial obtener los estados y niveles de energía asociados a cada tipo de campo magnético. Finalmente se aplica la teoría al caso más general de materiales 2D-Dirac-Weyl bajo tensión uniaxial.


CONCLUSIONES

En este trabajo estudiamos los estados electrónicos cuánticos para materiales 2D-Dirac-Weyl uniformemente tensados bajo la influencia de campos magnéticos no homogéneos que apuntan en la dirección perpendicular al plano de la superficie del material. Se han tomado en cuenta las correcciones anisotrópicas de la velocidad de Fermi que representan la ecuación de Dirac-Weyl en una forma tratable de tal forma que la estructura de la mecánica cuántica supersimétrica nos permite resolver la ecuación de Dirac-Weyl asociada a estos casos de campos magnéticos. El efecto de la tensión en el nivel de los superpotenciales se expresa únicamente en el parámetro ζ, que mide el cociente de tensión entre los coeficientes a y b a lo largo de cada dimensión espacial respectivamente. Respecto a los niveles de energía, nuestro análisis muestra que los efectos de la tensión dependen de a y b  por separado en general y que cada uno de los parámetros puede tener un efecto diferente dependiendo del tipo de potencial.
Gocobachi Lemus Jesús Abel, Universidad de Sonora
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
Godínez Vega Daniel, Universidad Autónoma de Guerrero
Asesor: M.C. Cuitlahuac Hernandez Santiago, Universidad del Mar

ANÁLISIS DE LA PÉRDIDA DEL MANGLAR POR EL IMPACTO DE LOS FENÓMENOS NATURALES, PAULINA Y CARLOTTA Y SU REFORESTACIÓN EN VENTANILLA , SANTA MARÍA TONAMECA, OAXACA.


ANÁLISIS DE LA PÉRDIDA DEL MANGLAR POR EL IMPACTO DE LOS FENÓMENOS NATURALES, PAULINA Y CARLOTTA Y SU REFORESTACIÓN EN VENTANILLA , SANTA MARÍA TONAMECA, OAXACA.

Godínez Vega Daniel, Universidad Autónoma de Guerrero. Asesor: M.C. Cuitlahuac Hernandez Santiago, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Los manglares son humedales costeros con una extraordinaria importancia ecológica y económica. Están clasificados como uno de los ecosistemas más productivos del planeta y brindan una gran variedad de servicios ambientales. El planteamiento del problema se basa en el Estado de Oaxaca, en una comunidad llamada Santa María Tonameca, en donde se encuentra el Manglar la Ventanilla. Este manglar fue impactado por dos Fenómenos Naturales, el Huracán Paulina en 1997 y Carlotta en 2012. En el paso de estos dos fenómenos afecto el manglar y sufrió una gran pérdida de especies de mangle.  Después de haber tenido dos impactos en diferentes fechas no hay datos generales que determinen el periodo de recuperación.



METODOLOGÍA

Para la metodología se utilizaron Imágenes Landsat 5 y 7. Dichas imágenes fueron obtenidas de dos diferentes plataformas, Land Wiever esta plataforma permite descargar imágenes satelitales Landsat 4-5,7 y 8. La segunda plataforma fue USGS (Earth Explorer) también cuenta con imágenes Landsat. Una vez descargadas las imágenes satelitales de los años 1997-1998 para el Huracán Paulina y 2012-2013 para el Huracán Carlotta. Por ultimo las imágenes actuales del año 2019 con las cuales se ara una comparación.  Se procedió a trabajar  con las Imágenes en la Plataforma Land Wiever donde se hizo la combinación de bandas. De las cuales se obtuvieron 3 combinaciones para poder identificar el manglar;  NDVI. Esta combinación permite obtener una nueva imagen donde se destacan gráficamente determinados píxeles relacionados con parámetros de las coberturas vegetales. COLOR INFRARED (VEGETATION). Esta es una combinación de bandas muy popular y muy práctica para hacer estudios de vegetación, monitorización de drenajes, y hacer análisis de diferentes tipos de suelos y estados de crecimiento de los cultivos. VEGETATION ANALYSIS. Esta combinación de bandas es muy útil para los estudios de vegetación y es ampliamente usada para La vegetación sana y frondosa. Después se hizo una verificación de datos, para ello se acudió a la comunidad de Ventanilla en donde se aplicaron cuestionarios, esto como parte de la metodología supervisada. Dentro de la información de los cuestionarios se obtuvieron datos sobre; La afectación del manglar en hectáreas. Las hectáreas reforestadas.  Número y tipo de especies que se reforestaron.  El porcentaje de éxito. Señalamiento en el mapa base de, la parte reforestada. Una vez obtenidas las combinaciones  de las bandas se procederá a la obtención de las firmas espectrales. Para después poder determinar el análisis, así como hacer la comparación de las áreas afectadas y las áreas reforestadas, también poder rectificar si la reforestación ha tenido un porcentaje de éxito.


CONCLUSIONES

Después del paso de estos 2 huracanes, quiero analizar cómo el sistema trabajó y cuánto tiempo tardo en ser restaurado. Como conclusiones yo espero  tener como resultado, un análisis sobre la perdida de este manglar representado por medio de Imágenes satelitales y la combinación de bandas, así como el porcentaje de éxito de la reforestación. Ventanilla es una zona eco turística y su comunidad se mantiene de ello. Con mis resultados yo espero poder ayudar a esta comunidad para que ellos estén informados y sepan el impacto que tuvo este manglar por los dos Huracanes y que ellos puedan compartir esta información a los turistas y así tener más datos históricos del manglar.
Gómez Brito Jesús Fernando, Universidad de Guadalajara
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

EDUCACIóN MATEMáTICA


EDUCACIóN MATEMáTICA

Gómez Brito Jesús Fernando, Universidad de Guadalajara. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente los estudiantes en distintos niveles de educación no están interesados en la matemática debido a la falta de problemas aplicados en distintos contextos ya que al tener únicamente la teoría no encuentran manera de aplicar el conocimiento en la vida diaria es entonces donde empieza a existir un déficit de razonamiento lógico el cual afecta en cada decisión que se toma en distintos aspectos de la vida, sin tomar en cuenta las consecuencias que tendrá cada decisión.



METODOLOGÍA

Se realizó una investigación de los antecedentes históricos acerca de la aplicación de las matemáticas para resolver problemas de la vida cotidiana, esto con la finalidad de poder apreciar desde cuando se tenian este tipo de problemáticas, además se hizo estudio de teorías en el campo de pedagogía como la teoría de Piaget, teoría de Vigotsky, método de Pólya y la inclusión a un quinto paso en el mismo, esto con el objetivo de poder construir nuestra aportación que es el de crear un aparato de razonamiento basado en complementar el segundo paso del método de Pólya, también mostramos algunos ejemplos del campo de las ecuaciones diferenciales aplicados a problemas de la vida cotidiana o laboral con el fin de generar interés y finalmente para poner a prueba nuestro aporte teórico resolvimos problemas académicos en diferentes niveles (primaria, secundaria, universidad) y un problema de situaciones sociales con el mismo esto con la finalidad de mostrar el uso y la utilidad del mismo.


CONCLUSIONES

Podemos decir que para darle mayor relevancia a nuestro trabajo de investigación lo que correspondería hacer sería poner en práctica este modelo de razonamiento de distintos contextos y lugares, así como realizar estadística de que tan efectivo ha sido, por supuesto que la intención es darle seguimiento al mismo, con ayuda de la teoría de Vigostky pretendemos que éste trabajo pueda ser conocido por una gran comunidad para culturizar así como lo indica Vigotsky y que ello cause un impacto en nuestra sociedad aunque esto sea a largo plazo, desde el punto de vista personal el poder participar en este proyecto enriqueció mi concepto de aplicación de las herramientas matemáticas a la vida diaria ya que antes de conocer la métodologia de Polya o algunos de los elementos de la teoría de Vigotsky  la forma en la que utilizaba mi conocimiento de matemáticas muchas veces radicaba en la memorización de algún método o técnica que pueda ayudar a resolver cierto problema en específico sin analizar las posibles variantes que este puede conllevar, aunque con lo aprendido aquí seguimos resolviendo los problemas, puedo decir que se toma de manera más efectiva el camino para llegar a su solución, además puedo agregar que a partir de esta experiencia en el verano de investigación delfín 2019 cuando llegue el momento de compartir lo logrado aquí, procuraré hacer énfasis en la utilidad y la importancia del mismo ya que se aprende, "haciendo".
Gómez González Araly, Universidad de Guadalajara
Asesor: Dr. Astrid Lorena Giraldo Betancur, Centro de Investigación y de Estudios Avanzados (IPN)

INFLUENCIA DE LA TEMPERATURA Y EL TIEMPO DE SINTERIZACIóN DE BHAP OBTENIDA A PARTIR DE HUESO BOVINO


INFLUENCIA DE LA TEMPERATURA Y EL TIEMPO DE SINTERIZACIóN DE BHAP OBTENIDA A PARTIR DE HUESO BOVINO

Gómez González Araly, Universidad de Guadalajara. Vargas Navarro Luis Gabriel, Universidad de Guadalajara. Asesor: Dr. Astrid Lorena Giraldo Betancur, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La hidroxiapatita (HAp) es un material de alto interés en el sector biomédico considerando que es el principal componente mineral del hueso. Este puedo ser extraído de fuentes sintéticas a partir de reactivos en las proporciones indicadas; y, de fuentes naturales, donde usando biodesechos y llevando a cabo diferentes procesos, se eliminan los componentes orgánicos del material base y se conserva lo que comúnmente se conoce como bio-hidroxiapatita o BHAp. En este último caso, la  BHAp es un material de gran interés debido a que es química y térmicamente estable, al igual por su gran dureza y osteoconducción, las cuales son propiedades que le permiten tener un enlace químico con el tejido huésped.



METODOLOGÍA

Considerando la importancia de establecer los cambios físicos y químicos en función de la temperatura para una BHAp obtenida a partir de fuente de bovino, se realizó un estudio térmico determinando los cambios estructurales, morfológicos y de composición en función de la temperatura de tratamiento térmico y el tiempo. Este proceso llevó a cabo mediante un diseño de experimentos (DoE) factorial 22; para esto se usaron dos niveles: alto y bajo para las variables temperatura y tiempo. 


CONCLUSIONES

Las variables de respuesta evaluadas fueron cambios estructurales, morfología y composición, evaluados mediante difracción de rayos X (DRX) y espectroscopía infrarroja por transformada de Fourier (EITF), microscopía electrónica de barrido (MEB) y espectroscopia de energía dispersiva de rayos X (EEDX), respectivamente. Las respuestas obtenidas permitieron establecer que altas temperaturas y tiempos, favorecieron la aparición de fases en solución sólida dentro de la estructura de la BHAp, derivadas de los elementos presentes en la estructura primaria del material de partida. Durante estas siete semanas se realizaron dos revisiones, una a la mitad de la estancia y la otra al finalizar, que permitieron evaluar los avances y las conclusiones obtenidas durante la estancia.
Gómez González Guadalupe Raúl, Universidad Politécnica de Sinaloa
Asesor: Dr. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa

OBTENCIóN DE IMFP DE TAN A PARTIR DE ESPECTROS DE PéRDIDAS DE ENERGíA POR REFLEXIóN.


OBTENCIóN DE IMFP DE TAN A PARTIR DE ESPECTROS DE PéRDIDAS DE ENERGíA POR REFLEXIóN.

Gómez González Guadalupe Raúl, Universidad Politécnica de Sinaloa. Asesor: Dr. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el campo de las espectroscopías electrónicas es muy importante conocer los valores de camino libre medio inelástico (conocido como IMFP por sus siglas en inglés de Inelastic Mean Free Path) de los electrones cuando viajan por un sólido. Un error en los valores de IMFPs puede conducir a errores aún mayores en los análisis cuantitativos que se realicen en cualquier espectroscopía electrónica, ya que uno de los factores más importantes para este tipo de análisis es el IMFP.



METODOLOGÍA

Se utilizaron películas delgadas de nitruro de tantalio (TaN) sobre sustratos de silicio previamente sintetizadas por la técnica de ablación láser en un sistema Riber LDM-32. Se calcularon los valores de IMFP para el nitruro de tantalio en un intervalo de energías entre 200 y 2000 eV utiilizando los programas de cómputo OPREELS y QUASES. Los valores de IMFP fueron calculados a partir de las funciones de pérdidas de energías (Im{-1/e}) ajustando espectros teórico-experimentales del material de interés, los valores de energía primaria para el análisis cuantitativo de las espectroscopías de pérdida de energía fue de 1000 y 2000 eV.


CONCLUSIONES

Se obtuvieron comparaciones de la sección eficaz de dispersiones inelásticas simulada y experimental para energías primarias de 1000 y 2000 eV para TaN. Se calculó el camino libre medio inelástico λeff (Eo, x) como función de  la longitud x de la trayectoria recorrida por el electrón para dichos valors de energía primaria.  Como resultados futuros, se relizará un comparativo de los valores de IMFPs en términos de la ecuación de Bethe para las dispersiones inelásticas con la formula predictiva TPP2, con IMFPs que tienen presente efectos de superficies (λREELS) y con IMFPs cuando no se tienen en cuenta dichos efectos (λ∞).
Gómez Poot Francisco Israel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA


DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA

Cach Alonzo Armando Ivan, Consejo Quintanarroense de Ciencia y Tecnología. Gómez Poot Francisco Israel, Consejo Quintanarroense de Ciencia y Tecnología. Hernandez Emily Stephany, Consejo Quintanarroense de Ciencia y Tecnología. Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla. Tolentino Vazquez Erick, Universidad Autónoma de Guerrero. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua es un vital líquido utilizado no únicamente por el ser humano sino para todo el planeta. El 70% de la superficie de la tierra está cubierto de agua, sin embargo, del 30% de agua dulce tan solo el 1 % es adecuado para su uso humano. Más allá del impacto del crecimiento mismo de la población por causa del mal uso que se ha dado hay muchos países que tienen menos del agua que necesitan, hoy en día este recurso a tenido ciertas dificultades perdiendo el equilibrio entre la cantidad utilizada y la demanda. La escasez afectará a un tercio de la población y un impacto enorme en diferentes sectores económicos como son la producción de alimentos. Los sistemas de aprovechamiento de agua de lluvia son el resultado de las necesidades (demanda), recursos disponibles (precipitación, dinero para invertir y materiales de construcción), y las condiciones ambientales en cada región. Sólo cuando no existe red de agua potable, el suministro es deficiente o el agua tiene un costo muy alto, se piensa en buscar sistemas alternativos de abastecimiento, por ello la documentación sobre sistemas de aprovechamiento de aguas lluvias, se limita a las acciones realizadas en las últimas décadas en zonas del planeta con las deficiencias mencionadas anteriormente. (José Alejandro Ballén Suárez, 2006) La ciudad de Heroica Puebla de Zaragoza es la cuarta ciudad más poblada de México, está ubicada al centro del país y cuenta con una población de aproximadamente 1,576,259 millones de habitante (INEGI censo 2015) que cubren una superficie de 206 km2. Donde la precipitación media es de 827 mm por año siendo el mes de junio quien presenta una mayor precipitación de 158 milímetros. Esto es considerado una buena cantidad de líquido que puede ser empleado como un extra de recurso, toda la ciudad cuenta con los servicios básicos tales como energía eléctrica, alcantarillado y agua potable, sin embargo la ciudad presenta ciertas dificultades con la distribución de la misma y no permite abastecer en su totalidad, esta problemática va de la mano con las fuertes temperaturas de verano que generalmente varía de 6°C a 42°C  ante tal situación las personas  necesitan de un mayor consumo de agua.



METODOLOGÍA

En primer lugar, se investigó sobre los antecedentes a la propuesta de solución que se iba a crear, contemplando modelos antiguos de hace más de 4 mil años, como los del Desierto de Negev hasta implementaciones recientes, por ejemplo, el proyecto Belss-Luedecke-Strasse Building State en Berlín de 2006. Más adelante se realizó la investigación sobre la falta de agua potable en la ciudad de Puebla, Puebla, así como las propiedades que contiene el agua de lluvia, considerando los factores geográficos causantes de la lluvia característica de Puebla capital. Se investigó sobre las normas correspondientes de agua potable para consumo humano, asi mismo se realizó un primer acercamiento sobre una solución para utilizar el agua pluvial y transformarla en agua potable. Más adelante tomo lugar la búsqueda de los materiales y equipos seleccionados para elaborar un dispositivo de recolección de agua pluvial. Una vez teniendo la idea clara sobre la construcción del dispositivo dio paso a la cotización de materiales, cuales cubrían las necesidades, poniendo en la balanza costo-beneficio, puesto que se trata de un proyecto enfocado al sector popular en casa-habitación de 4 personas aproximadamente. Además, se visitaron casas de barrios populares en la ciudad de Puebla, encontrando retos particulares, como el espacio demasiado reducido entre casa y casa o las distribuciones de las pendientes para cada domicilio, por mencionar algunos. Por último, se implementó de manera digital el dispositivo en una casa modelo que se ajustaba perfectamente a nuestras condiciones iniciales y cumplía con tener una estructura común de un barrio popular. En esta se trabajó la implementación y cotización de materiales, así como su mano de obra, será generándola en 2 aspectos, la primera por un plomero o albañil, y la segunda tomando en cuenta que nosotros montaríamos el dispositivo de manera gratuita.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos sobre el agua pluvial, su utilidad y los problemas que enfrenta en la ciudad de Puebla, puesto que, a diferencia de otros estados o países, en esta ciudad se encuentran particularidades que representan un problema y una adecuación a cada vivienda, por otro lado, la presencia de un volcán activo cercano a la ciudad. Por último, tomando en cuenta que esto es únicamente teórico no se tiene la posibilidad de corroborar todos los análisis y resultados esperados, o si deben realizarse correcciones con el pasar del tiempo. Hubiera sido conveniente tener el capital necesario y tiempo para considerar los ajustes, pero, aunque no es posible, en base a las deducciones, se puede apostar por resultados exitosos.
Gómez Solís Moisés, Universidad de Colima
Asesor: Dr. Luis Javier Alvarez Noguera, Universidad Nacional Autónoma de México

PROCESAMIENTO DE SEñALES SíSMICAS, VOLCANES COMO SISTEMAS DINáMICOS


PROCESAMIENTO DE SEñALES SíSMICAS, VOLCANES COMO SISTEMAS DINáMICOS

Gómez Solís Moisés, Universidad de Colima. Asesor: Dr. Luis Javier Alvarez Noguera, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Un volcán puede ser considerado como un sistema dinámico, y cada una de las series de tiempo registradas de este, puede ser interpretado como alguna de sus observables. Teniendo esto en cuenta, teóricamente hablando, es posible extraer , incluso, de una sola de tiempo, información que describa el sistema de fondo que gobierna la dinámica del volcán. Esto se realiza a través de un método que se llama encaje , que esta basado en la idea intuitiva que la única serie de tiempo accesible, lleva consigo información acerca de la evolución temporal de los demás parámetros desconocidos, que no podemos muestrear u observar directamente. Llevar acabo este proceso de encaje requiere, primero, la estimación de parámetros claves, como lo son el tiempo optimo de retardo y la dimensión adecuada del encaje.    



METODOLOGÍA

2  Análisis Espectral El análisis espectral permanece como una de las principales técnicas de procesamiento de cualesquiera (conjunto de) series de tiempo. Las Transformadas de Fourier y sus variantes, proveen métodos para determinar la importancia de cada señal o banda de frecuencias en la construcción de cada señal. La transformada de Fourier asume ciertas condiciones de estacionaridad de la señal, y por lo tanto, provee información que describe la serie de tiempo en su totalidad, eliminado cualquier evolución temporal de su contenido de frecuencias. Esta suposición, para nuestros propósitos, no es apropiada o muy útil, y las soluciones clásicas que consisten en la separación de nuestra señal en intervalos de duración apropiada, para calcular el espectro de cada una, y ası́ , examinar como el contenido de las frecuencias cambia con el tiempo, esta construcción se conoce como espectrograma.   Una serie de tiempo, en general, puede ser considerada como un observable de algún sistema dinámico que describe el sistema fı́sico que ocurre de fondo, que nos interesa estudiar. En nuestro caso. un volcán puede ser, entonces, modelado bajo el formalismo de sistemas dinámicos, cuyo estado estado es representado por un vector de estado que envuelve al tiempo en el estado de fase, de acuerdo a algún conjunto de ecuaciones que determinen completamente el sistema y su comportamiento. El estado puede ser interpretado como toda la información necesaria que es requerida para saber el siguiente estado. Una vez que el estado está dado para algún tiempo conocido, el conjunto de ecuaciones determinaran (de aquı́ el nombre deterministico) completamente el estado, para otro tiempo futuro.   Por supuesto, en un sistema complejo como lo es un volcán, es muy optimista (si es que no, inocente), pensar que el estado de los vectores de estado, pueden completamente determinados y medidos, (p.ej.: en el caso real donde el vector no contiene toda la información necesaria para considerar al sistema como puramente deterministico). Tomando esto en cuenta, debemos ser cuidadosos a la hora de realizar la reconstrucción, de que la presencia de ruido externo, el uso de series de tiempo finitas plagadas de no-linealidades, y complejidades intrı́nsecas al sistema dinámico asociado a un volcán, vuelve esta implementación una tarea no fácil Si ~  x es un vector de estado que describe el sistema completamente para algún tiempo tn , la evolución discreto-determinista del sistema puede ser expresada por alguna función F tal que ~  x(tn+1 ) = F [~  x(tn )]  (1) La evolución de cada variable de estado depende también de la evolución de las demás, cada variable lleva consigo información no solo acerca de su propia historia, si no también de toda la historia dinamica de las demás variables, posiblemente, inlcuso de variables no medibles debido a que no existen sensores adecuados bajo disposición del experimentador. Bajo esta suposición, por lo tanto, este método es posible llevarlo acabo usando las mediciones de un solo observable, y puede ser usado para reconstruir y predecir la evolución de todo el sistema, en nuestro caso, la del volcán. Esta idea de reconstruir la evolución geométrica de trayectorias multi-dimensionales del estado de fase desde una sola serie de tiempo, fue desarrollada en los 80’s por Takens, Packard, Eckamn y Ruelle; durante su estudio sobre turbulencia de fluidos. El número de variables N (en otras palabras, sus grados de libertad), se conoce como la dimensión del sistema dinámico.  


CONCLUSIONES

4  Conclusiones El problema de monitorear un volcán activo y la predicción de sus estados futuros es uno de alta complejidad. Enfoques espectrales, dinámicos, y estocásticos ofrecen predicciones útiles, que no son necesariamente mutuamente excluyentes entre si, que pueden ser implementadas para describir las complexidades a estudiar. El problema principal de clasicar y predecir los estados de actividad permanece abierto y sin resolver. El ruido sı́smico y los temblores volcánicos son particularmente utiles ya que estos capturan cambios dinámicos en tiempo real; por ende, ofrecen una alta gama de aplicabilidad para el análisis con series de tiempo. Su análisis podrı́a señalar la existencia de existencia de diferentes, alternantes, régimes volcánicos, Pero, también cabe notar la influencia no-trivial proveniente de eventos tectónicos. La clave de la caracterización de los régimes volcánicos está en el procesamiento de la información y su reducción, enfocado principalmente a su segmentación en paquetes de mayor utilidad que pueden ayudar a la interpretación del sistema. Aunque aún estamos muy lejos de una solución defnitiva al problema de caracterización volcánica y predicción de erupciones, las herramientas presentadas aqui constituyen pasos importantes en esa dirección.  
González Figueroa Jorge Luis, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Dra. Elizeth Ramírez Álvarez, Universidad Autónoma de Chiapas

REDES NEURONALES PARA SISTEMAS DINáMICOS Y COMPLEJIDAD.


REDES NEURONALES PARA SISTEMAS DINáMICOS Y COMPLEJIDAD.

González Figueroa Jorge Luis, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Dra. Elizeth Ramírez Álvarez, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

Los sistemas complejos son fenómenos que son constituidos principalmente por colectivos de los cuales surgen propiedades. Las variaciones en la cantidad, valor y propiedades que estudia la complejidad cambian de manera no lineal. La no linealidad se manifiesta cuando en el modelo matemático se presentan exponentes distintos de uno. En otras palabras, los cambios de un sistema complejo no son constantes, no responden a una regla de proporcionalidad; en cambio tienden al caos. Estos sistemas requieren de diferentes metodologías para poder abordar, comprender y resolver los problemas. La mayor problemática al intentarlo es que el nivel de dificultad que se requiere para realizar tal tarea es que los recursos humanos empleados son en buena medida, ineficientes. Una prometedora herramienta, capaz de presentar avances en una solución, son las redes neuronales artificiales (RNA), sistemas que al tratar de emular las redes neuronales biológicas, son capaces de hacer cálculos iterativos para la aproximación de una predicción. El panorama de las redes neuronales es muy amplio al igual que las soluciones que presentan. El verano de investigación abordara un estudio introductorio a las RNA, así como el planteamiento de estudiar y conocer más a fondo la naturaleza de ellas y sus similitudes con las redes neuronales biológicas.



METODOLOGÍA

Las RNA son programas que emulan las conexiones existentes en las células neuronales biológicas. En el caso de estudio, se pretende estudiar dos distintos tipos de redes, la red neuronal de cuello de botella y una red de programación lineal frontal. El objetivo de la red neuronal de cuello de botella es lograr una compresión idónea de los datos que posteriormente se vuelven a descomprimir a manera de comprobación. La red neuronal de programación lineal frontal toma datos de entrada para tratar de predecir propiedades de salida. El proyecto principal fue utilizar las redes neuronales para trabajar sobre el experimento llamado gota palpitante de mercurio. El proyecto ha sido abordado con anterioridad, consiguiendo modelos que logren describir sus estados. Del proyecto anteriormente desarrollado se   obtuvo un banco de datos para alimentar la red de compresión de datos. Los datos se procesaron de la siguiente manera: Se obtuvieron fotografías secuenciadas a intervalos de tiempo fijos y voltajes fijos. Se modificaron las imágenes para que fueran una escala de grises. Posteriormente mediante programación  en Matlab, las imágenes se convirtieron en matrices de números que fueron promediadas con la finalidad de reducir la dimensión de la matriz de 480x720pp a 11x20 pp. Las matrices fueron recortadas para solo obtener los datos concernientes al contorno de la gota de mercurio. Los datos de la matriz fueron reacomodados en forma de vector Este procedimiento dejó como resultado un banco de información de 107 datos correspondiente a un voltaje y tiempo específico. En total fueron 31 imágenes por cada potencial en tres potenciales distintos. Inicialmente se intentó con 9 datos por potencial, los resultados arrojados mostraron que la función de error se estancó en un rango de 20-25%. Al momento de expandir la información, el error aumento a un rango de 50-60%. Durante la etapa de entrenamiento se observó que el éxito del mismo dependía de la cantidad de datos y de la semilla generadora de números aleatorios para la optimización de parámetros. Los parámetros obtenidos serán posteriormente evaluados para saber su fiabilidad. La segunda parte del proyecto consiste en operar con los datos comprimidos e introducirlos en la segunda red neuronal que sea capaz de tomar los datos y predecir el potencial al que fueron sometidas las gotas de mercurio. Como parte final de la investigación es dañar de alguna forma la red para evaluar si esta tiene algún tipo de plasticidad que permita a la red autocorregirse y en caso de que suceda así, comparar el tiempo necesario que le tomará a la red corregirse. Las maneras de daño son distintas, tales como modificar y alterar los parámetros deliberadamente o alterar los datos de entrenamiento.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos acerca del lenguaje de programación de las RNA, tratamiento de datos para usarlos de la forma más óptima. Se espera demostrar que la red es capaz de corregirse a sí misma. Se espera que los resultados arrojen similitudes con  los mecanismos de corrección del cerebro humano.
González Galindo Erik Alberto, Universidad Autónoma de Guerrero
Asesor: Dr. Sonia Alejandra Torres Sanchez, Universidad Autónoma de San Luis Potosí

RESULTADOS PRELIMINARES SOBRE LA PETROGRAFíA DE ROCAS GRANíTICAS Y METAMóRFICAS EN LA REGIóN DE UNIóN JUáREZ, CHIAPAS, MéXICO


RESULTADOS PRELIMINARES SOBRE LA PETROGRAFíA DE ROCAS GRANíTICAS Y METAMóRFICAS EN LA REGIóN DE UNIóN JUáREZ, CHIAPAS, MéXICO

González Galindo Erik Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Sonia Alejandra Torres Sanchez, Universidad Autónoma de San Luis Potosí



PLANTEAMIENTO DEL PROBLEMA

Los volcanes son estructuras formadas por aberturas o grietas de la corteza terrestre conectada a una cámara magmática por un conducto o chimenea; los materiales incandescentes, gases y vapor de agua se expulsan a través del cráter y se van depositando y solidificando alrededor, formando así al volcán (Francis P, 1994). Por sus características, estas estructuras cuando se encuentran activas llegan a representar un gran riesgo para los poblados cercanos, se debe tener en cuenta cual es el peligro que representa un volcán para los poblados aledaños a él, así la población y las autoridades sabrán las medidas que se deben tomar en caso de alguna actividad eruptiva.  El objetivo principal del proyecto es el de conocer la génesis de los granitos presentes en el volcán Tacaná así como el de también realizar una caracterización de las rocas metamórficas presentes en el sitio. Como parte de las actividades realizadas para alcanzar dichos objetivos se llevó a cabo la elaboración de láminas delgadas a partir de muestras de roca obtenidas en las inmediaciones del volcán Tacaná y la caracterización petrográfica de dichas muestras.



METODOLOGÍA

La realización de las láminas delgadas es mediante un método que consiste en cortar las rocas, pegarlas a un portaobjetos y adelgazarlas mediante desgaste en un vidrio con abrasivos, posteriormente se realiza su petrografía que consiste en describir todas las características de la roca observadas en la lámina delgada (textura, estructuras) mediante un microscopio petrográfico, y clasificarlas según su composición mineralógica.


CONCLUSIONES

Al conocer la génesis de las rocas que forman el basamento del volcán Tacaná, se puede entender la evolución y la naturaleza de los magmas y sus erupciones. Los resultados obtenidos contribuirían a la elaboración del mapa de peligros del volcán Tacaná, Chiapas y análisis para la prevención de riesgos.
González Gómez Kenia Nohemi, Universidad Autónoma de Tamaulipas
Asesor: M.C. Moisés Ricardo Miguel Aguilar, Universidad Autónoma de Tamaulipas

DESARROLLO DEL TALENTO EN MATEMáTICAS


DESARROLLO DEL TALENTO EN MATEMáTICAS

González Gómez Kenia Nohemi, Universidad Autónoma de Tamaulipas. Asesor: M.C. Moisés Ricardo Miguel Aguilar, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La identificación de niños y niñas estudiantes con capacidades sobresalientes en el área de las matemáticas ha sido, por décadas, un tema de estudio poco valorado por las autoridades educativas y medido a través de pruebas estandarizadas que arrojan valores carentes de justificación real entre el conocimiento matemático y el contexto social de cada estudiante.  Es por eso que este trabajo busca responder a las siguientes preguntas esenciales:   ¿Qué es el talento matemático y cómo identificarlo en los estudiantes?  ¿Qué elementos socioculturales y/o contextuales forman parte de la construcción social de conocimiento matemático? y ¿En qué forma estos elementos del contexto permean la construcción social del conocimiento matemático? 



METODOLOGÍA

Para responder las preguntas antes mencionadas, trabajamos en una investigación fundamentada sobre el desarrollo del talento en matemáticas, tomando la oportunidad para realizar encuestas a estudiantes catalogados y reconocidos como talentosos por su círculo social y por su institución educativa, que realicen su inscripción a la XXXIII Olimpiada Mexicana de Matemáticas (OMM) en Tamaulipas.  Para esto, se ha elaborado un instrumento que, respaldado por la Teoría Socioepistemológica de la Matemática Educativa (TSME) y la teoría del capital cultural, nos ayude a estudiar el contexto sociocultural de los estudiantes que ya son considerados como talentosos.


CONCLUSIONES

La información estudiada sobre el talento matemático en conjunto con el soporte teórico que nos brinda la teoría del capital cultural de Bourdieu, permiten observar en un panorama y con un criterio más amplio, cómo es que el capital cultural tiene efecto sobre el desarrollo del talento matemático, además de brindarnos la oportunidad de incursionar en la construcción social del conocimiento matemático. 
González Montoya Sofía, Universidad de Sonora
Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato

DARKOGéNESIS


DARKOGéNESIS

Gaytán Villarreal José Daniel, Universidad de Sonora. González Montoya Sofía, Universidad de Sonora. Mancilla Xinto Nestor Raul, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas de la física moderna en el área de física de partículas es tratar de explicar por qué existe más materia que antimateria. El surgimiento de la antimateria es producto de la ecuación de Dirac, formulada en 1928 donde predice la existencia de antipartículas además de las partículas conocidas. El problema se genera al pensar que justo después del Big bang el universo era simétrico, por lo cual debería existir la misma cantidad de materia que antimateria, esto provocaría que al entrar en contacto las partículas con las antipartículas éstas se aniquilen produciendo fotones, pero no es así, vemos que la cantidad de materia es mayor y por lo tanto el universo es asimétrico permitiendo la existencia de materia. Para intentar resolver este problema, existe el proceso físico llamado Bariogénesis, el cual trata de explicar la producción de la asimetría bariónica en el universo temprano dando lugar a modelos basados en las interacciones entre partículas fundamentales. El trabajo se enfocó en el modelo llamado Darkgenesis que genera la asimetría bariónica a través del sector de materia oscura, simultáneamente relacionándola con la densidad de materia oscura.



METODOLOGÍA

Parte del trabajo se enfocó en la construcción del lagrangiano del modelo estándar de física de partículas, por ello se comenzó por los principios de la mecánica cuántica relativista, la notación y convenciones utilizados. Para esto, primero se introdujeron las simetrías del sistema: la invarianza del marco de referencia inercial conocida como invarianza de Lorentz, las simetrías de paridad (P), conjugación de carga (C) e inversión de tiempo (T), y el conjunto de éstas, CPT. Se trabajó con la ecuación de Dirac para describir las partículas de spin 1/2 bajo las simetrías de paridad y conjugación de carga, introduciendo los términos de quiralidad y helicidad. Se trabajó en un lagrangiano que sea invariante bajo las simetrías globales de la teoría de grupos U(1) y SU(2). Después se utilizó el rompimiento de simetría espontánea para llegar al teorema de Goldstone, donde surgen partículas escalares sin masa llamados bosones de Goldstone. Con ayuda de la teoría de norma y el mecanismo de Higgs, éstos se convierten en bosones vectoriales masivos. Para comenzar a construir el lagrangiano del modelo estándar se necesitan al menos tres bosones, W+ , W- y ϒ, para esto se necesita el producto SU(2)xU(1) y tenemos cuatro bosones gauge, incluyendo a Z0 . El lagrangiano completo bajo la simetría SU(2)xU(1) se conforma por la parte invariante localmente, la parte fermiónica, el término de Yukawa y la parte invariante de gauge para escalares. Como primer paso se trabajó con el lagrangiano del doblete conformado por el electrón y su correspondiente neutrino para después generalizar a las tres familias de leptones, incluyendo este primer doblete como la primera generación, el muón y su neutrino como la segunda generación y finalmente el tau y su respectivo neutrino como la tercera generación, únicamente con cambios en el término de Yukawa. De aquí se extendió el modelo estándar para incluir a los quarks, de igual manera cambiando el lagrangiano fermiónico y el de Yukawa.  Una vez con el lagrangiano del modelo estándar completo se estudió sobre el proceso de bariogénesis, tomando en cuenta las condiciones de Sakharov necesarias para una asimetría entre materia y antimateria. Estas tres condiciones son la violación del número bariónico, las interacciones fuera del equilibrio térmico y la violación de C y CP (conjugación de carga y paridad).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de física de partículas, así como las herramientas matemáticas que nos permitieron desarrollar dichos conocimientos de una manera más técnica. Si bien no se contribuyó al desarrollo del modelo estándar, se revisó de manera íntegra la física que abarca; además, al realizar una suposición teórica que sobrepasa al modelo, se revisó lo que se considera física nueva, es decir,  la física más allá del modelo estándar, a partir de la realización del modelo bariónico ya mencionado, Darkogénesis.  Se espera, a partir de la investigación experimental llevada a cabo en los distintos aceleradores de partículas a lo largo del globo, llegar a resolver las cuestiones sin respuesta del modelo estándar, tales como la interacción gravitacional, la masa de los neutrinos, la energía oscura, la materia oscura, y, como se vio en el verano, la asimetría presente en el universo entre materia y antimateria.
González Padreñan Cindy Paola, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: C. Eliseo Amado González, Universidad de Pamplona (Colombia)

DETERMINACIóN DE íNDICES DE REFRACCIóN Y DENSIDAD DE MEZCLAS BINARIAS DE ACETATO DE ETILENDIOAMINA EN SOLUCIONES ACUOSAS A TEMPERATURA (298.15 A 313.15 K)


DETERMINACIóN DE íNDICES DE REFRACCIóN Y DENSIDAD DE MEZCLAS BINARIAS DE ACETATO DE ETILENDIOAMINA EN SOLUCIONES ACUOSAS A TEMPERATURA (298.15 A 313.15 K)

González Padreñan Cindy Paola, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: C. Eliseo Amado González, Universidad de Pamplona (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En el presente trabajo se realizaron mediciones del índice de refracción y la densidad de mezclas binarias tipo agua-líquido iónico a diferentes temperaturas. Estos datos se utilizaron para calcular el cambio de índice de refracción,   y VEm,  para mezclas binarias. Se pretende demostrar que el comportamiento de los índices de refracción y de la densidad está asociado con la interacción solvente-solvente en la formación de grupos. El índice de refracción y la densidad de los componentes puros y sus mezclas son una propiedad óptica de la materia, que permite controlar procesos en industrias químicas, petroquímicas y farmacéuticas y su importancia es bien conocida.  Entre las propiedades termofísicas, se espera que los índices de refracción del agua con líquido iónico en binario muestren un comportamiento complejo, debido a las interacciones intermoleculares. 



METODOLOGÍA

La metodología se realizó en dos partes que consistieron en una etapa de síntesis del líquido iónico y una etapa de medición de las propiedades fisicoquímicas  del líquido y de mezclas liquido/agua en diferentes fracciones molares y temperaturas. La síntesis se llevó a cabo con 10 ml de CH3COOH por 16 ml de NH(CH2CH2OH)2, De acuerdo a la relación estequiometrica 1:1 tomando en cuenta los valores de densidad 1.05 g/cm3 y 1.09 g/cm3  respectivamente.  El proceso para obtener la síntesis del líquido iónico se llevó a cabo durante 2 días, el goteo del ácido sobre la base fue cada 3:37 min., cuando finalizó la reacción se mantuvo en agitación 24 horas para poder comenzar con las mediciones y la preparación de mezclas agua-líquido iónico.  La densidad del líquido iónico puro se midió utilizando un picnómetro con un volumen de bulbo de aproximadamente 10 cm3 y un capilar con un diámetro interno de 1 mm. Primero, el picnómetro se calibró con agua destilada de densidad conocida, y luego se llenó con líquido iónico puro y se sumergió en un baño termostático. Se utilizó una cubierta para evitar que las muestras se absorban en agua o se volatilicen. Las mezclas se prepararon mezclando los volúmenes apropiados de líquidos en ampollas herméticas de vidrio especialmente diseñadas y se pesaron en una sola bandeja. Las pérdidas preferenciales de evaporación del disolvente de la mezcla se mantuvieron al mínimo, como lo demuestran las mediciones repetidas de las propiedades físicas durante un intervalo de 2 a 3 días, durante los cuales no se observaron cambios en las propiedades físicas.  El índice de refracción para el líquido iónico se midió utilizando el refractómetro de Abbe. El refractómetro se calibró midiendo el índice de refracción de las temperaturas del agua destilada. Las mezclas de muestras se inyectaron directamente en el conjunto de prisma del instrumento por medio de una jeringa hipodérmica hermética. Se tomó un promedio de tres a cinco mediciones para una mezcla de muestra. El origen y nuestros valores medidos a temperaturas de dos propiedades físicas de los compuestos puros, las densidades y el índice de refracción.


CONCLUSIONES

Se ha determinado desde medidas experimentales de índice de refracción y densidad el cambio de índice de refracción y volumen de exceso de molar de la mezcla binaria agua + acetato de etilendioamina. Las mediciones del índice de refracción en temperaturas para la mezcla binaria (agua + acetato de etilendioamina), las desviaciones del índice de refracción fueron calculadas a partir de los datos experimentales del índice de refracción que se ajustan de manera apropiada con el refractómetro para mezclas binarias. En la mezcla binaria estudiada los factores que influyen en la magnitud del cambio de índice de refracción y volumen de exceso molar son la diferencia en la forma, tamaño y polaridad de las moléculas, cambios en la estructura y orientación en las moléculas, modificación de las fuerzas intermoleculares existentes. Con respecto al volumen de exceso molar, se puede concluir que los resultados obtenidos pueden explicarse por la acción de dos mecanismos físicos diferentes e independientes, en primer lugar a la modificación del empaquetamiento molecular como consecuencia de los distintos tamaños y formas de los componentes y en segundo lugar a la existencia de nuevas interacciones moleculares cuando dos componentes de la muestra entran en contacto.  Los resultados para el cambio de índice de refracción representan los cambios del comportamiento óptico de las mezclas líquidas debidos a perturbaciones electrónicas durante el proceso de mezcla.
González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
Gonzalez Soria Rodolfo, Instituto Tecnológico Superior Purépecha
Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León

PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACIóN, TRATAMIENTOS POST-DEPóSITO Y CARACTERIZACIóN)


PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACIóN, TRATAMIENTOS POST-DEPóSITO Y CARACTERIZACIóN)

Aviles Cardos Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología. Gijón Vázquez Mildred Valeria, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Gonzalez Soria Rodolfo, Instituto Tecnológico Superior Purépecha. Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La energía es indispensable en nuestra vida cotidiana, y el Sol es una fuente de luz y energía esencial en el desarrollo de nuestra vida y de todo ser vivo en nuestro planeta. Por medio de los rayos solares podemos obtener la energía suficiente para el funcionamiento de los aparatos electrónicos que se pueden encontrar dentro de la Institución y en ésta ocasión se podría alimentar también sistemas de iluminación, de una manera favorable al medioambiente.



METODOLOGÍA

Para la técnica de depósito de películas por baño químico, uno de los requisitos es que los sustratos en los que se depositarán las películas estén completamente limpios y sin impurezas que puedan afectar el resultado final del experimento y se adhiera de forma correcta la solución a los sustratos. Se realiza la limpieza de los sustratos, con jabón neutro  y agua,  de modo que estos queden limpios. Secando los sustratos con una secadora para eliminar toda humedad que conserven los sustratos. Hecho todo esto los sustratos deberán quedar totalmente transparentes y sin manchas visibles. Para la preparación solución para el baño químico son necesarios los siguientes reactivos: 1 gr. de SnCl22H2O y Disolver en 5 ml. de Acetona SnCl22H2O. Disolver la sal con la acetona por completo antes de agregar los siguientes reactivos. 12 ml. de (TEA) al 50%, 65 ml. de  destilado, 8 ml. de (TA) 1 mol y 10 ml. de Hidróxido de amonio (acuoso) 4 mol. Los reactivos deben ser agregados uno a uno y en el orden en el que están descritos. Una vez preparada la solución que se utilizara, los sustratos ya limpios se acomodaran en un vaso de precipitado de 100 ml, se acomodaran 6 sustratos por cada vaso de precipitado, los sustratos se tendrán que acomodar de una manera en la que queden ligeramente inclinados, ya que la cara del sustrato donde se depositara será la cara de abajo. Se utilizará una máquina para baños de recirculación PolyScience la cual se programará a 40º y se esperara a que la temperatura del interior llegue a la deseada, una vez alcanzada la temperatura se introducirán los vasos de precipitados con los sustratos a la máquina y se tapara. Los tiempos de baño serán de 8h y 17h, se harán 6 muestras de 8h y 6 muestras de 17h. Una vez transcurrido y terminado el tiempo de baño, las muestras se sacarán, se lavarán con agua destilada y se secaran con aire frio. Cuando las muestras estén secas, se tomarán y con un paño con alcohol por el lado donde no hay película depositada se limpiara, cuidando siempre el lado donde hay película depositas. Cabe destacar que desde este paso en adelante es bueno tener siempre identificadas las muestras para que posteriormente no se revuelvan, se recomienda no marcar las muestras con plumón o pincel ya que algunos procesos futuros podrían borrarlos. Ya listas las películas de sulfuro de estaño lo siguiente es doparlas con cobre, para esto se utilizará la maquina (nombre de la maquina). Las muestras se pondrán en un disco el cual se encuentra en el interior, se colocarán con la película hacia la parte de arriba y una vez las muestras colocadas, la puerta se cerrará y se sellará al vacío a un valor de, la maquina empezará a evaporar el cobre, esto se logrará gracias a la corriente y el voltaje que la maquina aplica al cobre para fundirlo. Una vez realizado el dopaje de cobre las muestras se hornearán. El horno de vacío que se implementó para este proceso fue un TM Vacuum products V/IG-803-14, su temperatura con la que se puede trabajar, va desde la temperatura ambiente hasta los 400°C, e incorporando cualquier grado de ambiente de vacío desde la atmósfera hasta 10 -8 torr. Los hornos de vacío de la serie V / IG tienen una cámara que tiene un diseño de "pared caliente", que permite la utilización completa del interior de la cámara de vacío, maximizando la capacidad de carga. Los hornos de vacío mantienen una temperatura de procesamiento estable en el interior de la cámara en todo momento, también ofrece ofrecen válvulas estándar de llenado y ventilación de gas inerte que permiten varios tipos de procesamiento de piezas utilizando un entorno de relleno de gas. Con el PLC de pantalla táctil estándar, el funcionamiento del sistema está completamente automatizado con el registro de datos de los parámetros del proceso. Al tener las películas ya colocadas en las placas Petri, se registrará su ubicación dentro del horno para así evitar confusiones debido a las altas temperaturas que se manejaran y esto hará que, si la película fue marcada con algún plumón de aceite, automáticamente la marca se evaporizara. Ya introducidas las muestras y verificar que la cámara este bien cerrada, se encenderá la bomba mecánica que producirá el vacío, y esperaremos hasta que la cámara llegue a un vacío de 10 -3 torr. Después se tendrá que fijar la temperatura del horneado que manejaremos a 300°C y 400°C con el display que se encuentra en el lado izquierda del horno. El factor tiempo correrá al llegar a la temperatura de 290°C y 390°C y al trascurrir una hora, se apagará el horno y las películas se extraerán hasta que el horno llegue a una temperatura de 50°C y así evitar un choque térmico por la diferencia de temperaturas. El proceso de enfriado de la cámara tiene un lapso de 3 horas. CARACTERIZACIÓN Caracterizacion por SEM, Caracterización por Raman, Caracterización de propiedades ópticas y electricas y Caracterización por XPS.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos. Se puede concluir que, en el trabajo presentado, se obtuvieron resultados esperados según los tratamientos que se llevaron a cabo (tratamiento químico y térmico). La variación del tiempo y de la temperatura con la que se trataron las muestras, mostró cambios importantes en la estructura del SnS:Cu los cuales se pudieron observar con la caracterización en el SEM. Agradecemos previamente al programa Delfín y al Dr. David Avellaneda por habernos brindado esta oportunidad de vivir la experiencia en la investigación.
Gonzalez Vargas Mirza, Universidad Autónoma de Guerrero
Asesor: Dr. Víctor Manuel Hernández Madrigal, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO SOBRE LA MORFOMETRÍA Y MORFOLOGÍA DEL FLUJO DE DETRITOS DEL CERRO GUADALUPE (ANGANGUEO, MICHOACÁN) APLICANDO LA TÉCNICA DEL ESCÁNER LASER TERRESTRE


ESTUDIO SOBRE LA MORFOMETRÍA Y MORFOLOGÍA DEL FLUJO DE DETRITOS DEL CERRO GUADALUPE (ANGANGUEO, MICHOACÁN) APLICANDO LA TÉCNICA DEL ESCÁNER LASER TERRESTRE

Gonzalez Vargas Mirza, Universidad Autónoma de Guerrero. Asesor: Dr. Víctor Manuel Hernández Madrigal, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En el municipio de Angangueo, (Mich.) en 2010, se presentaron lluvias atípicas durante los días 2 al 4 de febrero, dicho evento desencadenó  un deslizamiento traslacional que evolucionó a un flujo de detritos teniendo lugar en el cerro Guadalupe, lo cual provocó pérdidas económicas así como también humanas. Tras los eventos climatológicos atípicos que originaron los deslizamientos de tierra en la comunidad de Angangueo, el área tuvo que ser decretada como Zona de Desastre según la normatividad correspondiente (Secretaría de Gobernación, 2012).  A pesar de lo anterior, no se cuenta con una descripción morfométrica y morfológica del flujo de detritos a detalle. 



METODOLOGÍA

Durante la primera semana se revisaron los antecedentes relacionados al proyecto y se complementaron con lecturas de libros y artículos pertenecientes a esa área. ADQUISICIÓN DE DATOS: Se visitó al área de estudio, Angangueo, (Mich.) y se realizó un reconocimiento de la zona del deslizamiento que tuvo lugar en el cerro  Guadalupe, para el registro de la nube de puntos se utilizó el Escáner Laser Terrestre RIEGL modelo VZ 1000. La adquisición de la nube de puntos se realizó con una resolución angular de .04º, una frecuencia de 150 KHz para alcanzar distancias de hasta 950 m. La nube de puntos adquirida tuvo un total de 22511501 puntos, todo lo anterior con ayuda se software RISCAN PRO  PROCESAMIENTO DE LA NUBE DE PUNTOS: Como primer paso se realizó la clasificación de la nube de puntos con el programa Global Mapper, posteriormente se realizó un modelo de elevaciones a partir del cual se generaron las curvas de nivel y un perfil topográfico, este mismo procedimiento se repitió con el programa 3Dreshaper con el objetivo de comparar calidades con respecto al modelo de elevación. El perfil topográfico fue editado posteriormente en el programa Corel Draw para la construcción de un perfil geológico.   ANÁLISIS:  Con ayuda del modelo de elevaciones se cartografiaron los elementos morfológicos del flujo de detritos: zona de desprendimiento, canal de traslado y zona de depósito. Además se obtuvieron los siguientes elementos morfométricos: desnivel topográfico de 222 m, longitud de 410 m lo cual da un coeficiente equivale de fricción (h/l) de 0.5. Con apoyo del programa ArcMap se calculó el área de desprendimiento y con una profundidad promedio de 2 metros se obtuvo un volumen de 2230 m3. Finalmente se hizo uso de imágenes de satélite históricas de Google Earth mediante las cuales se identificaron las viviendas sepultadas por el depósito de este flujo   


CONCLUSIONES

Durante la estancia en el verano se logró adquirir conocimientos teóricos acerca de los diversos procesos de remoción en masa y el funcionamiento de la técnica del Escáner Laser Terrestre, los cuales fueron llevados a la práctica obteniendo como resultado el  análisis de las de las características  de la morfología y morfometria del flujo de detritos en Angangueo, (Mich.), así como también el impacto que tuvo en la población
González Velázquez Karen Guadalupe, Instituto Tecnológico de Culiacán
Asesor: Dr. María Luisa Cruz López, Universidad Panamericana, Campus Guadalajara

SIMULACIóN DEL EFECTO DE DIVERSOS RUIDOS EN HOLOGRAMAS DE FOURIER Y FRESNEL


SIMULACIóN DEL EFECTO DE DIVERSOS RUIDOS EN HOLOGRAMAS DE FOURIER Y FRESNEL

González Velázquez Karen Guadalupe, Instituto Tecnológico de Culiacán. Asesor: Dr. María Luisa Cruz López, Universidad Panamericana, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hologramas generados por computadora Los hologramas generados por computadora se crean por medio de distintos modelos matemáticos y físicos implementados en un programa. El holograma se despliega en un modulador espacial de luz (SLM) que se ilumina con un láser y se reconstruye una imagen deseada, puede ser 2D o 3D.  Para esta investigación se revisó la literatura referente a los conceptos básicos de holografía y hologramas de Fourier. Se implementaron las rutinas en Matlab para la generación de hologramas de Fourier y Fresnel. A estos hologramas se les agregó 4 diferentes tipos de ruido para analizar los resultados y la calidad de las imágenes reconstruidas. Los ruidos utilizados son: uniformemente distribuido, normalmente distribuido, pink, brown y perlin. Cada ruido se implementó en las dos variaciones de hologramas: Fourier y Fresnel. Por cada tipo de holograma se usaron tres codificaciones diferentes. En ambos casos de generaron hologramas por amplitud y de fase. En el caso de los hologramas de fase se codificaron usando dos métodos: por codificación de campo complejo y Kinoform.



METODOLOGÍA

Hologramas de Fourier Se realizaron múltiples simulaciones de Fourier, haciendo pruebas del efecto de los diferentes ruidos en la fase. Se usaron fases estructuradas y no estructuradas, generando gráficas de las métricas de SNR y PSNR de la calidad resultante de las imágenes reconstruidas en las distintas iteraciones.  Hologramas de Fresnel Se implementaron las rutinas de hologramas de Fresnel en el programa de Matlab, para realizar simulaciones y experimentos con este tipo de holograma. También se generaron las gráficas de las métricas mencionadas antes, donde se podía observar los cambios de calidad de imagen. Hologramas Fourier: Rainbow También se trabajó en la implementación de hologramas rainbow utilizando C++ y OpenCV.


CONCLUSIONES

A partir de los hologramas de Fourier y Fresnel, se realizaron distintas tareas para analizar las imágenes reconstruidas, haciendo pruebas con distintos valores y ruidos para revisar la eficiencia de los métodos utilizados y las diferencias entre los rangos de fase. Se implementaron 3 aproximaciones de propagación: Fresnel-Kirchoff Fresnel Fraunhofer A cada aproximación se le analizó con distintas métricas como SNR, PSNR, eficiencia, promedio, contraste y desviación estándar, para observar los resultados junto con las imágenes reconstruidas y poder revisar el efecto que causaban los distintos ruidos. Se generaron más de 60 gráficas por cada tipo de holograma, así como bitácoras de resultados de Fresnel y Fourier, con alrededor de 50 imágenes de reconstrucciones. Logramos realizar experimentos con algunos de los hologramas generados por computadora haciendo uso del modulador y láser del laboratorio, obteniendo la imagen reconstruida que se trabajó con los programas mencionados.
Guerra Santiago Marlene Viridiana, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Miguel Vargas Luna, Universidad de Guanajuato

COMPARACIóN DE LA SEñAL ACúSTICA DE LA REGIóN ABDOMINAL CON LA SEñAL DE ELECTROGASTOGRAFíA E IMPEDANCIA ELéCTRICA EN EL MONITOREO DE LA ACTIVIDAD GáSTRICA


COMPARACIóN DE LA SEñAL ACúSTICA DE LA REGIóN ABDOMINAL CON LA SEñAL DE ELECTROGASTOGRAFíA E IMPEDANCIA ELéCTRICA EN EL MONITOREO DE LA ACTIVIDAD GáSTRICA

Guerra Santiago Marlene Viridiana, Benemérita Universidad Autónoma de Puebla. Lázaro García Jesús Salvador, Instituto Politécnico Nacional. Salazar Zárate Azalea Esmeralda, Universidad Veracruzana. Asesor: Dr. Francisco Miguel Vargas Luna, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El estómago es un  órgano hueco localizado en la cavidad abdominal debajo del hígado y al costado izquierdo del cuerpo que se encarga de recibir los alimentos, mezclarlos con los jugos gástricos y volverlos aptos para ser recibidos por el intestino delgado. El estómago experimenta movimientos de contracción y dilatación (movimientos peristálticos) para cumplir las funciones antes descritas. Estos movimientos en conjunto se denominan motilidad gastrointestinal la cual se produce debido a potenciales de acción generados en las diversas células del tracto digestivo. Estos potenciales generan, tanto en el cuerpo distal como en el antro, dos tipos de actividad eléctrica. La primera actividad se denomina onda lenta que ocurre en intervalos regulares de 20 segundos. La segunda actividad se denomina potencial de espiga de contracción muscular fuerte con un tiempo de duración de 2-3 segundos y que se superpone a la onda lenta. Para poder monitorear la actividad gástrica es común utilizar la electrogastrofía superficial o impedancia bioeléctrica. En clínica el especialista comúnmente utiliza una técnica acústica con ayuda del estetoscopio para evaluar dicha actividad. Con la electrogastrofía se obtienen señales provenientes de una zona extensa, generalmente de todo el antro, debido a su característica de desplazamiento, se obtiene una señal de tipo sinusoidal, la que puede ser procesada a través de un programa computacional denominado "fast fourier transform", especialmente adaptado. Uno de los mayores retos al utilizar cualquiera de las tres técnicas mencionadas es poder interpretar la señal obtenida después de un procesamiento adecuado. Uno de los problemas es que existe superposición de señales similares de diferentes regiones en el sistema gástrico u otros sistemas tales como cardiovascular, respiratorio, etc. que aparecen durante las mediciones. Así mismo las señales provienen de diferentes fenómenos físicos (eléctrico, mecánico y acústico), existiendo cierta controversia en cuanto a su equivalencia y utilidad como método de diagnóstico.



METODOLOGÍA

Sujetos: Se trabajó con un grupo de sujetos sanos de 10 personas de entre 20 y 25 años constituido por 3 mujeres y 7 hombres. A los voluntarios se les cuestionó sobre su salud gastrointestinal reciente o alguna otra afección que pudiera comprometer su función gastrointestinal. Por ser un estudio comparativo no se solicitó ninguna condición particular previa a la medición (ayuno, actividad física, etc.). Los voluntarios firmaron un formato de consentimiento informado después de haber sido informados a detalle del proyecto. Procedimiento: Para cada medición realizada se utilizó una configuración de 4 electrodos para la técnica de bio-impedancia de los cuales se colocaron dos en la cavidad abdominal y dos en la espalda, para poder inyectar en dos de ellos una pequeña corriente eléctrica (<1mA) y medir el voltaje en los otros electrodos. Para colocar los electrodos se tomó como referencia el punto medio entre la apófisis xifoides y la cicatriz umbilical sobre la línea media sagital donde se coloca el primer electrodo. El segundo electrodo se coloca a 5cm de distancia y con un ángulo aproximado de 45° sobre la horizontal. A la misma altura y con proyección hacia la parte posterior se colocan los dos electrodos restantes. Para trabajar con electrogastorgrafía se colocan de igual manera dos electrodos a una separación de 1cm aproximadamente de los electrodos frontales de impedancia con una solución electrolítica y una referencia en el costado izquierdo. En la cavidad abdominal entre los dos electrodos principales, se colocó un pequeño micrófono para evaluar la señal acústica producida durante la motilidad; este se colocó con gel para minimizar la diferencia de impedancia acústica. Las mediciones de bio-impedancia, electrogastografía y audio se llevaron a cabo de manera simultánea, durante un lapso de 30min a través de un sistema de BIOPAC y los módulos correspondientes. Procesamiento de señales: Para poder llevar a cabo el tratamiento de las señales se emplearon filtros FFT y Butterworth pasa banda de 0.5 a 9cpm para poder observar la señal de interés y descartar artefactos debido a: perfusión sanguínea, respiración, movimientos corporales, etc. evaluando la motilidad gástrica en la región normogastrica de 2 a 4 cpm. Estadística: Se tomaron en cuenta parámetros como la frecuencia del pico máximo, su potencia, el área bajo el espectro FFT de la región normogastrica. Se realizaron pruebas de normalidad y se hizo estadistica comparativa pareada de dichos parametros obtenidos en cada una de las tres técnicas mencionadas.  


CONCLUSIONES

Se realizaron pruebas de normalidad de Shapiro-Wilk obteniendo que algunas variables no presentan distribucion normal, por lo que se trabajó con pruebas no parametricas. Mediante la prueba de rangos con signos de Wilcoxon se encontró que la frecuencia en la región normogástrica es estadísticamente igual para las tres metodologías, teniendo un valor de 2.6 cpm, observando una mayor dispersión con la técnica de impedancia bioeléctrica. La actividad en las regiones normo y taquigástrica comparadas por medio del área bajo el espectro FFT o bien por el comportamiento de las ondas lentas son estadisticamente iguales para el caso de electrogastografía e impedancia eléctrica. En el caso de la actividad de la señal acústica se observa un incremento en frecuencias altas y una disminución en frecuencias correspondientes a la normogastria. El método acústico es útil para evaluar la frecuencia dominante en la región normal,necesitando más investigación si el objetivo de estudio se centra en la actividad de la región taquigastrica.
Guerrero González Jonhatan Uriel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Heinz Joachim Andernach, Universidad de Guanajuato

CONTINUACIÓN DE BÚSQUEDA DE RADIOGALAXIAS GRANDES EN EL RASTREO VLASS ALREDEDOR DEL POLO NORTE.


CONTINUACIÓN DE BÚSQUEDA DE RADIOGALAXIAS GRANDES EN EL RASTREO VLASS ALREDEDOR DEL POLO NORTE.

Guerrero González Jonhatan Uriel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Heinz Joachim Andernach, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Desde hace unos 50 años se sabe que la mayoría de las radiofuentes celestes provienen de las llamadas radiogalaxias (RGs) y cuásares (QSOs), los cuales tienen una luminosidad en radio tan alta que se pueden detectar hasta distancias mucho mayores que los objetos más débiles en los rastreos ópticos disponibles. En el presente proyecto se aprovecha de un nuevo rastreo del cielo en ondas de radio llamado "Very Large Array Sky Survey" (VLASS) para identificar todas las radiogalaxias extendidas dentro de 26 grados del polo norte celeste, una zona poco estudiado con recientes rastreos en radio sensibles y de alta resolución angular como ha sido el rastreo FIRST.  En especial se pretende hacer un catálogo completo de radiogalaxias con una extensión angular mayor de medio minuto de arco y con base en una identificación óptica derivar su tamaño físico.



METODOLOGÍA

Mediante una inspección visual de unos 2200 grados cuadrados de imágenes del rastreo VLASS, hecho por el asesor en abril 2018, se registraron las posiciones de unos 2661 candidatos a radiofuentes extendidas. Las posiciones se dividen entre unas dos terceras partes más precisos los cuales cuentan con en la presencia de un núcleo compacto rodeado de emisión difusa, y el otro tercio con precisión menor por la ausencia de tal núcleo. Para las posiciones precisas se hizo una búsqueda de objetos coincidentes (usando el servicio VizieR del centro de datos astronómicos, CDS) en rastreos ópticos (como el SDSS y PanSTARRS) e infrarrojo (AllWISE), lo cual permite también una estimación de su distancia, p.e. mediante su brillo aparente en estas bandas o con base en corrimientos al rojo fotométricos publicados en varios catálogos. Con ayuda de imágenes de rastreos en radio de menor resolución angular, aunque más sensibles para emisión difusa, como son el NVSS y TGSS, se clasificó cada una de los candidatos en radiogalaxias físicas o en caso contrario rechazándolos como fuente extendida. Para el caso de las posiciones de menor precisión (típicamente la posición central entre dos regiones difusas) se tuvo que buscar el huésped óptico y/o infrarrojo mediante una búsqueda en un radio de aproximadamente un cuarto de la extensión total de la fuente, para permitir una cierta asimetría de los radiolóbulos. Se recopiló en una tabla coherente toda la información sobre la radiofuente (p.e. su tamaño angular) y de su huésped, como su posición en coordenadas ecuatoriales, brillo en óptico e infrarrojo, corrimiento al rojo si fuera disponible y comentarios sobre peculiaridades. Debido a la escasez de objetos con corrimientos al rojo fotométricos en esta zona, se tuvo que estimar de manera "cruda" este corrimiento para la mayoría de los huéspedes.


CONCLUSIONES

Hasta el momento, e incluyendo los resultados del verano de investigación de 2018, se estudiaron 1847 objetos, de los cuales fueron hallados 34 radio galaxias gigantes (los que tienen un tamaño lineal proyectado mayor a 1 mega parsec) además de 134 radiogalaxias mayores a 0.7 mega parsec, tamaño considerado por algunos autores como "gigante", haciendo así un verano de investigación productivo y exitoso. Las 168 fuentes antes mencionadas, aún no han sido publicadas en la literatura, y se está planeando publicarlos en una revista arbitrada internacionalmente. Cabe destacar que, gracias a este, mi segundo verano de investigación científica he conseguido aprender mucho más del campo astronómico y divulgativo, así como diferentes técnicas computacionales en sistemas operativos que no había utilizado antes, que inclusive me han gustado más que el que usualmente usaba.
Guerrero Jacinto Zahira, Universidad Autónoma del Estado de México
Asesor: Dr. Alberto Sánchez González, Centro Interdisciplinario de Ciencias Marinas (IPN)

PALEOCEANOGRAFÍA


PALEOCEANOGRAFÍA

Guerrero Jacinto Zahira, Universidad Autónoma del Estado de México. Asesor: Dr. Alberto Sánchez González, Centro Interdisciplinario de Ciencias Marinas (IPN)



PLANTEAMIENTO DEL PROBLEMA

La paleoceanografía es el estudio de la evolución en los océanos considerándolos como un sistema cerrado analizando el movimiento de las masas de agua, tanto de la circulación superficial y de aguas profundas. Contribuye a recrear la historia de la productividad biogénica y su distribución de sedimentos. La distribución de foraminíferos plantónicos son una herramienta para ser utilizada como trazadores ambientales, registran con bastante precisión en sus conchas la salinidad y temperatura de las aguas, por lo que son excelentes indicadores paleoclimáticos. Para fines de esta investigación se pretende determinar la influencia de la Circulación  Atlántica Meridional de Retorno en la zona de Campeche de acuerdo al incremento o decremento de foraminíferos planctónicos. Esta corriente es importante para el intercambio de calor entre el océano y la atmosfera, se puede interpretar que la fuerza variable de este sistema tiene un impacto importante en el clima global y ha estado implicado en algunos cambios notables y abruptos en el pasado.



METODOLOGÍA

Se empleó el proceso de tamizado con hexametafosfato al 2% en muestras de sedimentos obtenidas del crucero HOLOVAR, del año 2011 dentro de la zona de Campeche; separando 5gr de sedimento de cada sección del núcleo, posterior a eso las muestras se secaron en un horno a 45°C para obtener una muestra seca. Una vez seca la muestra es posible observar los organismos a través del microscopio, con el fin de determinar la cantidad de foraminíferos presentes de acuerdo a la profundidad en que se extrajeron.


CONCLUSIONES

Al analizar las muestras a través del microscopio se observaron especies de foraminíferos planctónicos tales como globigerinina,la cual es abundante en el ecosistema marino. Además de la identificación de foraminiferos,  hay presencia de microplásticos, situación que no se contemplaba en la investigación, aspecto que da una nueva dirección al proyecto, dado que puede involucrar cuestiones de salud marina e incluso humana, por las relaciones que existen entre las cadenas tróficas.
Gutierrez Guevara Eduardo, Universidad de La Salle Bajío
Asesor: M.C. Dixon Salcedo Morillo, Universidad de la Costa (Colombia)

ANALISIS


ANALISIS

Gutierrez Guevara Eduardo, Universidad de La Salle Bajío. Asesor: M.C. Dixon Salcedo Morillo, Universidad de la Costa (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Existen varias herramientas que se pueden utilizar dependiendo el entorno y el problema presentado por el ancho de banda y el tráfico de datos. Se probará, realizará una tabulación de datos de cada herramienta con su respectiva gráfica  se concluirá con la más apta para un trabajo de calidad de red.



METODOLOGÍA

Introducción a terminología de código de Linux Instalación de herramientas Realizar pruebas y tabular los datos obtenidos De acuerdo a los datos obtenidos, realizar una gráfica comparativa de cada uno


CONCLUSIONES

Probando dichas herramientas, logramos llegar a una conclusión dentro del laboratorio la cual a través vez de tabular y traficar los resultados de los programas, observamos que la que tiene mayor eficacia y eficiencia es Iperf, sus tiempos son cortos a comparación de Pathload y su exactitud con el ancho de banda mejor que Traceband. Destacando lo mencionado anteriormente, podemos decir que Iperf es la herramienta que se acopla perfectamente al evaluar un servicio de red.
Guzmán Atanacio Amayranny, Universidad Autónoma del Estado de México
Asesor: Dr. Vyacheslav Moisseevitch Zobin Peremanova, Universidad de Colima

LA ACTIVIDAD EXPLOSIVA DEL VOLCáN DE COLIMA, ANTES DE LA EXTRUSIóN DE LAVA EN SEPTIEMBRE DE 2004.


LA ACTIVIDAD EXPLOSIVA DEL VOLCáN DE COLIMA, ANTES DE LA EXTRUSIóN DE LAVA EN SEPTIEMBRE DE 2004.

Guzmán Atanacio Amayranny, Universidad Autónoma del Estado de México. Asesor: Dr. Vyacheslav Moisseevitch Zobin Peremanova, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La actividad eruptiva del Volcán de Colima se ha dividido en tres etapas desde 1997 hasta el 2006, sin embargo, para este estudio se ha tomado la del 2004. Este episodio se caracterizó por la extrusión de lava andesítica que se dio entre septiembre y noviembre por el volcán, así como una actividad explosiva intermitente caracterizada por pequeñas explosiones vulcanianas de ceniza y vapor. A través de señales sísmicas, se pretende caracterizar cómo fue la actividad explosiva en los meses de agosto y septiembre; antes de la extrusión de lava en septiembre de 2004.



METODOLOGÍA

Para este proyecto se hizo uso de los registros sísmicos de explosiones que se observaron en la estación EZ5V desde agosto a septiembre del 2004. Este periodo corresponde a la actividad explosiva del Volcán de Colima, que se dio antes de la extrusión de lava en septiembre de 2004. Así mismo, se basó  el proyecto en el modelo conceptual de las explosiones volcánicas en los volcanes andesiticos y la estructura de la señal sísmica asociada (Zobin et al., 2008).. Este modelo representa el movimiento del magma fragmentado (u onda de fragmentación) en el conducto del volcán que genera una explosión en el nivel de explosión cerca del cráter. Finalmente, para la estimación de la energía se basa en el teorema de Parseval (Weaver, 1983) donde afirma que es posible calcular la cantidad total de energía Ei (para la unidad de masa) en una señal v continua (velocidad) a partir del espectro de Fourier de la señal.   De acuerdo con lo anterior, para poder tener un control de los datos y la estimación de algunos otros, se realizó un catálogo en formato Excel con los datos de mes día_ hora min_ inicio de cada explosión. Esto se hizo para los meses de agosto y septiembre del 2004.


CONCLUSIONES

Para este caso de estudio, es notable la diferencia entre los meses de agosto y septiembre. Por un lado las duraciones de las explosiones llegan a ser más grandes en agosto que en septiembre, y lo mismo sucede con la energía; esta llega a ser mayor en este mes, lo que indica que para septiembre, llega a disminuir por que los sismos se encuentran muy cerca del cráter y no del conducto. Como resultado se tiene, que esto es lo que daría pie al inicio de la extrusión de lava, que sucedió en septiembre del 2004.
Guzmán Bahena Gustavo, Universidad Autónoma de Guerrero
Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional

MONITOREO DEL VOLCáN POPOCATéPETL POR MEDIO DE IMáGENES SATELITALES EN EL PERíODO DE JUNIO-DICIEMBRE 2018


MONITOREO DEL VOLCáN POPOCATéPETL POR MEDIO DE IMáGENES SATELITALES EN EL PERíODO DE JUNIO-DICIEMBRE 2018

Castillo Ramirez Oliver Isaac, Instituto Politécnico Nacional. Guzmán Bahena Gustavo, Universidad Autónoma de Guerrero. Montoya Ochoa Montoya Ochoa Viridiana, Universidad de Sonora. Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El volcán Popocatépetl es uno de los volcanes más representativos de México, actualmente se encuentra en un periodo eruptivo y por la cercanía que este tiene con las ciudades de México, Puebla y Morelos es considerado como uno de los volcanes más peligrosos para la comunidad civil y para el espacio aéreo. Esto despierta el interés para la investigación de su comportamiento con el propósito de buscar mitigar riesgos en la población. El volcán Popocatépetl es clasificado como el estratovolcán más activo de México, con una estimación de más de medio millón de años de actividad con una actividad eruptiva explosiva bimodal compuesta por erupciones del tipo  pliniano y vulcaniano. En la actualidad, después de un periodo pasivo de 70 años el volcán Popocaépetl, tuvo un incremento en su actividad a partir de finales de1993. Se presentaron eventos sísmicos de largo periodo y aumento en la actividad fumarólica. También se reportaron cambios en la temperatura y pH del lago en el cráter, y un incremento en la emisión de gases (Martin Del Pozzo, 2012). De esa fecha al reciente, se han reportado incrementos y descensos en las explosiones de ceniza, incluso periodos anuales en los que casi no se presentan erupciones explosivas. Se pudo observar nuevamente una ciclicidad en la actividad volcánica representada por el mes de enero con un reporte de 21 días con actividad explosiva seguido de un decremente en los meses posteriores pero en el mes de Septiembre se puede observar  un fuerte aumento alcanzando los 22 días reportados con ceniza. Es por esta razón que este trabajo pretende llevar a cabo un estudio del comportamiento de la actividad del volcán antes y durante este periodo de incremento de actividad. Se realizará un monitoreo de la actividad de las emisiones de SO2 durante los meses de julio a diciembre de 2018, con el propósito de interpretar el comportamiento interno del sistema del volcán. Para esto se utilizará una técnica basada en el procesamiento de imágenes satelitales en el rango del infrarrojo térmico desarrollada por Realmuto y Berk (2016).



METODOLOGÍA

El estudio se llevó a cabo durante una estancia de verano bajo el Programa Delfín para incentivar la formación de investigadores. Para lograr el objetivo se llevaron a cabo varios pasos que se describirán a continuación.  Recopilación de imágenes satelitales del periodo de tiempo de julio a diciembre del 2018. Para este punto se descargaron imágenes satelitales del sensor MODIS del sitio web LAADS DAAC-NASA correspondientes al periodo de estudio. Técnica utilizada para el procesamiento de las imágenes MODIS Para llevara a cabo el procesamiento de las imágenes MODIS se utilizó el programa Plume Tracker desarrollado por Realmuto y Berk (2016). Para poder utilizar el Plume Tracker se deben preparar varios archivos obtenidos a partir de la imagen MODIS original. Para obtener estos archivos se utilizó el software ENVI® para la manipulación de las imágenes satelitales así como el programa Excel de Office® para la manipulación de los datos y el cálculo de los flujos de SO2. Para el procesamiento de las imágenes MODIS para la detección y cuantificación de SO2 en la atmosfera, se debe ser muy cuidadoso, debido a que un error en el desarrollo puede ocasionar un resultado erróneo. Se ocuparon datos de la VAAC de Washington para saber el número de erupciones que tuvo el volcán a lo largo del periodo analizado (junio - diciembre 2018). El software Plume Traker utiliza un archivo de datos de la estructura vertical de la atmósfera, para lo cual se generaron los datos para este archivo utilizando la información publicada por la NOAA. Por otro lado, de estos datos también se obtiene la dirección de los vientos en los niveles del cráter del volcán y superiores que son utilizados para identificar la dirección y la velocidad con que se desplaza la pluma volcánica. El resultado del procesamiento de la imagen MODIS con el Plume Tracker es un mapa de dispersión de SO2.  Con esta información los archivos generados por plume tracker deben ser procesados nuevamente por el software ENVI®. Como resultado de este procedimiento se obtiene un archivo en formato .txt que contendrá la información de la dispersión del gas que necesitamos para calcular el flujo de SO2 que hubo en ese día. Para calcular el flujo de SO2 se aplica fórmula propuesta por Jimenez et. al. (2011) para la estimación del flujo de SO2 a partir del procesamiento de la imagen MODIS.


CONCLUSIONES

El presente trabajo se enfocó en el análisis del monitoreo de la actividad de la desgasificación del volcán Popocatépetl durante los meses de junio a diciembre de 2018 con el propósito de identificar el tipo de comportamiento interno del volcán que dio origen a este fuerte incremento de la actividad explosiva. En el período analizado de junio a diciembre se registraron mayor cantidad de erupciones en el mes de septiembre lo cual se puede relacionar con el periodo de máximos niveles de flujo de SO2 reportando durante el mes de agosto registradas en la base de datos creada a partir del procesamiento de imágenes satelitales del sensor MODIS. El volcán muestra un comportamiento cíclico donde se tienen periodos de acumulación de energía, por tanto, pocas erupciones. Lo observado en el monitoreo por medio de imágenes satelitales mostró que justo antes del inicio de un cambio fuerte en el incremento de la actividad explosiva se presenta un incremento marcado en la concentración del flujo de SO2. Esto podría estar indicando la aportación de material nuevo en la zona interna del volcán que provoca el incremento en la emisión de gases volcánicos y por el aumento en el volumen de magma que ocasiona el crecimiento del domo ocasiona que se selle el sistema representado por un decremento muy marcado en el flujo de SO2. Este proceso provoca un aumento de la presión interna de sistema ocasionando que finalmente el tapón del domo cesa y se fragmente permitiendo liberar la presión interna en una serie de erupciones explosiones con la presencia de ceniza. El estudio muestra una correspondencia desfasada de los niveles de flujo de SO2 con las erupciones registradas por la VAAC de Washington.
Guzman Rodriguez Gabriel, Universidad Autónoma de Guerrero
Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara

OCEANOGRAFíA FíSICA. INVESTIGACIóN Y MODELACIóN DE LOS PROCESOS TERMODINáMICOS EN MARES Y LAGOS MEXICANOS


OCEANOGRAFíA FíSICA. INVESTIGACIóN Y MODELACIóN DE LOS PROCESOS TERMODINáMICOS EN MARES Y LAGOS MEXICANOS

Guzman Rodriguez Gabriel, Universidad Autónoma de Guerrero. Hernández Bravo Ana Fernanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En este resumen se expondrá las actividades y trabajos realizados durante nuestra estancia de verano correspondiente al XXIV Verano de la Investigación Científica y Tecnológica del Pacifico 2019 el cual fue realizado en las instalaciones del Centro Universitario de Ciencias Exactas e Ingeniería (CUCEI) de la Universidad de Guadalajara (U de G). Este resumen comprende a un estudio realizado en el lago Zirahuen ubicado en el estado de Michoacán donde se obtuvieron datos que posteriormente serian analizados con el software Delft3D.  



METODOLOGÍA

Se realizó un análisis de datos recopilados del lago entre las fechas 1 de junio del 2018 al 11 de junio del 2018, los cuales serán analizados por el programa Delft3D, un software con licencia vigente para Windows. Como primer trabajo tuvimos que obtener las coordenadas del lago Zirahuen con Google Earth pro para poder realizar una línea de costa que serían introducidas en un documento con extensión .ldb el cual nos permitiría poder visualizar el lago en el programa Delft3D para así realizar la siguiente actividad. Como siguiente actividad nos dimos a la tarea de construir una malla cuadrada alrededor de la línea de costa del lago, que en habíamos obtenido. Después de esto el investigador nos pidió que realizáramos una batimetría, que es la técnica para la medición de las profundidades del lago, la cual realizamos con la ayuda de la herramienta Quickin que nos proporciona el programa Delfth3D.  Después de realizar la batimetría del lago nos dispusimos a incluir algunas condiciones para ver cuál es el comportamiento, aproximado del lago. Para esto se realizaron varias simulaciones con diferentes parámetros y diferentes batimetrías; la primera simulación representa unos parámetros inventados y una batimetría inventada, los cuales los pusimos para poder entender como era el funcionamiento del programa. En los diferentes casos hicimos una simulación de 11 días comprendidos desde el día 1 de junio del 2018 al 11 de junio del mismo año. Simulaciones. Primera simulación. En la primera simulación, del día 1 de junio del 2018 al 11 de junio de 2018, tomamos la batimetría inventada a nuestro criterio y además pusimos parámetros inventados y algunas condiciones para el lago, las cuales son: Un rio: el cual es una simulación de un rio el cual nos ayuda a cambiar las temperaturas del lago. Unos trazadores: los cuales simulan bollas las cuales, en el lago real toman temperatura y profundidad del lago. Ya con estos parámetros y condiciones corrimos la simulación los días especificados, donde vimos, primeramente, como cambiaba la temperatura del lago con base a la velocidad del viento. Tomamos la velocidad de 3 m/s con dirección al noroeste, la dirección esta especificada con un vector de dirección  Después vimos cómo se comportaban las corrientes del lago, tomamos la misma velocidad del viento, 3m/s y la misma dirección. En esta visualización pudimos ver como avanzaban los trasladares por el lago. Esta parte se nos hizo muy interesante ya que, según palabras de nuestro asesor investigador, la simulacion con esas condiciones de viento y dirección era muy apegado a si esas condiciones fueran las reales del lago. Segunda simulación. Como siguiente simulación usamos una batimetría diferente, pero también inventada, y además cambiamos las condiciones del viento con respecto a las horas del día. Para esta batimetría tomamos que la profundidad del lago era uniforme la cual le dimos el valor de 20m, esto obviamente nos daría resultados diferentes a la primera simulación, pero no por ello serian menos interesantes. Además, se cambiaron las condiciones del viento, como se dijo anteriormente. Para este caso la simulacion se tomó para los mismos días, pero lo que cambio fue que el viento que a las 3:00 de la tarde de cada día llegaba a un pico máximo de 3m/s y después de las 3:00 volvía a ser 0 hasta el día siguiente a las 3:00 de la tarde que volvía a ser 3m/s. Tercera simulacion. En esta tercera simulación lo que hicimos fue invertir las profundidades para ver cuáles eran los resultados arrojados por esta simulación. Se tomaron las mismas condiciones del viento de la segunda simulación solo que en este caso, como se comentó, ahora la profundidad es de 40m en la orilla del lago y de 20 en el centro de este.


CONCLUSIONES

En conclusión, vimos cómo se comporta el lago con tres simulaciones cada una de ellas con sus propias características y parámetros los cuales nos ayudarían a tener una visión más clara de cuál es el comportamiento del lago en la vida real con las condiciones de clima y viento correctas. Como vimos en la primera simulación las corrientes del lago son más circulares y la temperatura llega a un rango entre los 20°C y los 21°C mientras que, en las siguientes dos simulaciones, la temperatura llego desde los 20°C a los 20.1°C mientras que el comportamiento de las corrientes con las boyas que simulamos fue interesante en las tres simulaciones ya que nos permitieron ver como se comportaban las corrientes al interior del lago y así ver con más facilidad las corrientes generada con los parámetros que establecimos en el programa Delft3D. Este verano fue muy provechoso para todos, ya que aprendimos cosas nuevas y muy interesantes sobre los procesos geofísicos en los lagos y sobre cómo, con variaciones climáticas, las condiciones de estos varían. Un agradecimiento especial al Dr. Diego Armando Pantoja por recibirnos en este verano delfín 2019 y así ampliar nuestros conocimientos en diferentes campos de la investigación.
Hernández Bravo Ana Fernanda, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara

OCEANOGRAFíA FíSICA. INVESTIGACIóN Y MODELACIóN DE LOS PROCESOS TERMODINáMICOS EN MARES Y LAGOS MEXICANOS


OCEANOGRAFíA FíSICA. INVESTIGACIóN Y MODELACIóN DE LOS PROCESOS TERMODINáMICOS EN MARES Y LAGOS MEXICANOS

Guzman Rodriguez Gabriel, Universidad Autónoma de Guerrero. Hernández Bravo Ana Fernanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Diego Armando Pantoja González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En este resumen se expondrá las actividades y trabajos realizados durante nuestra estancia de verano correspondiente al XXIV Verano de la Investigación Científica y Tecnológica del Pacifico 2019 el cual fue realizado en las instalaciones del Centro Universitario de Ciencias Exactas e Ingeniería (CUCEI) de la Universidad de Guadalajara (U de G). Este resumen comprende a un estudio realizado en el lago Zirahuen ubicado en el estado de Michoacán donde se obtuvieron datos que posteriormente serian analizados con el software Delft3D.  



METODOLOGÍA

Se realizó un análisis de datos recopilados del lago entre las fechas 1 de junio del 2018 al 11 de junio del 2018, los cuales serán analizados por el programa Delft3D, un software con licencia vigente para Windows. Como primer trabajo tuvimos que obtener las coordenadas del lago Zirahuen con Google Earth pro para poder realizar una línea de costa que serían introducidas en un documento con extensión .ldb el cual nos permitiría poder visualizar el lago en el programa Delft3D para así realizar la siguiente actividad. Como siguiente actividad nos dimos a la tarea de construir una malla cuadrada alrededor de la línea de costa del lago, que en habíamos obtenido. Después de esto el investigador nos pidió que realizáramos una batimetría, que es la técnica para la medición de las profundidades del lago, la cual realizamos con la ayuda de la herramienta Quickin que nos proporciona el programa Delfth3D.  Después de realizar la batimetría del lago nos dispusimos a incluir algunas condiciones para ver cuál es el comportamiento, aproximado del lago. Para esto se realizaron varias simulaciones con diferentes parámetros y diferentes batimetrías; la primera simulación representa unos parámetros inventados y una batimetría inventada, los cuales los pusimos para poder entender como era el funcionamiento del programa. En los diferentes casos hicimos una simulación de 11 días comprendidos desde el día 1 de junio del 2018 al 11 de junio del mismo año. Simulaciones. Primera simulación. En la primera simulación, del día 1 de junio del 2018 al 11 de junio de 2018, tomamos la batimetría inventada a nuestro criterio y además pusimos parámetros inventados y algunas condiciones para el lago, las cuales son: Un rio: el cual es una simulación de un rio el cual nos ayuda a cambiar las temperaturas del lago. Unos trazadores: los cuales simulan bollas las cuales, en el lago real toman temperatura y profundidad del lago. Ya con estos parámetros y condiciones corrimos la simulación los días especificados, donde vimos, primeramente, como cambiaba la temperatura del lago con base a la velocidad del viento. Tomamos la velocidad de 3 m/s con dirección al noroeste, la dirección esta especificada con un vector de dirección  Después vimos cómo se comportaban las corrientes del lago, tomamos la misma velocidad del viento, 3m/s y la misma dirección. En esta visualización pudimos ver como avanzaban los trasladares por el lago. Esta parte se nos hizo muy interesante ya que, según palabras de nuestro asesor investigador, la simulacion con esas condiciones de viento y dirección era muy apegado a si esas condiciones fueran las reales del lago. Segunda simulación. Como siguiente simulación usamos una batimetría diferente, pero también inventada, y además cambiamos las condiciones del viento con respecto a las horas del día. Para esta batimetría tomamos que la profundidad del lago era uniforme la cual le dimos el valor de 20m, esto obviamente nos daría resultados diferentes a la primera simulación, pero no por ello serian menos interesantes. Además, se cambiaron las condiciones del viento, como se dijo anteriormente. Para este caso la simulacion se tomó para los mismos días, pero lo que cambio fue que el viento que a las 3:00 de la tarde de cada día llegaba a un pico máximo de 3m/s y después de las 3:00 volvía a ser 0 hasta el día siguiente a las 3:00 de la tarde que volvía a ser 3m/s. Tercera simulacion. En esta tercera simulación lo que hicimos fue invertir las profundidades para ver cuáles eran los resultados arrojados por esta simulación. Se tomaron las mismas condiciones del viento de la segunda simulación solo que en este caso, como se comentó, ahora la profundidad es de 40m en la orilla del lago y de 20 en el centro de este.


CONCLUSIONES

En conclusión, vimos cómo se comporta el lago con tres simulaciones cada una de ellas con sus propias características y parámetros los cuales nos ayudarían a tener una visión más clara de cuál es el comportamiento del lago en la vida real con las condiciones de clima y viento correctas. Como vimos en la primera simulación las corrientes del lago son más circulares y la temperatura llega a un rango entre los 20°C y los 21°C mientras que, en las siguientes dos simulaciones, la temperatura llego desde los 20°C a los 20.1°C mientras que el comportamiento de las corrientes con las boyas que simulamos fue interesante en las tres simulaciones ya que nos permitieron ver como se comportaban las corrientes al interior del lago y así ver con más facilidad las corrientes generada con los parámetros que establecimos en el programa Delft3D. Este verano fue muy provechoso para todos, ya que aprendimos cosas nuevas y muy interesantes sobre los procesos geofísicos en los lagos y sobre cómo, con variaciones climáticas, las condiciones de estos varían. Un agradecimiento especial al Dr. Diego Armando Pantoja por recibirnos en este verano delfín 2019 y así ampliar nuestros conocimientos en diferentes campos de la investigación.
Hernández Castillo Joshua Haziel, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

ANáLISIS SISTEMáTICO DE LAS TASAS DE SUICIDIO GLOBALES CONTEMPORáNEAS


ANáLISIS SISTEMáTICO DE LAS TASAS DE SUICIDIO GLOBALES CONTEMPORáNEAS

Hernández Castillo Joshua Haziel, Instituto Politécnico Nacional. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El suicidio es un problema de salud social al cual no se le da importancia,  de la misma manera la difusión es escasa dando como resultado el no brindar a la sociedad cifras oficiales que permitan analizar dicha causa de mortalidad. Datos proporcionados por la OMS mencionan que la carga de morbilidad producida por dicho problema haciende al 1.4% de la cifras totales a nivel mundial, en otros términos existen aproximadamente 1.5 millones de muertos por esta causa. Un análisis previo del tema permite afirmar que existen factores específicos que influyen en la personalidad de un individuo cuya determinación es el suicidio, es por ello que se decidió analizar un conjunto de datos cuya información radica desde 1985 hasta 2015, es decir, se cuentan con datos oficiales de 30 años.



METODOLOGÍA

En primera instancia se recurrió a utilizar herramientas informáticas que pudiesen mostrar información puntual de los datos con los que se cuentan para hacer un análisis exploratorio de los mismos. Haciendo uso del lenguaje de programación R, junto con sus siguientes paquetes: tidyverse, countrycode, rworldmap, ggplot2, gridExtra y broom. Posteriormente se procedió a cargar el conjunto de datos a través de tidyverse, conociendo las variables con las que se cuenta, entre ellas: país, año, sexo, edad, número de suicidios, población, suicidios por cada 100 mil personas, país-año, IDH (Índice de Desarrollo Humano), PIB, PIB per cápita y generación, las cuales fueron analizadas con el objeto de erradicar inconsistencias.  Se encontró que la columna IDH tiene dos tercios de valores nulos, por lo que se eliminó, así mismo se descartó la variable generación por tener incongruencias a través de los años, por último se dejó fuera a la columna país-año, al ser irrelevante en el análisis del conjunto de datos. Por otra parte se localizó que 7 países cuentan con 3 años o menos de registros por lo que son eliminados dado que pueden ocasionar anomalías en el análisis, se eliminaron los datos de 2016 por un repertorio mínimo de datos, así mismo el continente se agregó al conjunto de datos utilizando el paquete countrycode y se descubrió que África tiene muy pocos países que proporcionan datos de suicidio. Seguido de la limpieza de datos, se catalogaron en valores categóricos y ordinales y se dio una visualización final del conjunto,  procediendo a realizar un análisis global y particular de los datos, en donde se construyen escenarios para validar y desestimar hipótesis, con el objeto de idear marcos de referencia en la prevención de suicidios; en este punto paquetes como rworldmap, ggplot2, gridExtra y broom son los encargados del manejo de datos y construcción de recursos gráficos. Ulteriormente se crean modelos informáticos a través del lenguaje de programación python, con herramientas como son: pandas, numpy y sklearn quienes proporcionan el buen manejo de datos, funciones matemáticas (principalmente de álgebra lineal) y algoritmos de aprendizaje automático de manera correspondiente. Posteriormente se construye un modelo de predicción de suicidios en un contexto global el cual es entrenado con el presente conjunto de datos. Para finalizar se crea un modelo preliminar de perfiles suicidas a través de algoritmos de clasificación no supervisada que agrupa datos en grupos, basándose en sus características y teniendo como objetivo comprender el comportamiento del fenómeno dentro del contexto social.


CONCLUSIONES

El análisis de los datos aunado al uso de herramientas de ciencia de datos nos faculta a encontrar una estimación en los índices de suicidio por cada 100 mil personas en un contexto global. El modelado de los datos nos permite tener una clasificación preliminar de los perfiles suicidas según indicadores de: edad, sexo, año, país y PIB per cápita. Se cuenta con un análisis de tendencias globales, comportamiento del fenómeno por continente, país, sexo, edad, así como cifras mundiales distribuidas en mapas geográficos,  cambio anual  en las tasas de suicidio,  las tendencias más pronunciadas y con mayor disminución, disparidad de genero por continente y país, de la misma forma la disparidad de edad por continente, proporciones de suicidio masculino y femenino, por otra parte se cuenta con la correlación entre el PIB per cápita y el índice de suicidio, finalizando con las instancias de mayor riesgo en la historia y una comparativa de los índices de suicidio en México con países cultural, legal y económicamente similares.
Hernández Covarrubias Jesús Antonio, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)

MODELO MATEMáTICO Y CONTROL DE UN VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO.


MODELO MATEMáTICO Y CONTROL DE UN VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO.

Hernández Covarrubias Jesús Antonio, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el sector de los vehículos aéreos no tripulados (UAV) está creciendo continuamente y, en consecuencia, se desarrollan cada vez más aplicaciones para este tipo de aeronaves tales como vigilancia, búsqueda de objetivos, navegación autónoma entre otras. El UAV objeto de estudio es un cuadricóptero, este es un vehículo en forma de X con 4 rotores que controlan su orientación y su posición.  El objetivo de este proyecto es analizar y entender, tanto el comportamiento y diseño de un UAV tipo cuadricóptero como su modelo matemático y dinámico y con ello poder realizar un control.



METODOLOGÍA

Lo primero que se realizó fue una investigación y estudio del modelo matemático y dinámico del drone con el fin de entender su comportamiento. Esto con ayuda y asesoría del Dr. Diego Alberto Mercado Ravell. Después se diseñó un drone con ayuda del software SolidWorks 2014, diseñando cada pieza y su montaje para obtener un modelo virtual del drone, el cual se convirtió del formato .SLDASM al formato .FBX mediante el software 3DS Max 2018 para poder importar el modelo virtual del drone al software Unity y proceder a realizar una simulación del comportamiento del drone mediante el modelo matemático descrito en un algoritmo de programación realizado en lenguaje C# en el software Visual Studio 2017. Lo siguiente fue comprender el funcionamiento del software Unity para poder realizar la simulación. Esto se logró gracias a los cursos de la Escuela de Verano Cimat - Zac 2019, principalmente el curso Diseño de videojuegos impartido por el Dr. Héctor Cardona Reyes. Una vez importado el modelo del drone, con la asesoría del doctor, se procedió a optimizar el modelo para poder utilizarlo de manera adecuada dentro del software Unity. Después se procedió a realizar el algoritmo que representara el modelo matemático y dinámico del drone para poder simularlo y controlarlo en el software Unity, para ello se utilizó el software Visual Studio 2017 en el cual se programaron las ecuaciones correspondientes y, para mayor entendimiento del modelo matemático del drone, además de la asesoría del Dr. Diego Alberto Mercado Ravell y el Dr. Carlos Alberto Lara Álvarez, se utilizó el software de MatLab R2018b con el simulador Simulink, donde se visualizó el comportamiento del modelo matemático para poder realizar el algoritmo correspondiente en C#.


CONCLUSIONES

Durante la estancia de verano, adquirí conocimientos teóricos sobre el funcionamiento de los vehículos aéreos no tripulados y pude ponerlos en práctica mediante la utilización de diversos softwares de simulación y programación. Lo más importante es que tuve la oportunidad de ver cómo se realizan los trabajos de investigación y cómo trabajan los doctores dentro del Centro de Investigación en Matemáticas (CONACYT). Adquirí conocimientos sobre programación funcional en scala mediante un curso impartido por el Dr. Carlos Alberto Lara Álvarez, además de que adquirí muchos conocimientos de diversos temas gracias a los talleres y conferencias en la Escuela de Verano Cimat - Zac 2019, como ingeniería de software, un curso impartido por la Dra. Mirna Muñoz Mata, aprendí también sobre criptografía, un curso impartido por el Dr. Luis J. Domínguez Pérez, bioestadística, un curso impartido por el Dr. Julio César Castañeda Delgado y diseño de videojuegos, un curso impartido por el Dr. Héctor Cardona Reyes, además de las conferencias llevadas a cabo durante la escuela de verano como La mentira en tus ojos: midiendo la mentira y verdad con rastreadores oculares una conferencia impartida por el Dr. Hugo Arnoldo Mitre Hernández, Robótica una conferencia impartida por el Dr. Carlos Alberto Lara Álvarez, Navegación autónoma de vehículos no tripulados una conferencia impartida por el Dr. Diego Alberto Mercado Ravell y Sinergia de Ciencia de Datos con la Industria 4.0 una conferencia impartida por el Dr. Carlos Abraham Carballo Monsivais. En general, me parecieron temas muy interesantes y, gracias al trabajo de cada uno de los doctores, pude adquirir muchos conocimientos.      
Hernandez Emily Stephany, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA


DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA

Cach Alonzo Armando Ivan, Consejo Quintanarroense de Ciencia y Tecnología. Gómez Poot Francisco Israel, Consejo Quintanarroense de Ciencia y Tecnología. Hernandez Emily Stephany, Consejo Quintanarroense de Ciencia y Tecnología. Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla. Tolentino Vazquez Erick, Universidad Autónoma de Guerrero. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua es un vital líquido utilizado no únicamente por el ser humano sino para todo el planeta. El 70% de la superficie de la tierra está cubierto de agua, sin embargo, del 30% de agua dulce tan solo el 1 % es adecuado para su uso humano. Más allá del impacto del crecimiento mismo de la población por causa del mal uso que se ha dado hay muchos países que tienen menos del agua que necesitan, hoy en día este recurso a tenido ciertas dificultades perdiendo el equilibrio entre la cantidad utilizada y la demanda. La escasez afectará a un tercio de la población y un impacto enorme en diferentes sectores económicos como son la producción de alimentos. Los sistemas de aprovechamiento de agua de lluvia son el resultado de las necesidades (demanda), recursos disponibles (precipitación, dinero para invertir y materiales de construcción), y las condiciones ambientales en cada región. Sólo cuando no existe red de agua potable, el suministro es deficiente o el agua tiene un costo muy alto, se piensa en buscar sistemas alternativos de abastecimiento, por ello la documentación sobre sistemas de aprovechamiento de aguas lluvias, se limita a las acciones realizadas en las últimas décadas en zonas del planeta con las deficiencias mencionadas anteriormente. (José Alejandro Ballén Suárez, 2006) La ciudad de Heroica Puebla de Zaragoza es la cuarta ciudad más poblada de México, está ubicada al centro del país y cuenta con una población de aproximadamente 1,576,259 millones de habitante (INEGI censo 2015) que cubren una superficie de 206 km2. Donde la precipitación media es de 827 mm por año siendo el mes de junio quien presenta una mayor precipitación de 158 milímetros. Esto es considerado una buena cantidad de líquido que puede ser empleado como un extra de recurso, toda la ciudad cuenta con los servicios básicos tales como energía eléctrica, alcantarillado y agua potable, sin embargo la ciudad presenta ciertas dificultades con la distribución de la misma y no permite abastecer en su totalidad, esta problemática va de la mano con las fuertes temperaturas de verano que generalmente varía de 6°C a 42°C  ante tal situación las personas  necesitan de un mayor consumo de agua.



METODOLOGÍA

En primer lugar, se investigó sobre los antecedentes a la propuesta de solución que se iba a crear, contemplando modelos antiguos de hace más de 4 mil años, como los del Desierto de Negev hasta implementaciones recientes, por ejemplo, el proyecto Belss-Luedecke-Strasse Building State en Berlín de 2006. Más adelante se realizó la investigación sobre la falta de agua potable en la ciudad de Puebla, Puebla, así como las propiedades que contiene el agua de lluvia, considerando los factores geográficos causantes de la lluvia característica de Puebla capital. Se investigó sobre las normas correspondientes de agua potable para consumo humano, asi mismo se realizó un primer acercamiento sobre una solución para utilizar el agua pluvial y transformarla en agua potable. Más adelante tomo lugar la búsqueda de los materiales y equipos seleccionados para elaborar un dispositivo de recolección de agua pluvial. Una vez teniendo la idea clara sobre la construcción del dispositivo dio paso a la cotización de materiales, cuales cubrían las necesidades, poniendo en la balanza costo-beneficio, puesto que se trata de un proyecto enfocado al sector popular en casa-habitación de 4 personas aproximadamente. Además, se visitaron casas de barrios populares en la ciudad de Puebla, encontrando retos particulares, como el espacio demasiado reducido entre casa y casa o las distribuciones de las pendientes para cada domicilio, por mencionar algunos. Por último, se implementó de manera digital el dispositivo en una casa modelo que se ajustaba perfectamente a nuestras condiciones iniciales y cumplía con tener una estructura común de un barrio popular. En esta se trabajó la implementación y cotización de materiales, así como su mano de obra, será generándola en 2 aspectos, la primera por un plomero o albañil, y la segunda tomando en cuenta que nosotros montaríamos el dispositivo de manera gratuita.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos sobre el agua pluvial, su utilidad y los problemas que enfrenta en la ciudad de Puebla, puesto que, a diferencia de otros estados o países, en esta ciudad se encuentran particularidades que representan un problema y una adecuación a cada vivienda, por otro lado, la presencia de un volcán activo cercano a la ciudad. Por último, tomando en cuenta que esto es únicamente teórico no se tiene la posibilidad de corroborar todos los análisis y resultados esperados, o si deben realizarse correcciones con el pasar del tiempo. Hubiera sido conveniente tener el capital necesario y tiempo para considerar los ajustes, pero, aunque no es posible, en base a las deducciones, se puede apostar por resultados exitosos.
Hernandez Hernandez Maria de los Angeles, Instituto Tecnológico Superior de Las Choapas
Asesor: Dr. Hugo Gamez Cuatzin, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

SISTEMAS EMBEBIDOS PARA LA IMPLEMENTACIÓN DE APLICACIONES IOT CON ENFOQUE A LA INDUSTRIA 4.0


SISTEMAS EMBEBIDOS PARA LA IMPLEMENTACIÓN DE APLICACIONES IOT CON ENFOQUE A LA INDUSTRIA 4.0

Hernandez Hernandez Maria de los Angeles, Instituto Tecnológico Superior de Las Choapas. Asesor: Dr. Hugo Gamez Cuatzin, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La Inteligencia Artificial es un tema que ha causado revolución en la humanidad, por los desarrollos que ha tenido y por los desarrollos que se pretende tener a futuro. La Inteligencia Artificial va de la mano con la ingeniera del comportamiento la busca saber cómo se comporta un sistema inteligente en la área requerida mediante un estudio. La Inteligencia Artificial está dentro de la industria 4.0.



METODOLOGÍA

La metodologia para llevar a cabo la investigación fue la siguiente: -investigación detallada y estudio de la técnica de la inteligencia artificial en temas de la ingenieria del comportamiento. -indagación de aplicaciones IoT con enfoque en la industria 4.0. -Aplicación de conocimiento en electronica y programación para llevar a cabo un sistema que se adapte al planteamiento del proyecto.  


CONCLUSIONES

En Mexico la industria convencional debe actualizarse a las bondades que nos brinda el desarrollo tecnológico de manera mundial como lo son la Inteligencia Artificial y la industria 4.0. Para esta investigación se ha desarrollado un aplicación base mediante el uso de sistemas embebidos componentes y protocolos de comunicación para la transferencia de información transversal en distinta áreas de nuestro día a día.
Hernández Martínez Danny Guadalupe, Instituto Politécnico Nacional
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

PROTOTIPO DE ECOBLOCK ESTRUCTURAL ALIGERADO, BASADO EN UN ALMA DE PET.


PROTOTIPO DE ECOBLOCK ESTRUCTURAL ALIGERADO, BASADO EN UN ALMA DE PET.

Alfaro Barrientos Luis Angel, Instituto Tecnológico de Tláhuac. Garcia Contreras Juan Daniel, Tecnológico de Estudios Superiores de San Felipe del Progreso. Hernández Martínez Danny Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Actualmente México es uno de los principales países que producen más desechos, siendo el primer consumidor de botellas plásticas del mundo (INEGI, 2018),  la mayoría de estos se genera en viviendas, edificios, calles, avenidas, parques y jardines.  Gran parte de los desechos acaban en basureros o en el mar lo que ocasiona la contaminación, ya sea del aire, suelo o agua. Los productos plásticos que tienen un elevado consumo, tales como: las botellas de plástico, que normalmente se elaboran de PET (Tereftalato de Polietileno), así como las bolsas de algunos alimentos que en su mayoría están elaboradas de polipropileno junto con polietileno. A lo largo de los últimos años se ha considerado implementar el plástico en el área de la construcción, ya que recientemente lo que se busca es disminuir el daño al medio ambiente buscando materiales alternos como los son los Eco-block, aprovechando que el block es uno de los elementos más usados en la construcción se tomó en cuenta para la fabricación de un bloque estructural que sea de tipo ecológico.



METODOLOGÍA

Durante esta investigación se empleó una metodología experimental de tipo cuantitativa debido a que el proyecto se considera factible considerando los datos obtenidos. Uno de los datos más importantes es el que se obtenga de la prueba de resistencia a la compresión, la cual es realizada en la máquina universal gracias a esta máquina se pueden hacer pruebas de compresión y tracción para medir la resistencia de la carga que se le aplica al block.   Para llegar a obtener este resultado fue necesario conocer las Normas Oficiales Mexicanas que estandarizan la fabricación de los bloques, así  como las pruebas de calidad a las que están sometidos. Una de las principales normas es la NOM-404-ONNCCE-2012 para piezas de uso estructural, hace referencia a las especificaciones del block tales como: dimensiones, partes de la pieza, métodos de ensayo que deben cumplir los bloques, establecida por el Organismo Nacional de Normalización y Certificación de la Construcción y Edificación (ONNCCE). Este organismo tiene el propósito de contribuir a la mejora de la calidad y de la competitividad de los productos, procesos, servicios y sistemas relacionados con la industria de la construcción.   Para obtener la  dosificación adecuada del block  se realizaron dos procedimientos, el primero consistió en guiarse de la dosificación recomendada por el fabricante del cemento, y el segundo, se empleó el método del módulo de fineza de la combinación de los agregados que consiste en efectuar un diseño de una mezcla para alcanzar la resistencia deseada del block, tomando en cuenta los agregados principales, los cuales pueden causar una variación de la resistencia. En el caso de los agregados se usaron los siguientes: Grava o Tepojal, Arena, Cemento, Agua También se incluyeron botellas de PET, que se recolectaron recolectaron dentro del Tecnológico de Estudios Superiores de Valle de Bravo, una vez conseguido el material suficiente, se seleccionó un tamaño adecuado para que cumpliera las especificaciones del área neta de un block hueco, sin embargo se considera como un block hibrido, ya que el área bruta incluye el material utilizado, junto con el PET. Los tamaños elegidos fueron botellas de un litro y de 355 ml. las cuales fueron rellenadas con otros plásticos, los cuales habían sido recolectados previamente. Para llenar un envase de litro se necesitó un aproximado de entre 25 a 30 botellas de PET, lo cual corresponde a 1569 ml. Antes de realizar la mezcla para el prototipo se requirió hacer una prueba de granulometría para el agregado grueso (grava o tepojal). Con el objetivo de seleccionar el tamaño nominal solicitado por norma. Ya que se tenían todos los materiales necesarios para hacer la mezcla se procedió a realizar el prototipo físico, se empleó la dosificación ocupada, además el plantel tiene una bloquera, la cual ya cuenta con un apartado de moldeado de block con una medida estándar de 12x20x40 cm, por medio de ella se pudo realizar la compactación y el vibrado del material para que el block quedará con las medidas adecuadas, la mezcla se hizo de manera manual. Para colocar los envases de PET en el interior del block primero se colocó una capa de mezcla en el molde, luego se incluyó la botella de plástico para finalizar se cubrió con otra capa de mezcla, dándole un varillado en los extremos. Para un mejor muestreo se realizaron 7 blocks, de los cuales 4 fueron con tepojal y los 3 restantes con grava. Como se ocuparon dos dosificaciones los prototipos tienen diferentes características. Las características físicas de cada uno son: Block con agregado de Tepojal Menor adherencia de la mezcla, mejor dimensión, peso medio de 10 kg, tuvo más oquedades y  mayor disgregación Block con agregado de Grava Mayor compactación al momento de fraguado, reducción en medidas exteriores de un aproximado de 1 a 2 cm,  peso medio  de 15 kg, tuvo menos oquedades y menor disgregación.  Y  dándole pasó a la prueba de compresión en un lapso de 28 días para el análisis de datos. 


CONCLUSIONES

Las pruebas a resistencia a la compresión  se realizaron en tres especímenes. Los resultados obtenidos son los siguientes.                   Peso aplicado                        Resistencia a la compresion  Prueba 1      11967.9 kgf                           24.93 kg/cm2 Prueba 2       4016 kgf                              8.36 kg/cm2 Prueba 3      8383.2 kgf.                          17.46 kg/cm2   Terminando con las pruebas necesarias al block, se realizó un presupuesto en el cual se dedujo que que el precio del block para su proceso de elaboración es de 7.45 pesos. Como resultado final concluimos que no se alcanzó totalmente la resistencia a la compresion  establecida en la NOM-C-404-ONNCCE, obteniendo nosotros una resistencia promedio de 16.91 kg/cm2.  Sin embargo su uso no sera de manera estructural, aunque podra utilizarse como block ligero, se observó en la prueba de compresión que el PET no sufrió deformación total, ayudo a reducir el peso del bloque a 10kg y la cantidad de materia prima, así mismo a ocupar los desperdicios sólidos. Los datos de estas pruebas se pueden mejorar, en la modificación del cálculo de la mezcla disminuyendo la cantidad de volumen del PET.  
Hernández Prado Jesús Omar, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Yalia Divakara Mayya , Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CONDICIONES DINáMICAS DE CúMULOS ESTELARES EN NGC 1569, USANDO DATOS DEL GTC/MEGARA.


CONDICIONES DINáMICAS DE CúMULOS ESTELARES EN NGC 1569, USANDO DATOS DEL GTC/MEGARA.

Hernández Prado Jesús Omar, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Yalia Divakara Mayya , Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

NGC 1569 es una galaxia irregular, pequeña y compacta, la cual cuenta con dos cúmulos estelares masivos en su centro, NGC 1569-A y NGC1569-B. Con el instrumento MEGARA del Gran Telescopio Canarias (GTC) se mapeó la zona que abarcan éstos dos cúmulos. Durante la estancia de verano se analizaron los espectros de este par de cúmulos obtenidos de MEGARA, para determinar ciertos parámetros físicos para concluir con la masa dinámica de cada cúmulo.



METODOLOGÍA

Un objeto de cuerpo negro emite radiación en todas las longitudes de onda, pero cuando la radiación pasa a través de un gas, algunos de los electrones en los átomos y moléculas del gas absorben parte de la energía de la estrella al pasar, las longitudes de onda particulares de energía absorbidas son únicas para el tipo de átomo o molécula, por lo tanto la radiación que emerge de la nube de gas carecerá de aquellas longitudes de onda específicas, produciendo un espectro con líneas de absorción oscuras. Este tipo de espectros fueron los que se analizaron, en esta busqueda, para tener los mejores datos debemos restringir los datos por las especificaciones del instrumento MEGARA, si estamos en los límites del instrumento, obtendremos resultados óptimos. Éstas especificaciones fueron: VPH ID: VPH665-HR Setup: HR-R RFWHM = 20050 λ1-λ2[Å] = 6405.61-6797.14 λc[Å]= 6602.59 Δλ(@λc)[Å]=0.329 lin res [Å/pix]=0.093 Tomando en cuenta ésto, el primer paso que se realizó fue medir manualmente a partir de la herramienta IRAF, medir el flujo y el FWHM(full width at half maximum) a partir de la task splot. Para comenzar de manera correcta, hay líneas de emisión, por ejemplo: Hα, N [II], S [II], conociendo su valor específico, sabemos que tan corrido esta el espectro con el que trabajamos, entonces podemos darnos una idea de donde estarán las líneas de absorción que nos interesan estudiar, para ello tuvimos que comparar el espectro con uno ya conocido, cómo estamos estudiando un cúmulo estelar, esto quiere decir que contiene una gran cantidad de distintas estrellas, así que podríamos comparar con el espectro de una estrella ya conocida, así que utilizamos las siguientes estrellas: B9III K3III K0III Haciendo la comparación observable, podremos conocer las líneas de absorción que están tanto en el cúmulo como en la estrella, con esto podemos saber que átomo o molécula es. Ese fue un proceso largo y complejo, porque en el espectro del cúmulo puede haber líneas que son ruido, y que realmente no nos sirven para las mediciones, la busqueda de las correctas es un proceso muy delicado. Obteniendo los datos que nos sirve, ahora debemos hacer cierta manipulación de los mismos, para finalmente obtener una dispersión de velocidad del cúmulo, es importante mencionar que se filtraron los resultados por un proceso de confiabilidad de las líneas, para que el resultado fuese el más fino posible. Obtuvimos para cada linea un valor de FWHM, con el cual se obtuvo un valor de sigma relacionado con el perfil gaussiano, el cual es: FWHM [Å] ≈ 2.35482σ[Å] . Obteniendo este valor de sigma, podremos utilizarlo para obtener la dispersión de velocidad con la siguiente fórmula: (σ[Å]c[km/s])/(λobs)=σr, así para cada línea. Finalmente, de todos los valores se hace un promedio para la obtención de la dispersión de velocidades en el cúmulo, para obtener la masa dinámica del cúmulo con la siguiente fórmula: Mvir=α(σr2*Rh/G).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos en astrofísica, para ponerlos en práctica con herramientas como IRAF y DS9, para la obtención de las masas dinámicas (Teorema Virial) de los cúmulos con el procedimiento anteriormente mencionado, sin embargo, al ser un trabajo extenso aún falta filtrar una cantidad de datos para obtener así el valor de la dispersión y su respectivo error, hasta ahora el valor obtenido es: 6.38 [km/s], falta mejorar éstos datos para un resultado más óptimo, para con ésto obtener finalmente la masa dinámica.
Hernandez Serrano Oscar Kariel, Instituto Politécnico Nacional
Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima

DIVULGACIóN CIENTíFICA DE NEUTRINOS Y MATERIA OSCURA


DIVULGACIóN CIENTíFICA DE NEUTRINOS Y MATERIA OSCURA

Hernandez Serrano Oscar Kariel, Instituto Politécnico Nacional. Medina Estrada Brenda Elisa, Instituto Politécnico Nacional. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema A pesar de que el mundo está evolucionando en ciencia y tecnología, y México intenta mantenerse a la par de otros países con mayor calidad en dichos sectores, apenas logra destinar un 0.5% del 2.40% del PIB promedio. La ciencia en México desde hace años carece de interés por la mayor parte de la población, el sector con mayor desinterés son los jóvenes. Aunque se les presenta desde una edad temprana, no se obtienen los resultados esperados, lo que convierte esto en una situación que se trata de erradicar. La divulgación científica ha jugado un papel fundamental en este proceso, al desarrollar los textos científicos más sencillos y eficaces de entender. Ya se ha visto que en años recientes ha habido un incremento en la difusión de información científica a través de las diferentes formas en las que se representa la divulgación científica. Tal es el caso de los divulgadores que hacen uso de las redes sociales, así como de las diferentes plataformas de videos, quienes en ocasiones obtienen una gran atención de los jóvenes.



METODOLOGÍA

Metodología   La manera más efectiva de llevar la ciencia a los jóvenes y obtener su atención, es la divulgación científica. Por lo que se ha decidido realizar una serie de videos (de divulgación científica) sobre Neutrinos y Materia Oscura, durante el verano de investigación. Está serie de videos van dirigidos a la población que se encuentra estudiando la secundaria o el nivel medio superior. Aun así, también está al alcance de personas que tengan conocimiento en Física Básica y profesores que buscan incentivar la comprensión de las ciencias exactas en los estudiantes. Se hará el uso de las redes sociales, así como de Youtube. Pues son los medios más usados por los jóvenes actualmente y en donde se ve una gran circulación de datos de carácter científico.  


CONCLUSIONES

Conclusiones Se espera generar interés en los estudiantes de nivel medio superior, y a su vez a jóvenes de secundaria, para aprender más allá de la Física básica y la ciencia instruida en respectivos niveles educativos. De esta manera obtener la aceptación de que la ciencia no es difícil, despertar la inquietud en los temas científicos y obtener la formación de jóvenes en diferentes áreas de la ciencia. Sobre todo, disipar la Pseudociencia que se encuentra también en las mismas redes sociales.
Hernández Valdez Joseline Itzel, Universidad Autónoma del Estado de México
Asesor: Dr. Rafael Cervantes Duarte, Centro Interdisciplinario de Ciencias Marinas (IPN)

IMPACTO ANTROPOGéNICO EN SISTEMAS COSTEROS DE B.C.S.


IMPACTO ANTROPOGéNICO EN SISTEMAS COSTEROS DE B.C.S.

Hernández Valdez Joseline Itzel, Universidad Autónoma del Estado de México. Asesor: Dr. Rafael Cervantes Duarte, Centro Interdisciplinario de Ciencias Marinas (IPN)



PLANTEAMIENTO DEL PROBLEMA

El aumento demográfico en estas zonas desencadena un aumento exponencial en la demanda de recursos, acelerando el deterioro ambiental de las lagunas costeras por contaminación, perdida de hábitats o sobreexplotación de los recursos, comprometiendo gravemente los servicios ambientales que nos brindan. El monitoreo de las zonas costeras permiten la evaluación de la calidad presente, manteniendo la disponibilidad de sus recursos naturales. Las variables que generalmente se miden son los parámetros fisicoquímicos, como el pH, la conductividad, temperatura, (DBO5), entre otros. En particular el DBO5, señala la concentración de la materia orgánica biodegradable a partir del oxígeno requerido para que la composición de esta pueda efectuarse bajo condiciones aeróbicas determinadas (5 días, 20° C). Es esencialmente un procedimiento que involucra la medición del oxígeno consumido por la respiración de microorganismos y por la descomposición microbiana, factores que disminuyen el O2 a mayor profundidad. La prueba hecha a los 5 días de tomada la muestra minimiza errores de interpretación porque permite la oxidación de un alto porcentaje de materia orgánica y es un tiempo lo suficientemente grande para no incluir el proceso de nitrificación.  



METODOLOGÍA

Para la toma de muestras se extrajo agua de mar de la laguna costera Ensenada de La Paz con un recipiente de 10 litros. Los frascos DBO (por triplicado) de diferentes capacidades se llenaron, sumergiendo suavemente los mismos dentro del recipiente con agua, evitando introducir burbujas de aire a la botella. Se agregó solución de cloruro de manganeso a las botellas, luego de agregar solución yoduro-alcalina, tapando inmediatamente, se mezcla por inmersión suavemente. Al final se añadió ácido sulfúrico concentrado y se almacenan las muestras en un lugar fresco y oscuro hasta su análisis. Para la titulación, se tomaron alícuotas de 50 ml en un matraz Erlenmeyer y se titularon con tiosulfato hasta su vire a amarillo pálido, se adicionó almidón hasta vire azul, se siguió titulando con tiosulfato hasta que la solución se tornó transparente completamente. Paralelamente se tomaron muestras en las 4 botellas diferentes por triplicado de agua de mar, dejándolas incubar por 5 días a 25° C, selladas herméticamente. Por último, después del lapso de 5 días, se llevó a cabo la titulación con tiosulfato descrita anteriormente con el registro y cálculos correspondientes.


CONCLUSIONES

Para la comparación del DBO5 se observa la caída de concentración de oxigeno del día 5 con respecto al día 1, tal como se esperaba por los procesos de respiración donde una gran parte de oxigeno es consumido por descomposición de bacterias y oxidación química que no es representativa respecto a la respiración, pero indica el proceso de oxidación de algunos materiales de forma natural (sin la intervención de los microorganismos) proceso por el cual se utiliza oxigeno presente.  Los valores de oxígeno disuelto encontrados pueden indicar diversos fenómenos que estén alternando el agua marina como florecimiento algar, aumento en la temperatura y salinidad del agua. Según la bibliografía consultada, para agua marina, valores bajos en oxígeno disuelto indican una calidad mala, afectando la flora y fauna presente. Los Criterios Ecológicos de Calidad del Agua en México señalan para aguas marinas (áreas costera) un Límite Máximo Permisible (LMP) no menor de 4.2 ml/l, este caso en particular el DBO5 encontrado en el sitio de muestreo en la bahía la Paz, se obtuvieron valores de 1.55 ± 0.16 ml/l  por lo que podemos asumir respecto a los criterios ecológicos que la calidad del agua en el sitio de muestreo es muy mala con niveles inferiores a los permitidos.     
Hernández Vázquez Juan Carlos, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo

DISEÑO DE MOLDE PARA MANUFACTURA DE UN ALABE PARA AEROGENERADOR DE BAJA POTENCIA


DISEÑO DE MOLDE PARA MANUFACTURA DE UN ALABE PARA AEROGENERADOR DE BAJA POTENCIA

Hernández Vázquez Juan Carlos, Instituto Tecnológico Superior de Ciudad Serdán. Magaña Paz Juan Luis, Instituto Tecnológico de Colima. Rodríguez Ramos Angélica Vianney, Instituto Politécnico Nacional. Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo



PLANTEAMIENTO DEL PROBLEMA

Debido a la necesidad de incrementar el uso de aerogeneradores de baja potencia la Universidad del Istmo (UNISTMO) en su división de posgrado se encuentra desarrollando aerogeneradores de baja potencia, entre los cuales existen diseños con capacidades de 1.5 kW, 3 kW, 10 kW y actualmente está en proceso de la manufactura de las aspas de un aerogenerador de 5 kW, por ello la importancia y el interés de capacitar a estudiantes en el diseño de las mismas.



METODOLOGÍA

Para realizar el diseño del aspa se utilizó el perfil aerodinámico FX 63-137 debido a un análisis previamente realizado acerca de su comportamiento en la zona del Istmo, siendo ésta una zona que se caracteriza por contar con altas ráfagas de viento. Posteriormente se utilizó el método Blade Element Momentum el cual es un método iterativo en el cual se definen los parámetros de diseño del aspa como la cuerda (c), la Velocidad relativa (Vrel) y las cargas aerodinámicas se calculan por sección generando así una diferencial, la cual se debe de integrar para obtener el valor total tanto del empuje (T) y el Torque (M). El aspa diseñada fue dividida en 10 secciones además se añadió una sección adicional que corresponde a la punta de ésta, dando un total de 11. Obtenidas las cuerdas de cada sección por el método BEM se procedió a escalar, trasladar y rotar cada una, esto para hacer coincidir su centro aerodinámico. Ya una vez verificado mediante una gráfica que las secciones coincidieran en un mismo centro aerodinámico, se guardaron los puntos de cada una en un archivo de Excel para después exportarlos al software de diseño 3D. El software que se usó para el diseño del aspa fue Inventor debido a la fácil importación de los puntos guardados en los archivos de Excel. En inventor fueron creados planos desfasados entre sí a la distancia obtenida en el método BEM, después se importaron perfil por perfil los puntos en sus respectivos planos, además se agregaron dos circunferencias con un radio correspondiente a un porcentaje de la cuerda del primer perfil, las cuales fueron colocadas a un 3% y 10% de la longitud total del aspa esto para formar la raíz, posteriormente se solevaron las 11 secciones y las 2 circunferencias para así obtener el aspa. Para el diseño del molde se utilizaron los puntos de las secciones empleadas para el aspa, siendo divididas en intradós y extradós, es decir, en dos partes el total de puntos de cada sección, además, se buscó que las curvaturas pudieran ser manufacturadas por la CNC con la que se cuenta en la Universidad del Istmo, ya que el cortador solo puede operar a 90° del plano de trabajo, por lo que la solución a este problema fue quitar puntos del intradós o extradós, cual fuere de las dos que no podía maquinarse, para añadirse a la otra parte de la sección, obteniendo así curvas maquinables. Cuando se observa que las curvas de los perfiles pueden ser maquinadas se procede a realizar el molde. Se agregan rectángulos los cuales representan la base del molde, después se ajustan al primer y último punto de cada perfil cerrando un contorno, posteriormente se solevan las secciones obteniendo el molde. Cabe mencionar que la solevación se hace desde el penúltimo boceto del intradós al primer boceto de la raíz omitiendo lo que es la punta del molde, el siguiente paso es la extrusión de la raíz del primer molde y la solevación de la punta con el aspa. Se realizan los mismos pasos para ambas partes, intradós y extradós. Para obtener el código que será ingresado a la CNC se usó el software de diseño CATIA con el cual se configuraron los parámetros necesarios para el correcto maquinado de los moldes. El proceso de maquinado se dividió en desbastado y acabado. Como parte de un proyecto de la manufactura de las aspas para un aerogenerador de 5 kW en el cual la UNISTMO se encuentra trabajando, el siguiente proceso se realizó con el diseño que previamente fue elaborado por el M.C. Isaías López García. Debido a que la longitud del molde para el aspa es de 2.8 m, lo que es mayor a lo que la bancada de la CNC puede manufacturar, se tomó la decisión de dividir en 2 el molde del intradós, así como el del extradós. Para el maquinado se procedió a colocar el material de desbaste en la CNC. Después se configuró el centroide del material como el origen debido a que el punto inicial de simulación se encuentra en esa posición. Posteriormente se cargó el primer código que corresponde al desbastado de la pieza. Para el proceso de acabado se cargó el código en la CNC y se procedió a realizar el maquinado. Finalmente, como resultado obtuvimos 4 piezas, 2 para el molde del extradós y 2 para el del intradós.  


CONCLUSIONES

Durante la estancia se aprendió la metodología para desarrollar el diseño de aspas para aerogenerador de baja potencia, en la cual aborda desde el estudio de la selección del perfil lo cual es un punto muy importante para la eficiencia del aerogenerador siendo esta la que soportará las cargas del viento como la aplicación de la teoría del método BEM, el dimensionado y la obtención de los puntos para el diseño del aspa en modelo CAD posterior a ello se identificaron las condiciones que se deben contemplar para el diseño de los moldes que ayudarán para la manufactura del aspa, además se generó el código para la realización del maquinado dando como resultado la obtención de las piezas físicas de los moldes del aspa con las medidas previamente especificadas en el diseño CAD. El diseño de los moldes de las aspas que se construyeron en la UNISTMO son piezas importante para la manufactura de las aspas, la cual considera las características del viento de la zona del Istmo, que se caracteriza por contar con ráfagas de viento fuertes.
Hernandez Villamil Diego Fernando, Universidad La Gran Colombia (Colombia)
Asesor: Dr. Ismael Luis Schneider, Universidad de la Costa (Colombia)

DETERMINACION DE LOS NIVELES DE CONCENTRACIONES DE PM1 PM2.5 Y PM10 EN LAS VíAS PRINCIPALES DE LA CIUDAD DE BARRANQUILLA


DETERMINACION DE LOS NIVELES DE CONCENTRACIONES DE PM1 PM2.5 Y PM10 EN LAS VíAS PRINCIPALES DE LA CIUDAD DE BARRANQUILLA

Hernandez Villamil Diego Fernando, Universidad La Gran Colombia (Colombia). Asesor: Dr. Ismael Luis Schneider, Universidad de la Costa (Colombia)



PLANTEAMIENTO DEL PROBLEMA

los contaminantes atmosféricos en especial PM1, que corresponde a las partículas resuspendidas en el aire con diámetro aerodinámico menor a 1.0 micra, PM2.5 partículas menores a 2.5 micras y PM10 partículas menores a 10 micras de la ciudad de Barranquilla. Los contaminantes se clasifican en antropogénicos, derivados de la actividad humana, o naturales, resultantes de procesos de la naturaleza, esas emisiones producen una concentración natural que varía según la fuente local de emisión y las condiciones atmosféricas dominantes (Oyarzún, 2010). La contaminación atmosférica, es una problemática que a nivel mundial ha generado grandes consecuencias, como lo es el cambio de la composición de la atmosfera mundial, esta es una de las más críticas de manera que el cambio de esta, produce que los sistemas naturales de la tierra tengan comportamientos distintos, uno de estos puede reflejarse en el cambio climático y su relación con el calentamiento global, el fenómeno de la contaminación atmosférica se produce como resultado de las actividades humanas o procesos naturales. La contaminación atmosférica es el fenómeno de acumulación o concentración de contaminantes en el aire en un tiempo determinado como resultado de actividades humanas o procesos naturales, que causan molestias o daños para la salud de las personas y otros seres vivos; no debe verse solo como una problemática ambiental, sino directamente relacionada con la calidad de vida de la población (IDEAM, 2012). Sin embargo, la producción y transformación de materias primas a nivel mundial es una de las grandes causas que produce estos contaminantes que modifican la composición de la atmosfera, así mismo, existen otras actividades que son de gran aporte de la producción de estos, como lo es el sector transporte, que a nivel de la ciudad de Barranquilla-Atlántico existen altos niveles de concentración de los contaminantes. Es importante monitorear, controlar y reducir los niveles de los contaminantes atmosféricos, para tener una calidad del aire aceptable, que se adapte y cumpla con estándares nacionales e internacionales. Estos estándares permiten que los grandes países y ciudades que tienen elevados niveles de emisiones de contaminantes a la atmosfera, puedan regularse y tomar decisiones al respecto. Para el caso de Barranquilla, la autoridad ambiental (EPA Barranquilla Verde) es la encargada de velar por los escenarios de calidad del aire, para que se encuentren óptimos y que la población pueda respirar un aire puro y con condiciones aceptables. Las fuentes más representativas para el contexto local son las industrias y el sector transporte, estas producen que la calidad del aire disminuya y que se eleven las concentraciones de los contaminantes. Para el caso del transporte, Barranquilla según fuentes del DANE 2015, cuenta con 1.228.621 personas, al ser una ciudad tan poblada no cuenta con un sistema integrado de transporte, por lo cual genera que no exista una planificación en el sector de la movilidad y que se propicien escenarios donde las concentraciones sean más elevadas.  



METODOLOGÍA

Área de estudio El estudio se desarrollará en el eje vial que comunica la ciudad de Barranquilla de norte al sur, las vías especificas son la vía 40 y la vía Circunvalar           Equipos Garmin Oregon 650: Navegador satelital que permite la captura de información referenciada del espacio por medio de coordenadas. La frecuencia utilizada para la obtención de puntos fue de 10 segundos. Contador de partículas HAL-HPC601: Monitor portátil de partículas. La frecuencia utilizada para la obtención de los datos fue cada 10 segundos y las fracciones de tamaños de partículas medidas simultáneamente fueron de PM0.5, PM1, PM2.5, PM5 y PM10 Materiales y metodos De acuerdo con Larson,2017 y Wen,2019, una forma de representar gráficamente es por medio de la asignación continua de los valores, mediante colores que simbolicen una concentración del contaminante. La metodología a implementar en la modelación de los datos, se estableció medianteuna segmentación de la vía principal en partes iguales, se dividió cada 100 metros a lo largo en intervalos iguales por 50 metros de ancho. Con esta segmentación del eje vial, se pretende que cada polígono asimile un valor numérico de una concentración del material particulado, puesto que se quiere representar los valores reales de las concentraciones. cuando existen uno o varios puntos sobre los poligonos, estos se promedian y generan un valor unico sobre el poligono y a partir de esto se generan los colores para la simbologia de la representación grafica


CONCLUSIONES

De manera de conclusión, se puede decir que en la estancia investigativa se cumplieron los objetivos planteados y se generaron nuevos conocimientos a partir de la participación que se dio en el proyecto. A su vez, la representación gráfica de los contaminantes atmosféricos permitió tener nuevos conocimientos acerca de la modelación particular de estas temáticas. La temática de estudio de los contaminantes atmosféricos permite un amplio campo investigativo, se pueden realizar diversos aportes desde diferentes ramas del conocimiento y para la representación gráfica de estos contaminantes se necesitan conocimientos base como lo son los sistemas de información geográfico que permiten la toma de decisiones sobre casos a fin y la modelación o representación de la realidad por medio de productos cartográficos. Finalmente se puede decir que los niveles de concentraciones de material particulado de PM1, PM2.5 y PM10 se encuentran localizados en los lugares donde el tráfico vehicular es más alto, esto se puede evidenciar en el sector centro de la ciudad en la calle 30 que comunica con el municipio de Soledad-Atlántico. Estos valores se incrementan a su vez por las obras viales que se ejecutan actualmente en la vía, generando el incremento significativo de las emisiones. En términos metodológicos, se logró encontrar los métodos idóneos para la modelación de estas variables que son susceptibles a cambios en el ambiente, es por ello que la segmentación de la vía en polígonos equivalentes permite tener un valor numérico único en un espacio determinado.  
Herrera Virgen Jesús Manuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Satu Elisa Schaeffer , Universidad Autónoma de Nuevo León

CONTROL DE FORMACIóN PI DE UN SISTEMA MULTI-AGENTE


CONTROL DE FORMACIóN PI DE UN SISTEMA MULTI-AGENTE

Herrera Virgen Jesús Manuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Satu Elisa Schaeffer , Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El control de un conjunto de sistemas autónomos que están interactuando en un entorno en común, denominado Sistema Multi-Agente (SMA); ya es conocido en la actualiadad. La problemática fue secundaria a la duda de saber cómo son controlados los robots que son diseñados para desempeñar tareas asignadas, al descubrir que ciertas tareas son realizadas de manera más eficiente por un conjunto de agentes que de manera particular por un solo agente. El problema a resolver es lograr el control de formación y movimiento coordinado de un SMA para garantizar la convergencia de las trayectorias de N agentes seguidores a las trayectorias por un agente líder, manteniendo una formación deseada sin poner en riesgo el estado físico de los agentes.



METODOLOGÍA

Para poder resolver el problema de control de formación y de movimiento coordinado, es necesario aplicar técnicas de control a partir de las identidades dinámicas que poseen los robots. Un robot móvil tipo uniciclo fue elegido como modelo físico para realizar la investigación. Los datos que se manejan para la investigación son comprendidos mediante la búsqueda de información acerca de las dinámicas que tienen los robots. Se comienza como base, aprender a resolver un sistema no lineal de ecuaciones que describan las características de los robots en un plano. Se trabaja con un modelo dinámico no lineal ya definido de un robot móvil tipo uniciclo, dicho sistema describe las identidades del robot, para que pueda ser controlado. Al investigar el sistema no lineal, se pudo analizar la solución de dicho sistema por medio del método de Jacobi; el cual es un método iterativo general. Al entender la solución del sistema, se identificaron las variables de entrada y salida para lograr el control de posición de un solo robot. Los resultados son controlados con ganancias ideales para poder ser simulados. La problemática de lograr un control de formación con movimiento coordinado de tres robots se resuelve de manera exitosa, dichos robots han logrado seguir a un robot líder, la formación es acatada gracias a las dinámicas del robot. Se plantearon experimentos en los cuales se variaría la topología de interconexiones entre los robots, pero por cuestiones de tiempo no fue posible llegar a una implementación con suficiente funcionalidad para llevar a cabo dichos experimentos.


CONCLUSIONES

Adicionalmente, en lo que resta de la estancia, se espera que la variación que se realice en la topología de comunicación, afecte a las trayectorias; de manera que la información que se comparta entre los robots sea errónea y como resultado afecte a la formación de los agentes. Lo que se espera obtener como resultados: Se genere una topología de comunicación ideal para tener una mejor fluidez de información entre robots. La información que se comparte entre agentes y líder, debe tener trayectorias de respaldo por si algún robot deja de funcionar y por ende deja de tener comunicación con el resto de agentes, se crearán dichas trayectorias alternas.
Huerta Hernandez Irma, Universidad Autónoma del Estado de México
Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa

ANÁLISIS DE POSIBLE PRECURSOR SÍSMICO A TRAVÉS DE LA IONOSFERA. CASO DE ESTUDIO: SISMO DEL 16 DE FEBRERO EN EL AÑO 2018 EN PINOTEPA NACIONAL, OAXACA.


ANÁLISIS DE POSIBLE PRECURSOR SÍSMICO A TRAVÉS DE LA IONOSFERA. CASO DE ESTUDIO: SISMO DEL 16 DE FEBRERO EN EL AÑO 2018 EN PINOTEPA NACIONAL, OAXACA.

Huerta Hernandez Irma, Universidad Autónoma del Estado de México. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Actualmente el conocimiento acerca de los sismos ha ido en aumento, al igual que la búsqueda de precursores sísmicos, ya que diversos estudios han tratado de generar un precursor eficiente y confiable, sin embargo, hasta el momento no existe ninguno que nos pueda ayudar en la predicción de un evento. Las perturbaciones atmosféricas vinculadas con la actividad sísmica han tenido gran desarrollo para la búsqueda previa a eventos sísmicos, especialmente en la ionosfera, capa de la atmosfera en donde se obtienen los datos principales para la posible obtención de precursores sísmicos, esta información es tratada por el Contenido Total de Electrones (TEC) presentes en la ionosfera, es importante ya que diversos eventos han presentado esta característica, caso que se va a tratar en un caso de estudio ubicado en Oaxaca.



METODOLOGÍA

Los sismos han estado presentes a lo largo de la historia del hombre, fenómenos sin precedentes que cambian la vida del mismo en distintos ámbitos, como social, económico, etc. En donde se tiene la necesidad de innovar e investigar alternativas que puedan ayudar a conocer más acerca de esta temática, ya que es posible saber el origen, su posible producción; sin embargo, aún no tenemos la capacidad de conocer todo lo que engloba. Estos estudios generarían posibles respuestas para tratar de disminuir los efectos que tienen sobre todo en los sectores más vulnerables dentro de una perspectiva socioeconómica. Es una verdadera incógnita el averiguar y el tratar de saber cuál será el lugar en donde se presentará el siguiente sismo y mas aun es el saber la magnitud que tendría, esto parece ser favorable en el estudio de la cantidad de electrones presentes en la atmosfera en la capa de la ionosfera. De esta manera, si fuese posible predecir un sismo de manera efectiva, se tomarían en cuenta las medidas preventivas vinculadas con los eventos sísmicos. Sin embargo, ante el inminente avance que ha tomado la tecnología gracias a la mano y ciencia desarrollada por el hombre es posible la investigación como la que se retoma en el presente trabajo que aborda un estudio referente a eventos sísmicos, el cual pretende obtener resultados lo más favorables posibles en un caso de estudio realizado en un evento; 16 de febrero del año 2018 en Pinotepa Nacional, Estado de Oaxaca, esto sería posible adquirir por medio de datos y el adecuado procesamiento de los mismos es posible obtener dichos resultados lo mas cercanos a la realidad. Gracias a la ayuda de software y tecnología, se puede hacer el intento por tratar de predecir un sismo, al procesar datos de eventos pasados en lapsos y periodos de tiempo diferentes. Dicho estudio toma como elemento principal la ionosfera, capa del planeta Tierra receptora de actividad inusual o paranormal que se podría vincular con la posible actividad sísmica que está a punto de ocurrir en la superficie de la Tierra..


CONCLUSIONES

Los resultados del estudio en el Estado de Oaxaca, México aplicado en el periodo 2015-2018 fueron relevantes, ya que se registro uno de los principales eventos más relevantes en los últimos años, mismo que fue seleccionado como caso de estudio: Evento del 16 de febrero del año 2018 ubicado a 14 km al SURESTE de Pinotepa Nacional, Oaxaca. Se obtuvo el porcentaje de la actividad sísmica por magnitud, es lógico encontrar mayor cantidad de eventos en magnitudes menores, sin embargo, se presentaron mayores magnitudes en este periodo en comparación con otros años. En conclusión el conocimiento que tenemos acerca de lo que es un sismo, las placas tectónicas que lo generan y la manera en que se producen ha sido estudiada a lo largo de nuestra existencia, hemos tenido la necesidad de conocer más a causa de experiencias mundiales que han causado daños importantes, por lo tanto buscar una manera de prepararnos, un instrumento que nos informe de eventos relevantes, la búsqueda de precursores sísmicos ha sido llevada a cabo desde el siglo pasado, han ido aumentando, principalmente estudios en cambios de cantidad de electrones en la ionosfera. La predicción de un terremoto podría ser confiable con el contenido Total de Electrones en la ionosfera a través de un análisis posterior al evento, el caso de estudio genero resultados posibles y tentativamente confiables.
Hurtado Morales Emiliano, Instituto Politécnico Nacional
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

CONSTRUCCIóN DE PROTOTIPOS BASADOS EN FOTO-MULTIPLICADORES DE SILICIO (SIPM), PARA EL PROYECTO NICA.


CONSTRUCCIóN DE PROTOTIPOS BASADOS EN FOTO-MULTIPLICADORES DE SILICIO (SIPM), PARA EL PROYECTO NICA.

Hurtado Morales Emiliano, Instituto Politécnico Nacional. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El proyecto internacional de megaciencia "Complejo NICA (Nuclotron-based Ion Collider Facility) tiene como objetivo el estudio de las propiedades de la materia nuclear en la región de la densidad barionica máxima. Tal materia existía solamente en las etapas tempranas de la evolución de nuestro Universo y en los interiores de las estrellas de neutrones. El programa de investigación se continuará a energías superiores con la configuración del MPD (Multi-Purpose Detector), donde el equipo de investigación MexNICA liderado por: el Dr. Alejandro Atala del ICN (Instituto de Ciencias Nucleares) de la UNAM, el Dr. Mario Rodríguez de la FCFM (Facultad de Ciencias Físico-Matemáticas) de la BUAP, la Dra. María Elena Tejeda de la Universidad de Colima, la Dra. Isabel Domínguez de la Universidad de Sinaloa y el Dr. Luis Montaño del CINESTAV (Centro de Investigación y Estudios Avanzados) comenzó a trabajar en diciembre de 2016, con el propósito de desarrollar dos detectores: MBB (Mini Beam-Beam) y BEBE (Beam-Beam), de forma que estos activen el TOF (Time of Flight) y con miras a poner en funcionamiento la configuración de inicio del colisionador NICA a finales de 2019. Debido a la gran complejidad del proyecto, se decidió separar por áreas su realización, por lo que, durante la estancia de investigación, se trabajó en la parte del detector y front-end cuya electrónica, se encuentra en desarrollo, con el fin de evitar el máximo de ruido y permitir una lectura limpia de las señales obtenidas.



METODOLOGÍA

Se crearon las estructuras de cada tarjeta electrónica en el software para diseño de circuitos impresos Altium Designer, donde se estableció un proyecto para cada uno, en el cual se desarrolló un esquema electrónico y una placa de circuito impreso. En la elaboración de las tarjetas, primero se posicionaron los componentes en el esquemático y se conectaron sus pines en los lugares indicados, a fin de actualizar el PCB y empezar a conectar los puntos mediante pistas de 0.5 mm, evitando hacer ángulos rectos entre estas, debido a que se crearían antenas que meterían ruido. Asimismo, se alejó cada pista y pin a una distancia de 0.6 mm. Se procedió a imprimir los PCB´s en papel transfer, el cual permite pasar la tinta, mediante calor a una temperatura de 100°C durante 10 min, a la tabla fenólica, la cual fue lijada anteriormente para limpiarla de impurezas que impidieran un buen funcionamiento. Posteriormente, se retiró el papel en exceso con agua y se introdujo en cloruro férrico, que, en combinación con el agua se produce una solución ácida y corrosiva que elimina el cobre no cubierto por la tinta. Después de eliminar completamente el cobre en exceso, se limpió la tarjeta y se usó acetona o quita esmalte para quitar la tinta. Finalmente, se taladró con una broca de 1.8 mm, se pusieron los componentes y se soldaron, evitando dejar alambres o cables volando. La primera tarjeta fue una configuración de cuatro SiPM, detectores de estado sólido formados por una matriz de fotodiodos polarizados en modo Geiger sobre un mismo substrato y bajo una misma tensión de polarización, en un espacio de 2x2 cm, debido a que es el tamaño de los plásticos centelladores, detector que transforma la radiación ionizante en fotones visibles, con medidas de 5x5 cm. Primero se experimentó con cable USB, pero al activar los SiPM con 29.5V de corriente directa y observar las señales con el osciloscopio, se metía demasiado ruido y dejaba ciega en una gran parte a la lectura. Entonces se pasó a usar par trenzado, debido que al restar las ecuaciones que describen el comportamiento de la corriente en los cables, se elimina el ruido teóricamente. Lamentablemente, no se logró obtener mejoras significantes, por lo que, se decidió emplear cable coaxial, el cual dio resultados muy favorables, obteniendo señales más limpias. El segundo diseño, más que una tarjeta, fue la estructura de la mitad de una de las 16 tiras que se instalarán en el cilindro que compone al MBB. Esta está compuesta de 10 tarjetas similares a la anterior, a diferencia que son del tamaño del plástico centellador, que están conectadas a un Backplane. En total se utilizarán 360 plásticos centelladores y 1440 SiPM. Asimismo, con la primera tarjeta se probaron los plásticos centelladores BC-404 y BC-422, pero para poder realizar esta actividad se necesitó forrarlos. Primero, se obtuvieron las medidas de los SiPM y sus separaciones, siendo 6x6 mm. Luego, se recortó papel mylar, el cual refleja la luz, y tyvek, el cual es un papel muy opaco que disminuye de manera significante la salida de luz, esto con la intención de aumentar la probabilidad de que el fotón desprendido choque en el detector. Para a fin de cuentas ajustar primero el papel mylar y luego el tyvek al plástico con pequeñas tiras de cinta de aislar, impidiendo cualquier abertura posible. Para poder caracterizar los plásticos, se usó una fuente radiactiva de cobalto-60 para acelerar el tiempo de disparo y el software "Anaconda - Spyder", con el cual se realizó una muestra de 10000 eventos con cada plástico. Estos datos se introdujeron al software "MatLab", el cual permitió obtener una gráfica de distribución Landau, de forma que se logró observar que el BC-404 tiene una mayor sensibilidad, pero mayor tiempo de subida, al contrario del BC-422.


CONCLUSIONES

A lo largo de la estancia de investigación se entendió un poco más acerca de la Física Cuántica, Lenguajes de Programación y Electrónica en el área de construcción de tarjetas y elementos electrónicos. El proyecto ya está en una etapa semi-avanzada donde se ha establecido la estructura del MBB, el uso de SiPM y plásticos centelladores, pero todavía se requiere que se aclaren varios puntos que con los resultados obtenidos se espera que sea posible despejar un poco más el panorama, por ejemplo, en el caso del tipo específico de cable o plástico que se usará. En la parte de Electrónica, se espera eliminar lo más posible el ruido de cualquier índole usando la menor cantidad de material y evitando componentes que envejezcan demasiado rápido.
Inzunza Soto Martín Alonso, Universidad Autónoma de Sinaloa
Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLO DE PELíCULAS DELGADAS SEMICONDUCTORAS DE CALCOGENUROS ALTERNATIVOS PARA APLICACIONES EN APROVECHAMIENTO DE ENERGíA SOLAR


DESARROLLO DE PELíCULAS DELGADAS SEMICONDUCTORAS DE CALCOGENUROS ALTERNATIVOS PARA APLICACIONES EN APROVECHAMIENTO DE ENERGíA SOLAR

Inzunza Soto Martín Alonso, Universidad Autónoma de Sinaloa. Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Hoy día existen miles de aparatos que utilizan electricidad como fuente de energía, y su uso ha provocado un gran aumento en la demanda de consumo eléctrico. Este hecho ha propiciado la búsqueda de nuevas fuentes de energía y nuevos sistemas de producción eléctrica, basados, fundamentalmente, en energías renovables que ayuden a reducir la dependencia y los problemas que surgen del uso de los combustibles fósiles. Una de las opciones más viables es generar electricidad a partir del sol. En términos generales, las tecnologías de aprovechamiento de la energía solar se centran en el desarrollo de celdas solares las cuales convierten la energía adquirida del sol en electricidad a través de materiales (semiconductores) con una propiedad física denominada efecto fotovoltaico. Actualmente, cerca del 95% de todas las celdas solares producidas mundialmente están compuestas de silicio. Sin embargo, para su producción se emplean procesamientos complejos y costosos  lo que se ve reflejado en el alto precio de los dispositivos. Como alternativa a los costosos paneles solares de silicio se encuentran las celdas solares de películas delgadas semiconductoras.



METODOLOGÍA

Las películas delgadas semiconductoras de sulfuro de antimonio amorfo se sintetizaron a través del método de depósito por baño químico (DBQ). Este método se basa en una reacción de precipitación que puede ser controlada por medio de parámetros como la temperatura, pH, concentración o tiempo de reacción y, actualmente, es muy utilizado para la síntesis de películas delgadas ya que ha demostrado ser eficaz, sencillo, de bajo costo y muy apropiado para el depósito de películas con poco espesor de manera controlada. En este trabajo, los reactivos utilizados en el depósito para la obtención de las películas delgadas de sulfuro de antimonio amorfo sobre sustratos de vidrio fueron: cloruro de antimonio, tiosulfato de sodio, agua y acetona. Los parámetros controlados durante el proceso fueron la temperatura, pH y la concentración de los reactivos en la solución. Se realizaron dos depósitos en los cuales el tiempo de reacción vario de 30 a 110 minutos y, cada 20 minutos se retiró un sustrato del vaso precipitado para observar el cambio en el espesor de la película. Las películas delgadas presentaron una buena calidad en color, brillo y adhesividad. Posterior a su obtención, estas se caracterizaron mediante la técnica de elipsometría espectroscópica. La elipsometría espectroscópica es una técnica de análisis óptico (no destructiva) que mide el cambio en el estado de polarización de un haz de luz (al ser reflejado por una muestra) representado mediante los parámetros Psi y Delta. En general, el haz incidente  linealmente polarizado emerge con polarización elíptica. Es importante aclarar que esta técnica no mide espesores ni constantes ópticas, sin embargo, Psi y Delta son funciones del espesor y las constantes ópticas, por lo tanto, esta información puede extraerse a través de un software y mediante un análisis basado en un modelo usando leyes de la física (ecuaciones de Maxwell y Fresnel, ley de Snell, etc.). El objetivo del análisis elipsométrico es estudiar las propiedades ópticas, electrónicas y estructurales de las películas delgadas de sulfuro de antimonio amorfo . Para la caracterización se utilizó un elipsómetro de la marca Horiba Jobin Yvon UVISEL ubicado en el instituto de ingeniería civil de la  Universidad Autónoma de Nuevo León (UANL).  La información deseada se obtuvo a través de un modelo representativo de la muestra realizado en un software que lleva por nombre DeltaPsi2 (de la misma marca). La información arrojada por el modelo nos indica como las propiedades ópticas varían con respecto a la longitud de onda, un ancho de banda que se encuentra en un intervalo de 1.9 a 2.3 eV  (concuerda con la bibliografía reportada anteriormente) y, como el espesor y la rugosidad cambian dependiendo del tiempo de reacción.


CONCLUSIONES

Durante la estancia de verano se sintetizaron películas delgadas semiconductoras de sulfuro de antimonio amorfo  a través del método de depósito por baño químico (DBQ). También, se realizó un análisis de las propiedades ópticas, electrónicas y estructurales de las películas obtenidas mediante la técnica de elipsometría espectroscópica. Sin embargo, es preciso aclarar que la información recabada hasta la fecha a partir del análisis elipsométrico no es del todo confiable ya que se necesita realizar un mejor ajuste de los parámetros Psi y Delta obtenidos mediante el elipsómetro a través del software DeltaPsi2.
Jacobo Márquez Alanis, Instituto Politécnico Nacional
Asesor: Dr. Roberto López Rámirez, Tecnológico de Estudios Superiores de Jocotitlán

DISEñO Y CONSTRUCCIóN DE UN SISTEMA DE DEPóSITO QUíMICO EN FASE VAPOR ASISTIDO POR FILAMENTO CALIENTE (HFCVD)


DISEñO Y CONSTRUCCIóN DE UN SISTEMA DE DEPóSITO QUíMICO EN FASE VAPOR ASISTIDO POR FILAMENTO CALIENTE (HFCVD)

Jacobo Márquez Alanis, Instituto Politécnico Nacional. Asesor: Dr. Roberto López Rámirez, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

La deposición de vapor químico por filamento caliente HFCVD es un método que se aplicado ampliamente a la deposición de películas de diamante. Típicamente en este método, una mezcla diluida de gas que contiene carbono, como metano con hidrógeno, se activa termicamente a presiones subatmosfericas mediante un filamento caliente. Construir un reactor de HFCVD para la obtención de semiconductores. La característica principal de este sistema es la disociación de hidrógeno molecular en la superficie de un filamento calentado a 2000°C. Obtener hidrógeno atómico logra descomponer a los reactantes para formar precursores volátiles que se transportan hacia el substrato dónde se crea el semiconductor.



METODOLOGÍA

Paso 1.- Diseño del rector. Paso 2.- Armado del rector. Paso 3.- Instalación del sistema neumático. Paso 4.- Instalación del sistema eléctrico. Paso 5.- Caracterización del sistema. Paso 6.- Obtención de una muestra de semiconductor de óxido de zinc.


CONCLUSIONES

En este proyecto, se lograron adquirir conocimientos teóricos y prácticos fundamentales para alcanzar en su totalidad en diseño y construcción del reactor HFCVD, mediante el uso e instalación de softwares de diseño tales como "Solidworks 2018" y "Cura 15" para su modelación. El montaje del rector HFCVD debe realizarse con sumo cuidado en cada etapa. En la etapa mecánica, se debe checar que todas las partes a ensamblar cuentan con un oring para evitar fugas durante el proceso de deposición. En la etapa neumática, todas las conexiones deberán sellarse herméticamente desde los tanques de suministro hasta la salida a interperie y los instrumentos de medición. En la etapa eléctrica, debe tomarse en cuenta la resistencia del filamento que se empleará, así como el material del que está hecho, la cantidad de corriente y voltaje que se consumirá para el proceso de deposición y la alimentación de la fuente hacia el filamento.
Jacobo Marquez Helen Sharoni, Instituto Politécnico Nacional
Asesor: Dr. Mauro German Valdés Barrón, Universidad Nacional Autónoma de México

RADIACIACIóN SOLAR E ILUMINANCIA


RADIACIACIóN SOLAR E ILUMINANCIA

Jacobo Marquez Helen Sharoni, Instituto Politécnico Nacional. Asesor: Dr. Mauro German Valdés Barrón, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La iluminancia o nivel de iluminación se define como el flujo luminoso que incide sobre una superficie. Su unidad de medida es el Lux. Esta medida nos permite conocer la cantidad de luz en nuestro entorno. Cuanto más cerca de una fuente de luz esté el área iluminada, mayor será el valor de iluminancia. La iluminancia horizontal es la cantidad de aterrizaje de luz en una superficie horizontal, como un escritorio, y la iluminancia vertical es el aterrizaje de iluminancia en una superficie vertical, como una pared. Los valores de iluminancia para aplicaciones de iluminación dependen de la complejidad de las tareas visuales. Para los arquitectos emplear la luz natural es importante ya que posee mejores cualidades que la artificial y constituye un elemento de bienestar; así mismo el acondicionamiento de la iluminación natural lleva consigo, la colocación correcta de los puestos de trabajo respecto a las ventanas o claraboyas, de manera que los trabajadores no sufran deslumbramiento y la luz solar no se proyecte directamente sobre la superficie de trabajo. La problemática actual en el país es que existe una carencia de datos acerca de la iluminancia, por lo cual resulta útil tener una manera alterna para obtener e interpretar los datos, ya que estos datos servirán para adquirir una aproximación de las temporadas donde será mayor el gasto de energía eléctrica y en los casos de lugares que trabajen con paneles solares, cuánto tiempo será necesario que trabajen con energía eléctrica.



METODOLOGÍA

Se trabajaron con datos de tres estaciones pertenecientes a la Red del Servicio Solarimétrico Mexicano -Ciudad Universitaria, Zacatecas, Ciudad Juárez- utilizando una ecuación de regresión en la cual el valor predictor eran los datos de la radiación solar. Se creó una base datos para ingresar información de la radiación global e iluminancia en la cual se programó para evitar el error del amanecer y atardecer y solo trabajando con datos, así mismo los datos de cada estación a trabajar fueron del año 2018 minuto a minuto. Se crearon tablas de dispersión utilizando la radiación global y los datos de iluminancia; estas gráficas nos permitirían ver la correlación que se encontraban en los datos y corroborar que la hipótesis tenida era correcta, la radiación global ocupando esta misma como predictor, nos permitirá conocer la iluminancia sin la necesidad de otro sensor. Se realizaron tablas de cada mes con su respectivo gráfico, al final creamos dos tablas por cada estación en las cuales estaba información de radiación global y la otra tabla de iluminancia de todo el año las cuales serán importadas a otro programa que nos permitió utilizar otro método de visualización de los resultados. Se realizó una programación en R Studio la cual nos permitió ver la similitud entre ambos parámetros, de manera que nos permite visualizar por medio de boxplots los resultados obtenidos. Una vez realizadas las gráficas de cada mes de cada estación se creó una tabla con los valores de correlación notando una similitud de 0.9, juntando las tres estaciones y seleccionándolas mes con mes y al final sacar un promedio con el cual vimos el comportamiento de la iluminancia.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos, donde pudimos determinar que es necesario tomar medidas de la radiación solar y crear datos locales y regionales, bases de irradiación e información sinóptica (meteorológica). Asimismo, se demostró que teniendo un sensor de radiación se podrá realizar una correlación con un modelo - factor de correlación- tomando los datos de la irradiancia global y la iluminancia trabajando con un valor predictorY=ax+b. donde Y es la iluminancia y x la radiación global ya que este modelo es el más elemental de predicciones.
Jimenez Figueroa Jose Salvador, Universidad de Guadalajara
Asesor: Dr. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)

ANáLISIS ARMóNICO DE VARIACIONES DEL NIVEL DEL MAR EN EL CANAL DE COZUMEL


ANáLISIS ARMóNICO DE VARIACIONES DEL NIVEL DEL MAR EN EL CANAL DE COZUMEL

Jimenez Figueroa Jose Salvador, Universidad de Guadalajara. Asesor: Dr. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Investigadores de El Colegio de la Frontera Sur (ECOSUR) buscaron una solución sustentable a la demanda de energía eléctrica de la isla de Cozumel, la cual actualmente sólo cuenta con un cable submarino como fuente única de electricidad. Esto como parte de su proyecto Exploring marine energy for supplying a stable electrical demand and promoting the economic growth in local communities surrounding the Cozumel Channel. La parte fundamental del proyecto liderado en México por ECOSUR, constó en encontrar y registrar condiciones necesarias en el canal de Cozumel para la colocación de un sistema de turbinas submarinas y el aprovechamiento de la energía generada por la corriente del canal. El equipo de trabajo reportó que con la configuración de turbinas propuesta por ellos en una sección de la isla sería posible producir de forma sustentable el 10% de la demanda energética de Cozumel. La sección sugerida para instalación de turbinas fue aquella de menor variación en la dirección y magnitud de la corriente, con velocidades al noreste de entre 0.9 y 1.2 m/s principalmente. Es necesario dar una descripción confiable de la dinámica del canal de Cozumel en la que fenómenos naturales como la marea y cambios estacionarios en general sean considerados para la implementación de fuentes de energía oceánica. Con el plan de implementación de turbinas subacuáticas sobre la plataforma de la isla, es necesario garantizar que éstas se encuentren completamente sumergidas durante todos los ciclos predominantes de marea que modifican las condiciones de Cozumel a lo largo del tiempo. Por esto, como parte de la estancia de investigación del Programa Delfín se realizó un análisis armónico y estadístico de las variaciones del nivel del mar en tres puntos diferentes del canal. La propuesta inicial basada en observaciones previas del nivel del mar alrededor de Cozumel fue que la dinámica local es dictada casi completamente por forzantes de marea planetaria, con los cuales sería suficiente comprender y predecir el sistema para el desarrollo del proyecto de energía por fuentes renovables.



METODOLOGÍA

Se realizó un análisis a computadora de los datos del nivel del mar obtenidos con dispositivos HOBO en tres diferentes puntos del canal de Cozumel: Chankanaab, Punta Sur y Xcaret. Los sensores de nivel y temperatura HOBO fueron fijados en una estructura artificial en el fondo por el equipo de ECOSUR, midiendo  hora, presión absoluta y temperatura en su posición en intervalos de 15 minutos, del 20 de junio al 1 de octubre de 2018. Además se realizó un registro de la presión atmosférica en Villas Colibri Cozumel, con los cuales se pudo calcular el valor promedio de dicha zona. Se escribió un código de MATLAB con el cual se generaron tres distintas series de tiempo, al restar la presión atmosférica promedio de Cozumel y transformando los datos de presión de pascales a metros considerando la densidad del agua de esta zona. En las series de tiempo se visualizó el carácter periódico oscilatorio en el cambio del nivel del mar, evidenciando dos claras pleamares y bajamares al día, con diferentes máximos y mínimos. Este comportamiento característico sugiere la dinámica de un lugar con marea semidiurna. Empleando el programa TAPTides se calculó un ajuste a los datos por medio de los constituyentes principales de marea lunar y solar: O1, K1, N2, M2 y S2, determinando la amplitud y fase de la función de onda de cada forzante de marea. Posteriormente se graficaron los datos del análisis con la combinación lineal de estas ondas forzantes sobrepuesta a ellos y el error del ajuste respecto a cada medición. También se calculó un criterio llamado form number que informa si en la marea analizada predomina el carácter diurno o el semidiurno.   El resultado del análisis armónico reveló que los componentes de mayor amplitud en los tres conjuntos de datos fueron los componentes semidiurnos M2 y S2, con amplitudes de 0.07 y 0.03 m respectivamente, en los tres análisis. Los demás componentes presentaron diferencias de amplitud del grado de 1×10-3 m. La mayor diferencia entre los sitios se observó en la fase de los constituyentes, con una magnitud de 1×102 grados. Los valores de error y form number para los datos de Xcaret, Punta Sur y Chankanaab respectivamente son: Error REMS 0.069, 0.08, 0.071; reducción porcentual en varianza 43.68, 35.91 y 43.33; form number 0.34, 0.33 y0.38. De acuerdo al manual del software, un form number entre 0.25 y 1.5 indica un régimen mixto, principalmente semidiurno. Para comprobar el ajuste se realizó un análisis estadístico del error residual para cada conjunto de datos. Se tomaron los valores de frecuencia, amplitud y fase de cada constituyente de marea y se realizó una combinación lineal de todas las funciones de onda, luego restando las mediciones reales a estas combinaciones lineales. Los datos estadísticos del residuo de Xcaret, Punta Sur y Chankanaab respectivamente son: Promedio estadístico -0.0013, 0.0014 y -0.0005; desviación estándar 0.0855, 0.0951 y 0.0882; curtosis 2.7357, 3.0184 y 2.7249; asimetría -0.0585, -0.1570 y -0.1090.


CONCLUSIONES

El análisis armónico de la marea en el canal de Cozumel permitió identificar que su dinámica es de carácter semidiurno, dominado por la marea planetaria, y el nivel del mar varía de acuerdo a ésta. También se presentan forzamientos locales que se comportan de forma aleatoria alrededor del nivel causado por la marea planetaria. Esto permite predecir el comportamiento del nivel del mar en esta zona. Gracias a la estancia de verano del Programa Delfín se lograron aplicar conocimientos previos de oceanografía y programación para realizar el análisis de un sistema real de mareas, el cual también será de provecho para la comunidad científica y la población de Cozumel como parte del proyecto de generación de energía oceánica.
Jiménez Ramos Klever Alexander, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)

VARIACIóN TEMPORAL DE LA INTRUSIóN SALINA EN EL RíO HONDO, FRONTERA MéXICO-BELICE


VARIACIóN TEMPORAL DE LA INTRUSIóN SALINA EN EL RíO HONDO, FRONTERA MéXICO-BELICE

Jiménez Ramos Klever Alexander, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Río Hondo es el único sistema lotico con régimen permanente en la Península de Yucatán. Este río pertenece a la cuenca tripartida que abarca Guatemala, México y Belice, siendo frontera natural entre estos dos últimos países y desemboca directamente en la Bahía de Chetumal, decretada como Área Natural Protegida Estatal Santuario del Manatí en 1996. Los análisis y estudios de la variación temporal de la estructura salina en estuarios se han desarrolló con el fin de conocer su comportamiento y relación entre las descargas de agua dulce y su interacción con cuerpos de agua salada. Como parte de la estancia de investigación del programa Delfín se realizó una descripción de la variación temporal de la salinidad entre Río Hondo y Bahía de Chetumal con datos del monitoreo mensual que realiza el grupo de Oceanografía de El Colegio de la Frontera Sur Unidad Chetumal.



METODOLOGÍA

Se consideraron muestreos mensuales correspondientes a 2018 para 32 estaciones en el área de estudio, se utilizaron los perfiles de temperatura, salinidad y profundidad mediante el uso de CTD (conductividad, temperatura y profundidad). Con la información se generaron bases de datos y a partir de ellas se realizaron las siguientes gráficas: -Gráfica de extensión anual de intrusión salina -Gráfica mensual de extensión máxima de la intrusión salina -Gráfica mensual de la variación de la profundidad en la intrusión salina -Gráfica mensual de fluctuaciones puntuales de la intrusión salina


CONCLUSIONES

La observación y análisis del comportamiento gráfico de la salinidad mensual, permitió  evidenciar los límites de la intrusión salina y la estratificación en la columna de agua, así como identificar las zonas claves de mezcla o cambios de salinidad para 2018. El trabajo realizado durante el programa Delfín, me permitió sentar las bases para el proyecto de investigación a realizar como parte de residencia profesional, al considerar el análisis estadístico y conformación del manuscrito, que cumpla los estándares del formato de residencia profesional y ser sometido a evaluación para su aprobación.
Jiménez Reyes Susana Berenice, Universidad Autónoma de Sinaloa
Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa

SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.


SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.

Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla. Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla. Jiménez Reyes Susana Berenice, Universidad Autónoma de Sinaloa. Ortiz Olivas Jesus Raul, Universidad Autónoma de Sinaloa. Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El método de Monte Carlo (MC) es un método estadístico que usa números aleatorios para aproximar expresiones matemáticas complejas y difíciles de evaluar con exactitud. Este método es muy útil en estudios de sistemas con un gran número de grados de libertad, por ello, se dio el interés de simular un electrolito. Por otra parte, para hacer que las configuraciones del sistema sean representativas del equilibrio se empleó el algoritmo de Metrópolis, cuya finalidad es realizar los desplazamientos de las partes del sistema modelo de manera similar a las partes de un sistema real. El algoritmo cambia la configuración del sistema modelo por otra de acuerdo con la variación de la energía total de éste. De este modo, se acepta o rechaza una configuración con cierta probabilidad dependiendo de la variación de la energía, respecto a la energía total de la configuración anterior.  Un electrolito o solución iónica es cualquier sustancia que contiene en su composición iones libres, que hacen que se comporte como un conductor eléctrico. La importancia en el estudio de estas sustancias recae en aplicaciones dentro de la electroquímica, física médica, fisiología, en bebidas deportivas, salud, etc. Por ello, comprenderlos podría suscitar futuramente un nuevo avance científico o bien, una mayor eficiencia de los mismos en contacto con otros agentes.



METODOLOGÍA

Inicialmente, se definió un sistema modelo, se escogió su configuración inicial a partir de las condiciones descritas; de ese modo, se desarrolló un algoritmo para manipular las partes del modelo de manera que las configuraciones de este, después de cierta cantidad de movimientos (termalización) sean similares a las condiciones de equilibrio del sistema real. Además, cabe mencionar que las simulaciones MC son atemporales y por otra parte, cada configuración del sistema es influida por la configuración anterior. Una vez termalizado el sistema, se procedió a almacenar la estadística de las distintas magnitudes físicas que nos interesó medir. Para el caso del modelo del electrolito, fueron la cantidad de cargas positivas y negativas, iteraciones, pasos, temperatura, concentración, actualización, distancias de desplazamiento, permitividad dieléctrica relativa del agua, diámetro de las partículas y densidad de carga. Todo lo mencionado anteriormente se almacenó en un archivo de salida, el cual era posible modificarlo posteriormente para electrolitos con sales 1:1, 2:1 y 3:1. Por otra parte, para cumplir la hipótesis ergódica, la cual dice que es necesario que cualquier punto accesible en el espacio de configuraciones del sistema pueda ser alcanzado en un número finito de pasos de simulación desde cualquier otro punto, se tuvo especial cuidado en que las configuraciones de los iones que se utilizaron para realizar cálculos fueran suficientes y representativas de un sistema en equilibrio. A continuación, se recabó toda la estadística para después calcular sus promedios. Se empleó entonces el algoritmo de Metrópolis, que como se ha mencionado, si la energía de la nueva configuración es menor a la de la anterior tiene mayor probabilidad de ser aceptada, mientras que si esta es mayor muy probablemente será rechazada, en analogía a un sistema real. Efectuado ello, se procedió a realizar correcciones al modelo, es decir, si se tratan esferas rígidas o no, la pared cargada con la que interaccionaron las partículas, el confinamiento de las mismas, la ecuación de la energía de interacción total entre los iones, la dirección en la distancia x, la ecuación de la interacción de los iones con la pared cargada ubicada en el plano "x, y" y el efecto de la Doble Capa Eléctrica (DCE). Finalmente, se visualizó el comportamiento del sistema en el programa GeoGebra y se realizó el análisis estadístico en el programa Origin.


CONCLUSIONES

Generados los archivos de salida, se visualizaron los resultados en GeoGebra, facilitando el estudio de la distribución de los iones en el electrolito. Del mismo modo, para una mayor comprensión y un análisis detallado de su comportamiento, se revisaron los datos de la simulación en Origin. Se aplicó la simulación para sales con una densidad superficial de carga de -24 µC/cm2 , -12 µC/cm2, y -4 µC/cm2, en presencia de una sal simétrica 1:1, con iones de 0.72 nm  de diámetro a una concentración salina 100 mM y 1M para cada una de ls densidades mencionadas.  También se obtuvieron los perfiles de concentración iónica para un sistema de un plano cargado con las mismas densidades superficiales de carga en presencia de sales simétricas 2:1 y 3:1, con iones de 0.84 nm de diámetro a una concentración salina 333 mM y 0.96 nm a 167mM, respectivamente. En general, se observó que el achatamiento de las curvas depende de la densidad superficial de carga, es decir, si esta es más negativa, será más angosta; la elevación de la curva en los perfiles se debe al efecto de la Doble Capa Eléctrica (DCE) y tiende a ser asintótica debido a que intenta alcanzar el equilibrio en el seno de la solución.
Jimenez Ruvalcaba Ana Maria, Universidad Autónoma de Occidente
Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán

EVALUACIÓN DE UN SISTEMA DE TRATAMIENTOS DE AGUA RESIDUAL CON COLORANTES TEXTILES


EVALUACIÓN DE UN SISTEMA DE TRATAMIENTOS DE AGUA RESIDUAL CON COLORANTES TEXTILES

Free Toledo Alexia, Universidad Autónoma de Occidente. Jimenez Ruvalcaba Ana Maria, Universidad Autónoma de Occidente. Loera Valenzuela Helmut Osvaldo, Universidad Autónoma de Occidente. Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán



PLANTEAMIENTO DEL PROBLEMA

Industria textil es el nombre que se da al sector de la economía dedicado a la producción de ropa, tela, hilo, fibra y productos relacionados. En las estadísticas económicas se suele incluir la industria del calzado como parte de la industria textil. Es un término genérico para toda sustancia química capaz de producir toda gama de tinte para dar color a productos de la industria textil, cosmética y alimentaria. El azul de metileno, cuyo nombre científico es cloruro de metiltionina, es un colorante orgánico que se usa para tratar una enfermedad llamada metahemoglobinemia. El tratamiento de aguas residuales consiste en una serie de procesos físicos, químicos y biológicos que tienen como fin eliminar los contaminantes físicos, químicos y biológicos presentes en el agua efluente del uso humano. El objetivo del tratamiento es producir agua limpia (o efluente tratado) o reutilizable en el ambiente y un residuo sólido o fango (también llamado biosólido o lodo) convenientes para la disposición o rehúso. Es muy común llamarlo depuración de aguas residuales para distinguirlo del tratamiento de aguas potables.



METODOLOGÍA

La caracterización del agua residual por el colorante azul básico 9 se llevó a cabo en el Laboratorio de Posgrado e Investigación en Ciencias Ambientales y en el Laboratorio de Cromatografía y Espectrometría pertenecientes al Instituto y equipadas adecuadamente para realizar las pruebas necesarias en cuanto a las determinaciones fundamentales de la investigación. La caracterización de agua residual se llevó a cabo mediante parámetros químicos de la calidad del agua, se analizaron mediante el parámetro de la Demanda Química de Oxigeno (DQO), debido a que la finalidad de la investigación es remover contaminantes como materia orgánica y nutrientes. Para la remoción de nuestro contaminante, en este caso el colorante azul básico 9, primero se usó un pre-tratamiento. El pre-tratamiento que fue seleccionado para la remoción de cierta cantidad de contaminantes fue la filtración. Las muestras fueron pre-tratadas a través de un filtro tubular. En su interior se encuentran 3 materiales filtrantes, seleccionados por la alta capacidad de retención de contaminantes como lo son sólidos y algunos microorganismos. El diseño del reactor se realizó a base de las características del agua residual analizada y de la eficiencia de los materiales elegidos. Los tres materiales seleccionados son: antracita, zeolita y carbón activado.


CONCLUSIONES

Con base a los resultados obtenidos, puedo expresar que la remoción del colorante Azul Básico 9 es más eficiente cuando se le aplica un pre-tratamiento con un porcentaje de remoción al 83.26% después de 3 filtraciones, a comparación de solo analizar el agua residual pura con el contaminante. Para que esta formulación pueda ser destruida necesita implementarse distintas técnicas de tratamiento para poder eliminar por completo el colorante de un agua residual. Con esta investigación pude entender y realizar distintas técnicas de descontaminación de un agua residual contaminada por colorantes, y el entender que una sola técnica no es suficiente para la remoción, en su mayoría, y que el usar pre-tratamientos puede ser bastante económico y sencillo si sabemos analizar y buscar opciones que puedan darnos un mejor resultado.
Jiménez Salado Isabel, Instituto Politécnico Nacional
Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México

MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA


MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA

Aguilar Valdez Sofía Alejandra, Universidad de Guadalajara. Jiménez Salado Isabel, Instituto Politécnico Nacional. Morales Ramírez Natalia, Instituto Politécnico Nacional. Navarro Salazar Fidel Alejandro, Universidad de Sonora. Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se estudiará la detección de alimentos procesados por radiación a través de diferentes métodos. Se discutirán los conceptos que gobiernan la propiedad de luminiscencia del estado  sólido como un punto inicial para estudiar materiales con aplicaciones dosimétricas. De esta forma, podremos demostrar las ventajas de la irradiación de alimentos en México a partir de medidas de PSL (fotoluminiscencia) en orégano y TL (termoluminiscencia) en calcita naranja a diferentes dosis de radiación gamma.  Se trabajó con orégano debido a su importancia en el mercado mexicano, ya que se cosechan anualmente cerca de 4000 toneladas; de las cuales el 85% es exportado a Estados Unidos, el 10% se utiliza en el mercado doméstico y el 5% a países europeos y asiáticos. Debido a que las exigencias del mercado extranjero han de cumplirse en su totalidad, un método de esterilización viable es el de procesar a los alimentos por irradiación gamma. Aunado a lo anterior, también se trabajó con calcita naranja por sus propiedades luminiscentes como dosímetro natural. Las propiedades de TL de la calcita tienen aplicación en datación geológica, dosimetría ionizante y ultravioleta, así como en la evaluación de dosis gamma usadas para la preservación de comida.



METODOLOGÍA

Se trabajaron varias muestras de calcita naranja y orégano expuestas a diferentes dosis de radiación gamma de Cs137, en un rango de 50-3000 Gy, a través del irradiador autocontenido Gammacell 3000.  Para analizar las muestras de calcita y orégano, se utilizaron los métodos de TL y PSL respectivamente. Además, se revisaron varios conceptos que gobiernan la propiedad de luminiscencia del estado sólido; entre ellos  la teoría de bandas y su relación con la estructura cristalina de los materiales, la interacción de la luz con la materia, y la energía de activación. Esta última se obtuvo con la ecuación de Arrhenius de acuerdo al método de levantamiento inicial. En consecuencia, a partir de los resultados experimentales fue posible calcular el factor de frecuencia y la energía de activación. Para el estudio de las ocho muestras de orégano a diferentes dosis, se empleó el método de PSL a través del equipo SURRC Pulsed PSL System de la compañía SUERC. Dicho instrumento hace uso de un arreglo de diodos infrarrojos para detectar la señal emitida por la presencia de feldespato en las muestras de orégano. De los datos obtenidos de orégano irradiado fue posible observar que la evolución de la cuenta de fotones tiende a aumentar con respecto a la dosis. Así mismo, por medio del PSL se determinó que las muestras se encontraban irradiadas a partir de una dosis de 250 Gy. La evolución de la cuenta total con respecto a la dosis presenta en primera instancia un comportamiento lineal en las dosis de 50-500 Gy, seguido de un comportamiento exponencial De la misma forma, se trabajó con el desvanecimiento de la señal a través del tiempo para las muestras de orégano con dosis de 250, 1000, 2000 y 3000 Gy. Se trabajaron con estas dosis puesto que la muestra de 250 Gy fue la primera categorizada como positiva. Se realizó un estudio de las cuentas por segundo con respecto al tiempo para la señal de cada dosis en un intervalo de 34 días después de ser irradiadas. Se observó que las cuentas por segundo disminuyen con el tiempo; así mismo, la cuenta total decreció de forma lineal con una pendiente más pronunciada a mayor dosis. Sin embargo, fue posible presenciar una recuperación de las cuentas por segundo y cuenta total en cada dosis debido a la participación de trampas previamente inactivas. Adicionalmente, para muestras mayores a 250 Gy era posible obtener un resultado positivo mediante el método PSL debido a la alta concentración de poliminerales como feldespatos. Las dosis utilizadas de calcita fueron de; 50, 100, 250, 500, 1000, 1500, y 2000 Gy. Para obtener resultados con mayor fiabilidad, se utilizaron dos muestras por cada dosis y doce adicionales con dosis de 1000 Gy con la finalidad de estudiar la pérdida de señal. Los picos de las curvas de brillo se encuentran en un rango de temperatura de 134-153°C. Así mismo, la respuesta de la intensidad termoluminiscente es directamente proporcional a la dosis a la que fueron expuestas las muestras; dado que se espera que a mayor dosis, habría mayor respuesta termoluminiscente. Con respecto a los parámetros de atrapamiento, se observó un comportamiento exponencial para la energía de activación y el factor de frecuencia. La respuesta TL disminuye conforme pasan los días, mostrando un decaimiento del 57%. De la misma forma, la banda de reatrapamiento aumenta provocando que la banda principal disminuya; es decir, el rango de la temperatura máxima de la respuesta TL cambia a 143-175°C después de 34 días.


CONCLUSIONES

El método de PSL demostró ser sensible y eficiente para el análisis de muestras irradiadas de orégano, detectando material irradiado en un plazo de 34 días para muestras mayores a 250 Gy. Debido a una alta concentración de poliminerales, como feldespatos y silicatos, presentes en el orégano. En consecuencia, el método de PSL es útil para la detección a largo plazo de alimentos secos irradiados conservados en ambientes obscuros.  Por otro lado, a través del método de TL se obtuvo que la calcita naranja mantiene su señal por más de un mes de ser irradiada. Por este motivo se recomienda el material como dosímetro natural para el estudio de irradiación de alimentos y datación geológica.  A través del verano de investigación, logramos entender la participación de los materiales con aplicaciones dosimétricas en la detección de alimentos irradiados. Comprendimos que la transferencia de la metodología a la industria es importante, ya que en este caso el fomentar dicha práctica en México como control de calidad es una necesidad dadas las aplicaciones de la calcita mineral en la industria química y la alta demanda del orégano como producto de exportación y de consumo interno en la alimentación.
Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
Juárez Zacarías Russel Octavio, Instituto Politécnico Nacional
Asesor: Dr. Julian Felix Valdez, Universidad de Guanajuato

DETECCIÓN Y ESTUDIO DE RAYOS CÓSMICOS INCIDENTES EN DIFERENTES MATERIALES


DETECCIÓN Y ESTUDIO DE RAYOS CÓSMICOS INCIDENTES EN DIFERENTES MATERIALES

Juárez Zacarías Russel Octavio, Instituto Politécnico Nacional. Asesor: Dr. Julian Felix Valdez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los rayos cósmicos son partículas provenientes del espacio exterior, éstas bombardean la atmósfera terrestre y crean rayos cósmicos secundarios, principalmente muones. Éstas son de particular interés de los científicos ya que la energía de algunas es cientos de millones de veces mayor a la que se obtiene en los aceleradores de partículas [1]. Para los estudios anteriores, se requieren técnicas nuevas, o ya probadas. En el Laboratorio de Partículas Elementales de la Universidad de Guanajuato (https://laboratoriodeparticulaselementales.blogspot.com/) se han desarrollado técnicas de detección de radiación en general, en particular rayos cósmicos, basadas en metales. Ésta es una técnica en proceso de desarrollo, por el Dr. Julián Félix. La técnica consiste en aplicar altos voltajes, altos campos eléctricos a través de metales, y colectar los iones -amplificados- producidos por las partículas incidentes. En el verano de investigación, junto con 5 estudiantes de la Universidad de Guanajuato participantes en los Verano de la Ciencia UGTO planeamos, diseñamos, construimos, caracterizamos y usamos nueve detectores de rayos cósmicos (10 cm x 10 cm x d mm). Tres a base de placas de Aluminio (con d=1.7, 1.7, y 1.7), el detector en sí; tres a base de acrílico transparente (con d= 2.2, 2.2, 2.2); y tres a base de PVC (con d=2.1,2.1,2.1). Estos dos últimos se usaron como detectores de control, por no ser conductores, a diferencia del Aluminio que es un conductor de la electricidad. Contrastaremos los resultados de la detección entre los diferentes materiales.



METODOLOGÍA

Los nueve detectores que usamos funcionan a base de detección por ionización y por centelleo. En el método de ionización, cuando una partícula con carga eléctrica y con la suficiente energía incide en algún material, éste se ioniza, los iones son captados en un colector. En el método de centelleo cuando una partícula incide en un material centellador, éste emite fotones de luz visible que son captados por un fotodiodo. Los detectores de veto son a base de plásticos centelladores convencionales, de 10 cm x 10 cm x 0.6 cm, encapsulado con plaquitas de Aluminio de 1 mm de espesor pulidas a espejo; por una cara lateral se le inserta un fotodiodo Hamamatsu tipo S12572-100P (http://www.hamamatsu.com.cn/UserFiles/DownFile/Product/s12572-025_etc_kapd1043e03.pdf). Éstos junto con las tarjetas electrónicas de alimentación y de lectura de la señal producida fueron realizadas en el Laboratorio de Partículas Elementales de Universidad de Guanajuato. Se usan interfasadas con un sistema de adquisición de datos CompactRIO de National Instruments (https://www.ni.com/es-mx/shop/compactrio.html). Se valida un rayo cósmico usando la técnica de coincidencias: cuando hay señal en el veto de arriba, en el veto de abajo, y en el detector, en la misma ventana de tiempo (1 ms) entonces se dice que se tiene el paso de un rayo cósmico. El detector se compone de tres elementos, una placa de espesor y material variables, colectores, y electrodos. El posicionamiento de éstos es, de abajo hacia arriba, un electrodo, un aislante -de 0.254 mm de espesor-, un colector, una placa de material y espesores variables, un aislante -de 0.254 mm de espesor-, un colector, y un último electrodo. Las dimensiones para las placas de los tres materiales distintos ya se establecieron anteriormente. Los colectores son láminas de Cobre (de 0.254 mm de espesor) con la misma área y una pestaña de 5 mm x 5 mm que va conectada a un circuito R y RC. Los circuitos R y RC constan de dos resistencias conectadas a tierra, cuando una de ellas va conectada a un capacitor que se descarga para realizar la detección. Procedimos con la toma de datos, para descartar que las señales obtenidas son debido a fluctuaciones producidas en el medio ambiente y en el instrumento mismo, entonces se establece un nivel de trigger: un nivel mínimo de voltaje que una señal debe tener para ser validada como una detección. El trigger se fija a 3 veces la amplitud del ruido para tener una probabilidad del 99% de que la señal medida es, en efecto, una detección. Se midieron niveles de ruido del orden de 20 mVpp.


CONCLUSIONES

Durante la estancia de verano logramos aprender técnicas de detección de rayos cósmicos; la física de rayos cósmicos y partículas elementales; el uso de la plataforma ROOT; un sistema automatizado de adquisición de datos; planeamos, diseñamos, construimos, probamos, y operamos detectores de rayos cósmicos; operamos instrumentos de medición; operamos herramientas de construcción; analizamos señales detectadas; técnicas de análisis de datos y metodologías de la investigación científica. Pusimos en práctica estos conocimientos y los resultados obtenidos fueron el armado de detectores de rayos cósmicos a base de placas de espesor variable de Aluminio, acrílico y PVC. Concluimos que el Aluminio es el material más eficiente para realizar detecciones; siendo la referencia y los otros, elementos de control. Las señales validadas por el método de coincidencias son rayos cósmicos y se contabilizaron usando un sistema de adquisición de datos. A manera de divulgación científica, también expusimos durante dos semanas los avances del proyecto ante estudiantes de Maestría en Física, produjimos un video, así como un artículo de divulgación y una reseña. Además, hicimos uso de las redes sociales, el blog del Laboratorio de Partículas Elementales, y tuvimos pláticas informales con en esta estancia. Agradecimientos A mis compañer(a)os estudiantes, de la Universidad de Guanajuato, y participantes en este Verano de la Ciencia y Verano Delfín: Noemí Lizbeth Moreno López, Rodrigo Aguilar Meneses, María José Fonseca Vázquez, Omar Alejandro Lezama Gallegos, Ana Isabel Moreno Hernández. CONACYT, Apoyo a profesores de la UGTO, y a la DCeI, CL, UGTO. Bibliografía: [1] Cosmic Ray Mystery. Julio, 25, 2019, de Pierre Auger Observatory Sitio web: https://www.auger.org/index.php/cosmic-rays/cosmic-ray-mystery
Laureano Hernandez Karen Patricia, Universidad Autónoma de Guerrero
Asesor: Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México

EVALUACIóN POR CONTAMINACIóN DE METALES PESADOS MEDIANTE EL ANáLISIS DE SUSCEPTIBILIDAD MAGNéTICA EN LA CIUDAD DE BILBAO, ESPAñA.


EVALUACIóN POR CONTAMINACIóN DE METALES PESADOS MEDIANTE EL ANáLISIS DE SUSCEPTIBILIDAD MAGNéTICA EN LA CIUDAD DE BILBAO, ESPAñA.

Laureano Hernandez Karen Patricia, Universidad Autónoma de Guerrero. Asesor: Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Es bien sabido que existen problemas graves de contaminación ambiental en poblaciones urbanas de todo el mundo y las razones pueden ser varias, una de ellas e  la contaminación derivada de las emisiones vehiculares que contienen una diversidad de sustancias y metales pesados. Las partículas que se generan en estas emisiones contienen Pb y Zn.  El material particulado se deposita sobre calles y banquetas para posteriormente volver a quedar suspendidas por efecto del aire, las partículas suspendidas representan un riesgo a la salud, ya que estas pueden ingresar a las vías respiratorias y causar coágulos o trombosis en esas personas que respiran frecuentemente partículas contaminadas. Bilbao es la ciudad española con el tráfico más congestionado. Los conductores de la capital vizcaína perdieron el pasado año una media de 24 horas en retenciones de circulación, según un estudio elaborado por el Real Automóvil Club de Catalunya (RACC); es por esto que dicha ciudad se convirtió en objeto de estudio para analizar el posible grado de contaminación de metales pesados e identificar los sitios con mayor concentración, esto por medio de propiedades magnéticas, las cuales muestran una  relación con la concentración de metales pesados, debiéndose a que los minerales magnéticos son adsorbente y absorbentes de iones de metales pesados. En este trabajo se identificaron las áreas prioritarias para hacer análisis geoquímicos por medio de parámetros magnéticos, con la finalidad de optimizar recursos humanos y económicos. 



METODOLOGÍA

  Se hizo un muestreo estratégico en la ciudad Bilbao recabando un total de 118 muestras, de las cuales 40 son de hojas, 32 polvo y 48 son de suelo, las muestras fueron colocadas en un cubo de acrílico de 8cm3; la susceptibilidad magnética fue medida con un equipo Bartington MS2 el cual es un sensor de doble frecuencia, así como también el interfaz MS3. Las muestras de hojas solo se midieron a baja frecuencia para detectar la presencia de material ferrimagnético ultra fino (SP). Se usó las siguientes expresiones: donde, klf es la susceptibilidad magnética medida a baja frecuencia y klh es la susceptibilidad magnética medida a alta frecuencia:  %XDF = [(KLF - KLH) /KLF * 100]              y            XLF= KLF/S   El análisis estadístico fue hecho con el programa Statgraphics para realizar graficas de dispersión, de caja y bigotes, entre otras. La modelación geoespacial fue hecha con el programa ArcGIS 10.5 el cual es un sistema que nos permite analizar, recopilar, administrar, compartir y distribuir información geográfica, plataforma con la cual se obtuvieron tres mapas distintos de la ciudad de Bilbao donde se observa la acumulación de material magnético según los valores de susceptibilidad magnética tomadas de las muestras recabadas de hojas, polvo y suelo, tomando como valor de referencia la mediana de todos mis valores obtenidos de cada tipo de muestra.


CONCLUSIONES

Durante el periodo que abarcó mi estancia de verano de investigación logré adquirir conocimientos acerca de magnetismo ambiental, conocimiento que me ayudó a realizar una evaluación de contaminación de metales pesados en la ciudad de Bilbao, España a partir de mediciones de susceptibilidad magnéticas en muestras tomadas en campo, dicho trabajo de investigación lo finalizamos con la generación de mapas donde se analizaron tres tipos diferentes de muestras (hoja, suelo y polvo). He logrado concluir que los sitios que necesitarían un estudio más profundo por las afectaciones que podrían estar generando, son principalmente aquellos que se encuentran hacia el noroeste y suroeste del mapa de Bilbao donde se observan dichos comportamientos; esto es algo que ayuda a disminuir los gastos al momento de buscar métodos más precisos (y por lo tantos más costosos) pues evitaríamos tener que muestrear áreas que para este punto hemos descartados por presentar una baja concentración de contaminación por metales pesados, y por lo tanto innecesarios para muestrear en un futuro.
Lázaro García Jesús Salvador, Instituto Politécnico Nacional
Asesor: Dr. Francisco Miguel Vargas Luna, Universidad de Guanajuato

COMPARACIóN DE LA SEñAL ACúSTICA DE LA REGIóN ABDOMINAL CON LA SEñAL DE ELECTROGASTOGRAFíA E IMPEDANCIA ELéCTRICA EN EL MONITOREO DE LA ACTIVIDAD GáSTRICA


COMPARACIóN DE LA SEñAL ACúSTICA DE LA REGIóN ABDOMINAL CON LA SEñAL DE ELECTROGASTOGRAFíA E IMPEDANCIA ELéCTRICA EN EL MONITOREO DE LA ACTIVIDAD GáSTRICA

Guerra Santiago Marlene Viridiana, Benemérita Universidad Autónoma de Puebla. Lázaro García Jesús Salvador, Instituto Politécnico Nacional. Salazar Zárate Azalea Esmeralda, Universidad Veracruzana. Asesor: Dr. Francisco Miguel Vargas Luna, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El estómago es un  órgano hueco localizado en la cavidad abdominal debajo del hígado y al costado izquierdo del cuerpo que se encarga de recibir los alimentos, mezclarlos con los jugos gástricos y volverlos aptos para ser recibidos por el intestino delgado. El estómago experimenta movimientos de contracción y dilatación (movimientos peristálticos) para cumplir las funciones antes descritas. Estos movimientos en conjunto se denominan motilidad gastrointestinal la cual se produce debido a potenciales de acción generados en las diversas células del tracto digestivo. Estos potenciales generan, tanto en el cuerpo distal como en el antro, dos tipos de actividad eléctrica. La primera actividad se denomina onda lenta que ocurre en intervalos regulares de 20 segundos. La segunda actividad se denomina potencial de espiga de contracción muscular fuerte con un tiempo de duración de 2-3 segundos y que se superpone a la onda lenta. Para poder monitorear la actividad gástrica es común utilizar la electrogastrofía superficial o impedancia bioeléctrica. En clínica el especialista comúnmente utiliza una técnica acústica con ayuda del estetoscopio para evaluar dicha actividad. Con la electrogastrofía se obtienen señales provenientes de una zona extensa, generalmente de todo el antro, debido a su característica de desplazamiento, se obtiene una señal de tipo sinusoidal, la que puede ser procesada a través de un programa computacional denominado "fast fourier transform", especialmente adaptado. Uno de los mayores retos al utilizar cualquiera de las tres técnicas mencionadas es poder interpretar la señal obtenida después de un procesamiento adecuado. Uno de los problemas es que existe superposición de señales similares de diferentes regiones en el sistema gástrico u otros sistemas tales como cardiovascular, respiratorio, etc. que aparecen durante las mediciones. Así mismo las señales provienen de diferentes fenómenos físicos (eléctrico, mecánico y acústico), existiendo cierta controversia en cuanto a su equivalencia y utilidad como método de diagnóstico.



METODOLOGÍA

Sujetos: Se trabajó con un grupo de sujetos sanos de 10 personas de entre 20 y 25 años constituido por 3 mujeres y 7 hombres. A los voluntarios se les cuestionó sobre su salud gastrointestinal reciente o alguna otra afección que pudiera comprometer su función gastrointestinal. Por ser un estudio comparativo no se solicitó ninguna condición particular previa a la medición (ayuno, actividad física, etc.). Los voluntarios firmaron un formato de consentimiento informado después de haber sido informados a detalle del proyecto. Procedimiento: Para cada medición realizada se utilizó una configuración de 4 electrodos para la técnica de bio-impedancia de los cuales se colocaron dos en la cavidad abdominal y dos en la espalda, para poder inyectar en dos de ellos una pequeña corriente eléctrica (<1mA) y medir el voltaje en los otros electrodos. Para colocar los electrodos se tomó como referencia el punto medio entre la apófisis xifoides y la cicatriz umbilical sobre la línea media sagital donde se coloca el primer electrodo. El segundo electrodo se coloca a 5cm de distancia y con un ángulo aproximado de 45° sobre la horizontal. A la misma altura y con proyección hacia la parte posterior se colocan los dos electrodos restantes. Para trabajar con electrogastorgrafía se colocan de igual manera dos electrodos a una separación de 1cm aproximadamente de los electrodos frontales de impedancia con una solución electrolítica y una referencia en el costado izquierdo. En la cavidad abdominal entre los dos electrodos principales, se colocó un pequeño micrófono para evaluar la señal acústica producida durante la motilidad; este se colocó con gel para minimizar la diferencia de impedancia acústica. Las mediciones de bio-impedancia, electrogastografía y audio se llevaron a cabo de manera simultánea, durante un lapso de 30min a través de un sistema de BIOPAC y los módulos correspondientes. Procesamiento de señales: Para poder llevar a cabo el tratamiento de las señales se emplearon filtros FFT y Butterworth pasa banda de 0.5 a 9cpm para poder observar la señal de interés y descartar artefactos debido a: perfusión sanguínea, respiración, movimientos corporales, etc. evaluando la motilidad gástrica en la región normogastrica de 2 a 4 cpm. Estadística: Se tomaron en cuenta parámetros como la frecuencia del pico máximo, su potencia, el área bajo el espectro FFT de la región normogastrica. Se realizaron pruebas de normalidad y se hizo estadistica comparativa pareada de dichos parametros obtenidos en cada una de las tres técnicas mencionadas.  


CONCLUSIONES

Se realizaron pruebas de normalidad de Shapiro-Wilk obteniendo que algunas variables no presentan distribucion normal, por lo que se trabajó con pruebas no parametricas. Mediante la prueba de rangos con signos de Wilcoxon se encontró que la frecuencia en la región normogástrica es estadísticamente igual para las tres metodologías, teniendo un valor de 2.6 cpm, observando una mayor dispersión con la técnica de impedancia bioeléctrica. La actividad en las regiones normo y taquigástrica comparadas por medio del área bajo el espectro FFT o bien por el comportamiento de las ondas lentas son estadisticamente iguales para el caso de electrogastografía e impedancia eléctrica. En el caso de la actividad de la señal acústica se observa un incremento en frecuencias altas y una disminución en frecuencias correspondientes a la normogastria. El método acústico es útil para evaluar la frecuencia dominante en la región normal,necesitando más investigación si el objetivo de estudio se centra en la actividad de la región taquigastrica.
Leandro Feliciano Maria del Carmen, Universidad Autónoma del Estado de México
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

INFLUENCIA DE LOS CICLONES TROPICALES EN LA COSTA DE JALISCO Y NAYARIT Y SU EFECTO EN EL SECTOR TURíSTICO DE LA REGIóN


INFLUENCIA DE LOS CICLONES TROPICALES EN LA COSTA DE JALISCO Y NAYARIT Y SU EFECTO EN EL SECTOR TURíSTICO DE LA REGIóN

Leandro Feliciano Maria del Carmen, Universidad Autónoma del Estado de México. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El desarrollo del turismo en las costas mexicanas representa un sector de gran aportación económica para el país; mismo que a su vez genera zonas vulnerables ante la amenaza constante de los Ciclones Tropicales constituyendo una de las mayores pérdidas económicas para el país, de acuerdo con CENAPRED en 2016 el monto de daños y pérdidas ocasionado por fenómenos hidrometeorológicos ascendió a la cantidad de 11 947.9 millones de pesos, representando con ello una de las amenazas más importantes que se debe atender en cuando a medidas de adaptación, planes de emergencia, políticas de desarrollo turístico y una adecuada aplicación de los reglamentos del uso de suelo.



METODOLOGÍA

Este trabajo se dividió en los siguientes apartados la búsqueda de información bibliográfica, posteriormente se analizaron los registros de los Ciclones Tropicales que impactaron en el Pacífico y los que afectaron directa o indirectamente las costas de Jalisco y Nayarit desde 1985-2017; obtenidos del programa Busca Ciclones de CENAPRED, después se procedió a buscar información referente al impacto de estos eventos en base de datos como Desinventar y Emdat que proporcionan datos en cuanto a pérdidas económicas ocasionadas por estos fenómenos.


CONCLUSIONES

La presencia de los Ciclones Tropicales en las costas de Jalisco y Nayarit está disminuyendo, sin embargo la intensidad de estos eventos va en aumento ocasionando a su paso grandes daños económicos; por ejemplo el paso del huracán Kenna de categoría 4 en la escala de Saffir-Simpson en 2002 dejó destrozos en la zona hotelera y el comercio dejando pérdidas de 150 millones de dólares, eventos como Kenna son probables que puedan volver a ocurrir debido a esto es esencial adecuar medidas de adaptación y prevención ante estos fenómenos, además de análisis en cuanto a las pérdidas ocasionadas por dichos eventos.
Lemus Orozco Tanya Paola, Universidad Autónoma de Baja California
Asesor: Dr. José Trinidad Elizalde Galindo, Universidad Autónoma de Ciudad Juárez

ANáLISIS DE PROPIEDADES FíSICAS DE NANOFIBRAS DE FERRITA DE NíQUEL Y FERRITA DE MANGANESO OBTENIDAS POR ELECTROHILADO.


ANáLISIS DE PROPIEDADES FíSICAS DE NANOFIBRAS DE FERRITA DE NíQUEL Y FERRITA DE MANGANESO OBTENIDAS POR ELECTROHILADO.

Lemus Orozco Tanya Paola, Universidad Autónoma de Baja California. Asesor: Dr. José Trinidad Elizalde Galindo, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La obtención de materiales con propiedades magnéticas por el método de electrohilado presenta la oportunidad de estudiar el efecto de la morfología, alambres nanométricos, en la respuesta de las propiedades físicas como la magnetización máxima, remanencia y coercitividad. El estudio de estas propiedades puede llegar a impactar en sus aplicaciones en MEMS y MAGMAS, así como en microfiltros para dispositivos electrónicos.  Por ello, y dado el interés científico y tecnológico, es que en este trabajo se investigan las ferritas de Ni y Mn.



METODOLOGÍA

Los precursores utilizados para llevar a cabo la síntesis de NiFe2O4 fueron Nitrato de Hierro nonahidratado, nitrato de Níquel hexahidratado, alcohol etílico, agua desionizada y polivinilpirrolidona (PVP) como polímero. Para lograr obtener 0.5g de NiFe2O4 se utilizaron 1.72g de Fe(NO3)3*9H2O, 0.774g de Ni(NO3)2*6H2O los cuales se agregaron en una solución con 10g de C2H6O y 5g de H2O, sometido en agitación magnética de 400rpm durante 15 minutos. Posteriormente se agregó 1.75g de PVP para darle viscosidad a la solución, la solución se mantuvo en agitación magnética durante un lapso de 30 minutos a temperatura ambiente, para posteriormente continuar la agitación magnética en una placa calefactora a 85°C por un lapso de 60 minutos. Una vez obtenida una solución viscosa y homogénea se procedió a realizar la colección de las nanofibras con ayuda del equipo de electrohilado y una aguja calibre 6. La placa colectora fue colocada a una distancia de 15cm de la punta de la aguja y el voltaje inducido fue de 15kV manteniendo un flujo constante de la solución de 0.5mL/h. El proceso de la colección se llevó a cabo a temperatura ambiente durante un lapso de 4 horas. Una vez finalizada la colección de nanofibras, se procedió a someter a tratamiento térmico con la finalidad de eliminar residuos a una temperatura de 550°C por 60 minutos con una rampa de 2°C/min en una atmósfera estándar. Por otro lado, los precursores utilizados para la obtención de 0.5g de MnFe2O4 fueron 1.724g de Fe(NO3)3*9H2O, 0.621g de Mn(NO3)2*6H2O, mezclados en una solución con 10g de C2H6O y 5g de H2O, sometidos a agitación magnética de 400rpm durante 15 minutos. Una vez transcurrido el tiempo, se agregó 1.735g de PVP y se sometió nuevamente a agitación magnética durante 30 minutos a temperatura ambiente para posteriormente someterlo a agitación magnética por 60 a una temperatura de 85°C y 600rpm. Una vez finalizado el proceso de agitación y obtenida una solución homogénea, se procedió a realizar la colección de las fibras bajo las mismas condiciones utilizadas anteriormente. Al haber finalizado la colección se realizó el tratamiento térmico a 700°C por 120 minutos con una rampa de 1°C/min en una atmósfera de nitrógeno.


CONCLUSIONES

Al observar las imágenes de microscopía óptica con una amplificación de 1000x / 10µm se pudo concluir que se lograron obtener las nanofibras, tanto de NiFe2O4 como de MnFe2O4 , con una distribución aleatoria y tamaños variados. El lazo de histéresis de la muestra de NiFe2O4 muestra una magnetización máxima de 45 emu/g a un campo magnético aplicado de 30kOe a temperatura ambiente y una coercitividad de 60 Oe, correspondiente a muestras magnéticas blandas. Mientras que el lazo de histéresis de la muestra de MnFe2O4 muestra una magnetización máxima de 77 emu/g a un campo magnético aplicado de 30kOe a temperatura ambiente, así como una coercitividad de 150 Oe, lo cual corresponde a muestras magnéticamente blandas.   ​   ​
León Delgado Monserrat, Universidad de Guadalajara
Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas

PROYECTO ESCARAMUJO


PROYECTO ESCARAMUJO

García Téllez Indira Angie, Benemérita Universidad Autónoma de Puebla. León Delgado Monserrat, Universidad de Guadalajara. Asesor: Dr. Karen Salomé Caballero Mora, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

Comprender y analizar el comportamiento de los rayos cósmico a través del detector Escaramujo, con las condiciones presentes en Tuxtla Gutierrez, Chiapas. 



METODOLOGÍA

Estudiar la teoría de los rayos cósmicos. Revisar la documentación del detector Escaramujo, la composición y el funcionamiento de cada una de sus partes, así como el manejo de su software y hardware. Toma de datos con el detector en intervalos de 24 horas. Creación de diferentes programas en Python para la clasificación, arreglo y transformación de sistema numérico. Realizar un análisis de datos a traves de la visualización con gráficos.  


CONCLUSIONES

En las primeras pruebas de ángulo, altitud y número de placas, se comprobó lo establecido en la teoría. En el análsis de datos se observó que existe una variación en el número de coincidencias durante el día y la noche. Sin embargo, este análisis se realizó con datos tomados con anterioridad debido a que el GPS del detector presentó daños por antiguedad, impidiendo que se registrara la fecha y la hora correctamente. Se espera hacer una nueva serie de toma de datos para hacer una análisis más completo cuando se resuelva el problema.  
Lestrade Gómez Fatima, Instituto Politécnico Nacional
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

ANáLISIS DE LOS CONTAMINANTES ATMOSFéRICOS Y SU RELACIóN CON LOS FENóMENOS ATMOSFéRICOS EN EL PERIODO DE 2012-2016 EN LA ZMVM (PM10,CO E INVERSIONES TéRMICAS)


ANáLISIS DE LOS CONTAMINANTES ATMOSFéRICOS Y SU RELACIóN CON LOS FENóMENOS ATMOSFéRICOS EN EL PERIODO DE 2012-2016 EN LA ZMVM (PM10,CO E INVERSIONES TéRMICAS)

Lestrade Gómez Fatima, Instituto Politécnico Nacional. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La contaminación atmosférica constituye en la actualidad, por sí sola, el riesgo ambiental para la salud más importante del mundo. (OMS) Los contaminantes que  analicé son de vital importancia ya que siendo el CO uno de los mayores contaminantes y teniendo altos porcentajes de contaminación con un 63% para 2012 y teniendo como  fuentes principal los automóviles fue  una gran opción de estudio sobre todo por la gran cantidad de vehículos en movimiento en la ZMVM(Zona Metropolitana del Valle de México) así mismo las partículas suspendidas PM10 han ido en aumento y son hoy en día uno de los contaminantes con mayor monitoreo y sobre todo atención en factor salud a nivel global es por eso que los tomé como bases para análisis.  La zona de estudio que tomé fue la ZMVM y la zona conurbada específicamente la estación FAC (Fes Acatlán) Algo importante de mencionar son los niveles de mortalidad y salud que presentan los contaminantes hoy en día y por lo cual la OMS dictó como tema principal para 2019 la importancia de la calidad del aire a nivel mundial sabiendo así que para 2012 unos 7 millones de personas murieron -una de cada ocho del total de muertes en el mundo- como consecuencia de la exposición a la contaminación atmosférica. A continuación presento unos conceptos de gran relevancia dentro de la investigación. Una inversión térmica es: La temperatura de las capas superiores de la atmósfera tiende a ser más baja que la de las capas inferiores. A veces, sin embargo, la temperatura de una capa de aire estable aumenta con la altitud. Ahora bien las inversiones térmicas se pueden ver perjudicadas principalmente por los sistemas de alta presión o mejor conocidos como anticiclones. Un anticiclón es: El aire de un anticiclón desciende sobre el suelo desde las capas altas de la atmósfera, produciéndose un fenómeno denominado subsidencia. Los anticiclones, provocan tiempo estable y ausencia de precipitaciones, ya que la subsidencia limita la formación de nubes. La circulación del aire en un anticiclón para el Hemisferio Norte es en sentido de las manecillas del reloj, y en el Hemisferio Sur es en sentido contrario a las manecillas del reloj.   Y el porqué de la influencia de estos sistemas en las inversiones térmicas y a su vez en la concentración de los contaminantes atmosféricos es la siguiente: Los sistemas de alta presión favorecen a la creación de inversiones térmicas ya que el aire seco que se mueve hacia abajo desde la tropósfera superior crea condiciones sobre la capa límite, que se encuentra más cercana al suelo y es afectada por él, lo que favorece la formación de inversiones térmicas de altura. Éstas actúan como una tapa sobre la capa límite, atrapando los contaminantes y provocando una reducción de la visibilidad. El aire subsidente no puede atravesar la capa límite lo que impide la entrada de aire fresco que diluya los contaminantes. La inversión de subsidencia o altura puede permanecer durante horas o días.



METODOLOGÍA

Recopilé antecedentes históricos como lo son la gran niebla londinense de 1952 y la revolución industrial ésta última como un parte aguas para la contaminación atmosférica. También busqué antecedentes de mortalidad y de salud tomando como referencia los datos de la OMS De esta manera pasamos a la ejecución, los análisis que  hice en  los años 2012-2016  fueron para comparar las concentraciones de CO y PM10  y ver si se encontraban irregularidades o anomalías y encontrar patrones de concentración,todos los datos de los contaminantes como lo son las concentraciones, las estaciones, etc, se obtuvieron del SIMAT (Sistema de Monitoreo Atmosferico),así mismo obtuve  termo diagramas en búsqueda de inversiones térmicas en el programa Wyoming Soundings ; el factor principal para determinar la fecha de búsqueda fue que en varias estaciones en una misma fecha se presentaran altos niveles de concentración  ésto en todos los años y  de todas las posibilidades por año se tomaron las más fuertes es decir por año se obtuvo  un skew-t y como se mencionó anteriormente buscar la presencia de inversiones térmicas esos días y encontré coincidencias de las cuales en tres hubieron dos tapas de inversión térmica las cuales de acuerdo a la investigación previamente realizada cuando tenemos presencia de dos inversiones térmicas es muy probable que encontremos un sistema de alta presión y aún más si la capa inferior se rompe y la superior no, de esta manera agravando la contaminación por la falta de dispersión de los contaminantes; también  hice  una tabla  de precipitaciones de esos años y encontré  que los primeros y últimos meses del año presentaban menores precipitaciones acercándome así a la  afirmación tentativa de nuestra hipótesis. Una vez teniendo todos los valores se compararon con la normatividad de los contaminantes para ver si están o no dentro de los parámetros.  


CONCLUSIONES

De este modo podemos concluir que en los periodos donde se notaron  menos precipitaciones es más probable que encontremos inversiones térmicas así mismo en los primeros y últimos meses del año se encontraban las mayores concentraciones para ambos contaminantes en todos los años sin embargo en el año 2013 se encontró una anomalía de tres meses en los cuales no hubo datos con los cuales trabajar , de este modo nos acercamos a la posibilidad de confirmar la hipótesis  desarrollada previamente y complementando  diciendo que los fenómenos atmosféricos en este caso las inversiones térmicas tienen un porcentaje muy alto de relación directa  con los niveles de concentración siendo estos más relevantes que las mismas emisiones. Todo esto gracias a las gráficas y termodiagramas analizados en la investigación los cuales nos llevaron a los resultados que cabe aclarar son alentadores en cuanto a lo que esta investigación se refiere y se deberá hacer un control de calidad de los datos adecuados específicamente a las necesidades de la investigación.
Limón Salazar Maximiliano, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey

BLOQUEO DE FOTONES INDIVIDUALES CON DISIPACIóN MICROSCóPICA.


BLOQUEO DE FOTONES INDIVIDUALES CON DISIPACIóN MICROSCóPICA.

Limón Salazar Maximiliano, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En un sistema cuántico, con espectro no equidistante, en dónde se encuentra, un qubit, y un campo bosónico en presencia de un bombeo y perdidas, se puede observar el bloqueo de excitaciones individuales, esto nos dice que el estado del sistema, es propio, y el sistema es cerrado. Esto ocurre cuando el mismo sistema absorbe la excitación de un sistema externo, en este caso, el del bombeo.  El proyecto describe un modelo de disipación microscópica, esto con la finalidad de determinar si existen variaciones perceptibles, respecto el tratamiento fenomenológico. 



METODOLOGÍA

Se comienza estudiando el modelo de Jaynes-Cummings, describe un único modo del campo electro-magnético en interacción dipolar eléctrica con un único átomo de dos niveles. El modelo describe un átomo encerrado en una cavidad óptica de tal forma que solo existe una forma de interaccionar efectivamente con la transición atómica elegida. El hamiltoniano del sistema tiene la siguiente forma: HJC = Hfield + Hatom + H int   trabajando con operadores de creación, aniquilación e inversión atómica.  Se empieza trabajando con el número total de excitaciones, desarrollando todas las matemáticas necesarias para simplificar las expresiones de energías, se obtienen los eigenvalores del Hamiltoniano además de sus eigenestados, y se grafican. Después se indaga en las expresiones para saber cómo evolucionan estos estados en dependencia del tiempo.  El siguiente paso es trabajar con una expresión conocida como evolucionador, en el que, a partir del Hamiltoniano, y directamente, se puede conocer, precisamente, cómo evoluciona el sistema cuántico con el tiempo. Esto se hace si el Hamiltoniano no depende explícitamente del tiempo; para la expresión, se deduce a partir de la ecuación de Schrödinger, que este evolucionador, tendrá una forma de exponencial, expandido en series de Taylor, se necesita conocer sólo el Hamiltoniano HJC y elevarlo a la n-ésima potencia, se trabaja en su forma matricial, pues es más cómodo desarrollarlo.   Para obtener más rápido la expresión se hace un cambio de coordenadas a un sistema ya conocido, como lo son el número de excitaciones, incluyendo el primer paso, en este nuevo. Gracias a expresiones ya conocidas existentes en la teoría matemática, como lo es el lema de Baker-Campbell-Hausdorff, le lleva la expresión a una forma sencilla.  Como la transformación usada se hace con un operador unitario, es decir, no altera la norma del sistema, es posible extraer, al final, toda la información con un Hamiltoniano efectivo. El resultado final del evolucionador tiene como forma una matriz de 2x2, y en dependencia de las matrices de Pauli.  Ahora teniendo dos formas de describir el sistema cuántico, y su evolución en dependencia del tiempo, se propone una forma para compararlos y ver, que cumplen exactamente la misma función. La forma de hacerlo es obteniendo los valores esperados de los operadores originales que se tienen en el Hamiltoniano, que son los operadores de creación y aniquilación, además de sigma_z, que es un operador de inversión atómica. Se grafican los métodos para compararlos.  Después se introduce un término de bombeo al Hamiltoniano, esto se puede hacer de dos maneras, directamente al qubit, o en la cavidad óptica, en el trabajo del bombeo, se hace un doble desarrollo, haciendo primero un cambio de coordenadas, y después, una aproximación de onda rotante, para ambos, la transformación es lineal y unitaria, entonces de los Hamiltonianos obtenidos es posible obtener la mayor parte de la información original des sistema.  Se comparan las soluciones analíticas de las ecuaciones, con las numéricas, aproximando el valor esperado del operador sigma_z 


CONCLUSIONES

Se ha entendido cómo es que funciona el modelo de Jaynes-Cummings, se muestra que el sistema es cerrado al cambio de algunos marcos de referencias, y evolución temporal, se introdujo el bombeo a la energía del sistema cuántico, y se espera hacer este estudio añadiendo pérdidas para comprobar la existencia de bloqueo de un sólo fotón bajo condiciones microscópicas con diferentes canales de disipación que la aproximación fenomenológica. 
Lino Solano José Juan, Universidad Veracruzana
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

MONITOREO DE LA CONCENTRACIÓN DE PARTÍCULAS PM10 Y PM2.5 EN LA ZONA URBANA DE PUERTO VALLARTA, JALISCO


MONITOREO DE LA CONCENTRACIÓN DE PARTÍCULAS PM10 Y PM2.5 EN LA ZONA URBANA DE PUERTO VALLARTA, JALISCO

Lino Solano José Juan, Universidad Veracruzana. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La contaminación del aire es un problema que desafían muchas ciudades del mundo, implicando riesgo, daño o molestias en la salud de los habitantes y el medio ambiente. De tal forma que la población mundial crece y se urbaniza, incrementa la demanda de energía y transporte, lo que constituye la fuerza motriz para la emisión de sustancias a la atmósfera. El impacto sobre la salud depende, entre otros factores, con el tamaño de las partículas ya que la capacidad de penetración de estos en las vías respiratorias aumenta al disminuir el tamaño, esto hace que las partículas más finas multipliquen los efectos nocivos sobre la salud. Las PM10 tienen la capacidad de entrar en las vías respiratorias. Sin embargo, las PM2.5 son partículas tan pequeñas que, al ser inhaladas, pueden llegar a los bronquiolos terminales, a los alveolos pulmonares, y al torrente sanguíneo, incluso llegar al sistema circulatorio. El material particulado es uno de los contaminantes atmosféricos más estudiados en el mundo actualmente, como se presenta en este estudio para la zona urbana de Puerto Vallarta, Jalisco; ciudad que ha presentado un acelerado crecimiento urbano a partir de la última década, generando consigo mayor demanda de vehículos. 



METODOLOGÍA

Se evaluó la concentración de partículas PM10 y PM2.5 suspendidas en la atmósfera de la zona urbana de la ciudad de Puerto Vallarta y su comportamiento espaciotemporal asociándolo con fenómenos meteorológicos presentes en la atmósfera, mediante un muestreo que consistía en la medición de estas partículas cada quince minutos en horarios matutinos y vespertinos todos los días de la semana, en la zona de Las Juntas, zona Centro y zona de Plaza Pitillal, durante el verano de 2019. 


CONCLUSIONES

Los resultados mostraron que el que la mayor concentración de PM10 y PM2.5 se presenta en las Juntas, esto debido a que es una zona de mayor flujo de vehículos de carga pesada con grava y arena, alcanzando valores máximos de hasta 500 µg/m3 en PM10 y valores de hasta100 µg/m3 en PM2.5. Por lo tanto, este estudio permite orientar hacia nuevas estrategias para la planificación del desarrollo urbano de esta zona y sus alrededores a mediano y largo plazo, así como prevenir posibles contingencias médicas relacionadas con esta contaminación. 
Loera Valenzuela Helmut Osvaldo, Universidad Autónoma de Occidente
Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán

EVALUACIÓN DE UN SISTEMA DE TRATAMIENTOS DE AGUA RESIDUAL CON COLORANTES TEXTILES


EVALUACIÓN DE UN SISTEMA DE TRATAMIENTOS DE AGUA RESIDUAL CON COLORANTES TEXTILES

Free Toledo Alexia, Universidad Autónoma de Occidente. Jimenez Ruvalcaba Ana Maria, Universidad Autónoma de Occidente. Loera Valenzuela Helmut Osvaldo, Universidad Autónoma de Occidente. Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán



PLANTEAMIENTO DEL PROBLEMA

Industria textil es el nombre que se da al sector de la economía dedicado a la producción de ropa, tela, hilo, fibra y productos relacionados. En las estadísticas económicas se suele incluir la industria del calzado como parte de la industria textil. Es un término genérico para toda sustancia química capaz de producir toda gama de tinte para dar color a productos de la industria textil, cosmética y alimentaria. El azul de metileno, cuyo nombre científico es cloruro de metiltionina, es un colorante orgánico que se usa para tratar una enfermedad llamada metahemoglobinemia. El tratamiento de aguas residuales consiste en una serie de procesos físicos, químicos y biológicos que tienen como fin eliminar los contaminantes físicos, químicos y biológicos presentes en el agua efluente del uso humano. El objetivo del tratamiento es producir agua limpia (o efluente tratado) o reutilizable en el ambiente y un residuo sólido o fango (también llamado biosólido o lodo) convenientes para la disposición o rehúso. Es muy común llamarlo depuración de aguas residuales para distinguirlo del tratamiento de aguas potables.



METODOLOGÍA

La caracterización del agua residual por el colorante azul básico 9 se llevó a cabo en el Laboratorio de Posgrado e Investigación en Ciencias Ambientales y en el Laboratorio de Cromatografía y Espectrometría pertenecientes al Instituto y equipadas adecuadamente para realizar las pruebas necesarias en cuanto a las determinaciones fundamentales de la investigación. La caracterización de agua residual se llevó a cabo mediante parámetros químicos de la calidad del agua, se analizaron mediante el parámetro de la Demanda Química de Oxigeno (DQO), debido a que la finalidad de la investigación es remover contaminantes como materia orgánica y nutrientes. Para la remoción de nuestro contaminante, en este caso el colorante azul básico 9, primero se usó un pre-tratamiento. El pre-tratamiento que fue seleccionado para la remoción de cierta cantidad de contaminantes fue la filtración. Las muestras fueron pre-tratadas a través de un filtro tubular. En su interior se encuentran 3 materiales filtrantes, seleccionados por la alta capacidad de retención de contaminantes como lo son sólidos y algunos microorganismos. El diseño del reactor se realizó a base de las características del agua residual analizada y de la eficiencia de los materiales elegidos. Los tres materiales seleccionados son: antracita, zeolita y carbón activado.


CONCLUSIONES

Con base a los resultados obtenidos, puedo expresar que la remoción del colorante Azul Básico 9 es más eficiente cuando se le aplica un pre-tratamiento con un porcentaje de remoción al 83.26% después de 3 filtraciones, a comparación de solo analizar el agua residual pura con el contaminante. Para que esta formulación pueda ser destruida necesita implementarse distintas técnicas de tratamiento para poder eliminar por completo el colorante de un agua residual. Con esta investigación pude entender y realizar distintas técnicas de descontaminación de un agua residual contaminada por colorantes, y el entender que una sola técnica no es suficiente para la remoción, en su mayoría, y que el usar pre-tratamientos puede ser bastante económico y sencillo si sabemos analizar y buscar opciones que puedan darnos un mejor resultado.
López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
López Esparza Cuauhtémoc Alejandro, Universidad Autónoma de Zacatecas
Asesor: Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla

ELABORACIóN DE UN GEL REMINERALIZANTE BASADO EN HIDROXIAPATITA Y SIMULACIóN COMPUTACIONAL DE PROPIEDADES FíSICAS DEL TRICLOSáN.


ELABORACIóN DE UN GEL REMINERALIZANTE BASADO EN HIDROXIAPATITA Y SIMULACIóN COMPUTACIONAL DE PROPIEDADES FíSICAS DEL TRICLOSáN.

López Esparza Cuauhtémoc Alejandro, Universidad Autónoma de Zacatecas. Asesor: Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Se propone desarrollar un tratamiento contra las caries, basado en la remineralización del esmalte mediante la absorción de este de hidroxiapatita. Asimismo, se utilizan residuos de una empresa que distribuye bacalao para la obtención de la hidroxiapatita. El esmalte de los dientes tiende a desmineralizarse con frecuencia debido a la ingesta de azúcares y falta de higiene dental, ya que las bacterias que se encuentran en los dientes se alimentan de los azúcares y producen ácidos como desecho, los cuales terminan por disolver el esmalte de los dientes. El esmalte y la dentina de los dientes (las dos partes más exteriores del mismo) está compuesto principalmente de una forma descalcificada de hidroxiapatita. Se espera que al agregar hidroxiapatita al diente desmineralizado se absorba y ayude al proceso de remineralización. Se espera estimar propiedades físicas del Triclosán (electronegatividad, dureza, etc.) mediante métodos computacionales, así como su comportamiento cuando interacciona con jabón, ya que uno de sus usos principales se encuentra en la elaboración de jabones antibacteriales.



METODOLOGÍA

Gel remineralizante. Obtención e identificación del material: La primera parte de la investigación fue la de como obtener de manera óptima la hidroxiapatita de la fuente (huesos de bacalao). Para esto se experimentó con los tiempos de calcinación del hueso de pescado, con la manera más eficiente de reducir el tamaño de partícula, así como con el mismo tamaño de partícula. Para medir el tamaño de las partículas se utilizó primero un microscopio óptico, y cuando se observaron tamaños reducidos se utilizó un microscopio electrónico de barrido. Se logró reducir el tamaño de la partícula hasta un rango aproximado de 1-5 . También se caracterizó el material con espectroscopía de infrarrojo, así como con difracción de rayos X, para asegurarnos que el material que obtuvimos fue la hidroxiapatita, con resultados positivos. Creación del gel: El gel se creó a base de trietanolamina, carbopol y glicerina, y le fue agregada una determinada cantidad de hidroxiapatita. Se eligió una consistencia poco viscosa para una aplicación más fácil en las cavidades. Aplicación del gel: Se utilizaron dientes extraídos, los cuales fueron tratados con Coca-cola para lograr un alto grado de desmineralización. El gel fue utilizado en una sola aplicación y se monitorizó el avance de la remineralización en los dientes. Simulación de triclosán. Para simular las moléculas y calcular sus propiedades se utilizó el software Gaussian y Gaussview, el cual permite realizar los cálculos necesarios para esto. Se calcularon las energías de las moléculas con diferentes bases y métodos para encontrar las mínimas energías con las que la molécula es estable. Una vez obtenidas dichas energías se calcularon los orbitales HOMO (Highest Occupied Molecular Orbital) y LUMO (Lowest Unoccupied Molecular Orbital) y a partir de ellos se obtuvieron las propiedades buscadas.


CONCLUSIONES

Existen diferentes formas de hidroxiapatita, pero las dos principales son la forma hexagonal (principalmente obtenida de residuos orgánicos) y la monoclínica (principalmente obtenida artificialmente). Se espera que debido a la estructura hexagonal de la hidroxiapatita que se obtuvo se obtengan buenos resultados en la remineralización, ya que se ha observado en otros estudios que esta forma de hidroxiapatita se ha comportado mejor en experimentos de remineralización y biocompatibilidad que la obtenida de manera artificial. En cuanto a la simulación de triclosán y su interacción con el jabón se espera encontrar buenas aproximaciones a las propiedades reales de las moléculas, así como obtener un mejor entendimiento de su comportamiento cuando interactúa con el jabón.
Lopez Fernandez Jesus Victor, Universidad de Sonora
Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)

CALCULO PARA EL TENSOR DE MASA INVERSA EN CRISTALES SEMICONDUCTORES


CALCULO PARA EL TENSOR DE MASA INVERSA EN CRISTALES SEMICONDUCTORES

Lopez Fernandez Jesus Victor, Universidad de Sonora. Ramírez Espinoza Jesús Roberto, Universidad de Sonora. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Para encontrar el tensor de masa inversa se utilizan dos métodos, el modelo de Drude y la segunda derivada de la energía, la energía encontrada es en cristales semiconductores. Por medio de dos programas computacionales Abinit y TINIBA se calculan los parámetros que se modificaran mediante los dos métodos anteriormente mencionados. Se requiere tomar los datos resultantes de Abinit y TINIBA para aplicar una regresión polinómica por la cual suavizara las gráficas resultantes de la segunda derivada de la energía, así como construir graficas resultantes del traslape de varias bandas de energía en una sola gráfica.   



METODOLOGÍA

1.- Instalación de sistema operativo Linux e instalación de librerías que serán necesarias en la elaboración de los programas que derivaran y suavizaran los datos. 2.- Creación de una cuenta en los equipos del laboratorio. 3.- Creación de un script en lenguaje de Python. 4.- El script pide un archivo que contiene las energía de las bandas atreves de cristales semiconductores, después se aplica una doble derivada a cada banda de energía y se aplica una regresión polinómica la cual suavizara el ruido en las gráficas. 5.- El script compara las bandas de energía para localizar discontinuidades y poder a completar una gráfica con los datos de otra gráfica y generar una tercera banda.


CONCLUSIONES

Se comprobó el script con distintos materiales, como el diamante, silicio y arseniuro de galio. Lo cual, nos dio los resultados esperados, las bandas se suavizaron gracias a la regresión, pero al aplicarle la segunda derivada, tenía un notable error, el cual disminuye conforme se incrementa el grado de la regresión polinómica. Se espera realizar un script general el cual compare y genere bandas sin discontinuidades, sin importar el numero de bandas que se calcularon o el material del que se obtuvieron los datos.
López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
López Moreno Antonio José, Universidad de Sonora
Asesor: Dr. Jorge K. Barrera Ballesteros, Universidad Nacional Autónoma de México

CLASIFICACIóN MORFOLóGICA DE MANERA VISUAL Y ESTADíSTICA, Y DETECCIóN DE GALAXIAS CERCANAS DE LA LISTA DE GALAXIAS AMUSING


CLASIFICACIóN MORFOLóGICA DE MANERA VISUAL Y ESTADíSTICA, Y DETECCIóN DE GALAXIAS CERCANAS DE LA LISTA DE GALAXIAS AMUSING

López Moreno Antonio José, Universidad de Sonora. Asesor: Dr. Jorge K. Barrera Ballesteros, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Gran parte de las diferencias fundamentales físicas que se determinan en objetos extragalácticos correlacionan fuertmemente con la morfología de dichos objetos. Por otra parte, muchas de estas propiedades son determinadas usando o bien  espectroscopia o fotometría, pero no espectroscopia de campo integral que permite determinar propiedades espectrales a lo largo de la extensión óptica de las galaxias. Para esto último, los investigadores del Instituto de Astronomia en la UNAM trabajan en la colaboración AMUSING en la cual se tienen datos para mas de 500 galaxias observadas en el instrumento de espectroscopia de campo integral de vanguardia MUSE montado en uno de los telescopios del complejo VLT (very large telescope en Chile). La necesidad de este proyecto surge de tener una nueva clasificaición morfológica  para la lista de galaxias de AMUSING, ya que algunas galaxias de esta lista no cuentan con ningun tipo de clasificación, y si se desea asignarles una es necesario una clasificacion morfologica  visual para cada una de ellas. Por otro lado una clasificación visual realizada por una sola persona no da tanta fidelidad, por lo tanto es necesario recurrir a la base de datos de Galaxy Zoo y  de Hyperleda. La primera usa la estrategia  de clasificación denomidada ciencia ciudadana o citizen cience, en la cual cientos de personas se les presenta una imagen de una galaxia para que la clasifiquen. La segunda base de datos recoge distintas clasificaciones en la literatura. Esto nos permite realizar una relación entre nuestras galaxias de la listas de AMUSING y las que se encuentran en estas bases de datos para obtener una clasificación fiable del mayor número de galaxias de nuestra lista.  



METODOLOGÍA

Se utilizaron la lista de galaxias de AMUSING proporcionada por el Instituto de Astronomía de la UNAM, para su clasificaición morfolófica. Para realizar una primera clasificación se usaron las bases de datos que se enecuentran en el proyecto de clasificación de galaxias online Galaxy Zoo, especificamente se utilizaron las tabla 2 de del proyecto Galaxy Zoo 1 que cuenta con 667,945 galaxias y la tabla 5 de Galaxy Zoo 2 que tiene 243,500 galaxias clasificadas ya por otras muchas personas, para después realizar una relación entre la lista de AMUSING y las tablas proporcionadas por Galaxy Zoo, esto se realizó en el lenguaje de programación interpretado Python, utilizando la paquetería de Pandas para leer archivos csv y trabajar tablas de datos. Fue necesario obtener otra clasificación, ademas de las dos que ya se tenian, por que la mayoría de las galaxias de la lista de AMUSING no contaban con clasificaciones, por lo que se recurrio a la base de datos de galaxias HyperLeda, donde ingresamos una lista con los nombres de nuestra galaxias para que después nos arrojara un repertorio con las diferentes tipos de clasificaciones que tenia para cada galaxia que contaba esta base de datos, de estas diferentes clasificaiciones se extrajo la moda y de esta manera obtuvimos una nueva clasificación morfológica para un mayor número de galaxias. Por último se desarrollo una clasificación visual de cada una de las galaxias de la lista de AMUSING, recurriendo al sofware de Aladin y a las bases de datos de galaxias de HyperLeda, Ned y Simbad. Para observar una mejor imagen de las galaxias tambien observe el catalogo de imagenes MUSE donde había una gran resolución en las imagenes, y de esta manera obtuve otra clasificación para la gran mayoría de galaxias de la lista de AMUSING.


CONCLUSIONES

Podemos concluir la importante que fue realizar una clasificación visual de la lista de galaxias de AMUSING, ya que me pude percatar que algunas de las coordendas de algunas de galaxias tenian algún error. Las clasificaciones que se realizarón con las tablas  de Galaxy Zoo y las clasificaciones de Hyperleda son muy importantes ya que son mas precisas que las que realicé visualmente, pero estas tiene la desventaja de que no todas las galaxias de la lista de AMUSING terminaron una clasificación por medio de estas bases de datos. Estas clasificaciones morfológica son fundamentales para poder determinar mejor las propiedades espectrales que se determinen luego en los datos de AMUSING.
López Salomón María Guadalupe, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

RADIOPROTECCIóN Y DOSIMETRíA EN PERSONAL OCUPACIONALMENTE EXPUESTO.


RADIOPROTECCIóN Y DOSIMETRíA EN PERSONAL OCUPACIONALMENTE EXPUESTO.

López Salomón María Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

  PROBLEMA. Debido a la escasez de recursos y a la exigencia de la atención en la sala de hemodinamia en el Hospital Juárez de México, es posible que en ocasiones no se sigan las recomendaciones adecuadas para minimizar el riesgo de exposición a las radiaciones ionizantes producidas por el tubo de fluoroscopia. OBJETIVO GENERAL. A partir de los resultados encontrados, verificar si la dosis que recibe el personal ocupacionalmente expuesto de la sala de hemodinamia se encuentra dentro del marco recomendados en los límites de dosis para POE. OBJETIVO ESPECÍFICO. Comprender la importancia de la educación en protección radiológica para poder realizar mayor investigación y desarrollar instrumentación y eficaz que cumpla los objetivos de la protección radiológica de manera más eficiente.



METODOLOGÍA

Metodología. Se trabajó con pastillas de TLD-100 cuyo tratamiento térmico ya estaba dado, por lo que se procedió a homogeneizarlas utilizando un acelerador lineal. Colocando la placa de acrílico con los dosímetros cuidadosamente acomodados sobre la camilla del acelerador, a una altura de 1 metro y cuidando que el área de radiación, es decir, el campo fuera de 15x15 y con un diámetro de 200cm. Se calibró de modo que la placa quedará en el centro y a la altura del cabezal. Se irradiaron los dosímetros con los siguientes datos: Unidad monitor: 1cGy Dosis: 50cGy Energía: 6MeV Tasa de Dosis: 300cGy/seg Tiempo de exposición: .16min =9.6segs Posteriormente, se llevaron las pastillas al laboratorio y haciendo uso del lector de dosímetros Harshaw 3500 y su software WinREMS se dio lectura a cada uno de los dosímetros. Para las lecturas de las pastillas se tomaron en cuenta las siguientes consideraciones en el lector: Precalentamiento: 50°C, t=5seg Tasa: 10°C/seg Temperatura final Tf:300°C Se esperaba a que el lector bajara hasta una temperatura de 34°C entre cada lectura. Una vez realizada la lectura se procedió a graficar los datos obtenidos y se tomaron en cuenta los dosímetros que estuvieran dentro de la desviación estándar del 5%. Lo anterior se realizó debido a que es de suma importancia que se utilice un conjunto de dosímetros que presente una respuesta TL homogénea y reproducible pues esto proporcionará resultados más precisos. Una vez hecho lo anterior, ya con los dosímetros seleccionados, se procedió a realizarles un tratamiento térmico para borrar cualquier información restante en el lote de TLD-100. Este proceso consistió en precalentar el horno programable hasta que este alcance una temperatura de 400°C, se introdujeron los dosímetros en cajas de Petri y con ayuda de pinzas y se dejaron ahí durante 1 hora. Con los dosímetros ya afuera del horno, se procedió a encapsularlos y a etiquetarlos. Se colocaron dos pastillas por cada cápsula. Obtuvimos 6 dosímetros, mismas que se colocarían de dos en dos en cada POE. Ya en la sala de hemodinamia del hospital, se colocaron con cinta en la parte exterior e interior y a la altura del abdomen de los chalecos plomados de tres médicos (POE). Se registró la distribución del personal ocupacionalmente expuesto de cada procedimiento.​ Las obsevaciones registradas entre cada procedimiento se resumen a las siguientes: Observaciones: La mayor parte del procedimiento mantuvieron las mismas posiciones, sin embargo, los médicos no utilizaron la mampara de acrílico en ningún momento. Permanecieron sin utilizar la mampara de acrílico y la puerta estaba abierta. Para este procedimiento si hicieron uso de la mampara e incluso se cerró la puerta plomada. Una vez terminados los procedimientos, se retiraron los dosímetros y al día siguiente comenzaron a realizarse las lecturas con ayuda del equipo antes mencionado. Los resultados obtenidos se graficaron. Nuevamente se realizó el proceso de tratamiento térmico con las mismas consideraciones tomadas en cuenta para el primer tratamiento. Posteriormente, se preparó el material seleccionando dos pastillas de TLD100 por cápsula y se etiquetó cada dosímetro. Se llevaron nuevamente los dosímetros a la sala de Hemodinamia y se colocaron en la parte interior y exterior de cada chaleco plomado, a la altura del abdomen nuevamente. ​Las observaciones registradas fueron las siguientes: Observaciones: No utilizaron lentes y la puerta plomada permaneció abierta. Utilizaron la mampara de acrílico. Estuvieron presentes cuatro enfermeras y ninguna llevaba lentes. Colocaron la mampara de acrílico hasta el tercer disparo. Poe quedó justo enfrente del haz del tubo.La puerta permaneció abierta. Una vez que se terminaron los procedimientos se retiraron los dosímetros y se procedió a realizar las lecturas correspondientes de cada pastilla con ayuda del lector ya mencionado. Los resultados obtenidos al graficar los datos se exhiben en los resultados.


CONCLUSIONES

Se puede notar que la dosis recibida por POE no excede los límites permitidos para producir efectos estocásticos, sin embargo, es necesario seguir procurando la protección radiológica y corregir las actividades mal realizadas. Es necesario exigir al personal tomar la capacitación necesaria de manera anual, además de realizar un monitoreo y chequeo del blindaje, equipo y de algunos procedimientos de manera mensual para verificar que todo funciona adecuadamente dentro del marco de seguridad establecido. La protección radiológica no debe ser tomada a la ligera. Finalmente resultaría productivo rendir el reporte de la dosimetría no solo al técnico radiólogo sino a la administración y autoridades competentes del Hospital, pues ellos tienen la responsabilidad cívica de brindar seguridad y cuidar la salud de sus trabajadores. Así mismo tienen la obligación de proporcionar el blindaje necesario y otorgar el presupuesto para darle mantenimiento o reemplazar el equipo utilizado.
López Verdín Ángel Ignacio, Instituto Tecnológico de Tepic
Asesor: Dr. Vyacheslav Moisseevitch Zobin Peremanova, Universidad de Colima

ACTIVIDAD DE ENJAMBRE DE MICRO TEMBLORES ANTES DE LA EXTRUSIÓN DE LAVA DEL VOLCÁN DE COLIMA EN SEPTIEMBRE DE 2004


ACTIVIDAD DE ENJAMBRE DE MICRO TEMBLORES ANTES DE LA EXTRUSIÓN DE LAVA DEL VOLCÁN DE COLIMA EN SEPTIEMBRE DE 2004

López Verdín Ángel Ignacio, Instituto Tecnológico de Tepic. Asesor: Dr. Vyacheslav Moisseevitch Zobin Peremanova, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El volcán de Colima es un estratovolcán que se encuentra en los límites de Colima y Jalisco. Su extrusión de lava andesítica tuvo lugar entre septiembre y noviembre de 2004, fue precedida por una secuencia de micro-temblores a partir del 21 de septiembre. Nuestro estudio consiste en análisis e interpretación de estos de micro-temblores.



METODOLOGÍA

Para la realización de este trabajo, primeramente, se señalaron los días que trabajaremos los eventos de micro temblores registrados por la estación EZV4 instalada a distancia de 1.7 km del cráter del volcán. Después con el programa DEGTRA leeremos, analizaremos y comprenderemos las características básicas de estos eventos. Se clasificarán las señales los cuales se presentan en dos tipos según su comportamiento de las ondas: En el tipo1 las formas de onda constan de dos fases: un pulso inicial de baja frecuencia y pequeña amplitud (entre t1 y t2) y un segundo caracterizado por una mayor amplitud y una mayor frecuencia. En tipo 2 se caracterizan por una sola fase de ondas teniendo una forma de torno que aumenta uniformemente sin un segundo desfase. Los Resultados de mediciones se registraron en un formato de Excel que contendrá nombre, tiempos de inicio y fin del evento, amplitud, y energía que presenta. Después de guardaran según su día, hora, minuto e inicio de cada evento. Para finalizar, se interpretarán estos datos registrados con gráficos que se realizarán con el programa Grapher, para así, poder realizar el informe.


CONCLUSIONES

Está estudiada una secuencia de micro-temblores ocurridos durante ocho días antes de la extrusión de lava del Volcán de Colima en septiembre de 2004. Recibido que la duración de los dos tipos de micro-temblores está relacionada con la cercanía de la extrusión de lava, puede servir como indicador del momento de erupción. También que los micro-temblores tipo 1 son registrados por la acción de micro explosiones y los de tipo 2 por micro derrumbes.
Lorenzo Castro Jorge Luis, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Francy Nelly Jiménez García, Universidad Autónoma de Manizales (Colombia)

CARACTERIZACIóN DEL PANEL SOLAR FOTOVOLTAICO MONOCRISTALINO: INCIDENCIA DEL áNGULO DE INCLINACIóN


CARACTERIZACIóN DEL PANEL SOLAR FOTOVOLTAICO MONOCRISTALINO: INCIDENCIA DEL áNGULO DE INCLINACIóN

Lorenzo Castro Jorge Luis, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Francy Nelly Jiménez García, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La energía solar es la energía eléctrica obtenida mediante células fotovoltaica a partir de los fotones procedentes de la luz solar, este tipo de energía es cada día más importante debido a la necesidad de energías limpias que permitan un desarrollo sostenible en el planeta. El objetivo de este trabajo se determinó la eficiencia de un panel solar fotovoltaico de material de silicio monocristalino en función de su ángulo de inclinacion para una orientación constante.



METODOLOGÍA

La eficiencia se determinó a partir de los ajustes de las curvas I-V experimentales con las teóricas considerando el modelo de un diodo, las curvas se obtuvieron mediante la medición de la rradiación en el sitio, la temperatura, corriente y tensión del panel.


CONCLUSIONES

Se encontró que el panel solar monocristalino presenta un buen comportamiento en todo los rangos de temperatura, aunque las curvas I-V con mejores características se obtuvieron entre los 150 W/M2. La mayor eficiencia Se dió a 30 grados de inclinación y el promedio general estuvo alrededor del 12%, las temperaturas por el panel fueron inferiores a 50 grados centígrados.
Macias Garcia Axel, Instituto Tecnológico de Gustavo A. Madero
Asesor: Dr. Erika Bustos Bustos, Centro de Investigación y Desarrollo Tecnológico en Electroquímica (CONACYT)

DEGRADACIóN ELECTROQUíMICA DE HIDROCARBUROS EN AGUAS RESIDUALES PROCEDENTES DE REFINERíA EMPLEANDO PROCESOS DE OXIDACIóN AVANZADA.


DEGRADACIóN ELECTROQUíMICA DE HIDROCARBUROS EN AGUAS RESIDUALES PROCEDENTES DE REFINERíA EMPLEANDO PROCESOS DE OXIDACIóN AVANZADA.

Macias Garcia Axel, Instituto Tecnológico de Gustavo A. Madero. Asesor: Dr. Erika Bustos Bustos, Centro de Investigación y Desarrollo Tecnológico en Electroquímica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La descarga de efluentes que provienen de las industrias textil, farmacéutica, elaboración de resinas, petrolera, entre otras, contamina con hidrocarburos los cuerpos de agua superficiales y subterráneos, entre los hidrocarburos que se encuentran en mayor concentración en estas descargas de agua son los fenoles. Este tipo de contaminantes orgánicos tienen efectos adversos en los ecosistemas y en la población que tiene contacto con este tipo de agua, se ha reportado que a concentraciones de 2.5 mg/L los organismos acuáticos no pueden sobrevivir e instituciones como la EPA (Enviromental Proteccion Agency) estable un límite máximo en la concentración de fenoles para agua destinada al uso y consumo humano de 6 mg/L, en un periodo de hasta 10 días máximo. El fenol en su estado puro se encuentra de forma cristalina entre incoloro y blanco o ligeramente rosado, y es altamente soluble en agua. Las descargas de agua con altas concentraciones de fenol muestran una alta resistencia para su degradación, por tal motivo, los tratamientos convencionales tales como la degradación biológica resultan insuficientes para reducir las  altas concentraciones de este contaminante. Los procesos de oxidación avanzada (POA) han mostrado ser efectivos para reducir altas concentraciones de fenol en descargas de agua de diferentes industrias, estos procesos de oxidación avanzada actúan oxidando el anillo aromático del fenol y produciendo hidroquinona y quinona, posteriormente forman ácidos orgánicos y finalmente generar dióxido de carbono y agua. Los POA se pueden desarrollar empleando nanopartículas de magnetita (NPs Fe3O4) embebidas en quitosano (Q) formando un compósito (NPs Fe3O4 + Q) con el fin de promover la degradación del fenol en medio acuoso a través de la reacción Fenton. Por tal motivo, el objetivo de esta investigación fue hacer pellets de NPs Fe3O4 + Q, los cuales fueron empleados en un reactor de lecho empacado para la degradación de fenol en medio acuoso.



METODOLOGÍA

Para la formación de pellets de quitosano se pesaron 0.4 g de este polímero y se disolvieron en una solución de ácido acético (CH3COOH) con la siguiente relación en volumen de CH3COOH:H20 (1:14) con agitación constante de 600 rpm por 30 minutos. Posteriormente, para la formación de cada pellet se utilizó un utensilio de forma esférica con un diámetro de 1.5 cm, este utensilio se llenó con la solución formada entre el quitosano y el ácido acético para posteriormente sumergir el utensilio en una solución de NaOH 5M y poder precipitar el polímero contenido en la cavidad, finalmente el pellet se desprende del utensilio y se deja con una agitación de 600 rpm durante 15 min en la solución de NaOH 5M.  En cuanto a la obtención de nanopartículas de magnetita (NPs Fe3O4) se realizó mediante el método de reducción a partir de FeCl3 y posteriormente adicionando  polivinilpirrolidone (PVP), como agente reductor se utilizó NaBH4. Posteriormente, el lavado de las NPs Fe3O4 se realizó decantándolas magnéticamente. Finalmente, se sonicaron por 5 minutos las NPs Fe3O4 en una solución de etanol e inmediatamente en una solución de acetona se sonicaron por otros 5 minutos. Para la remoción del fenol se utilizó un reactor tipo Bach con un volumen de 1.433 L, el efluente se hizo recircular con un caudal de 1.5 L/min por un tiempo de 5 horas. En cada una de las pruebas se extrajo una muestra de 0.003 L cada 15 minutos teniendo un total de 20 muestras. Se realizaron dos pruebas con el rector. La primera de ellas solo se efectuó para conocer el comportamiento hidráulico del reactor a un caudal de 1.5 L/min y con una solución de fenol 10 mM. La segunda prueba se realizó empacando el reactor con 350 pellets de quitosano de 1.3 cm de diámetro empleando las mismas condiciones hidráulicas de la prueba anterior. Las muestras se analizaron en un espectrofotómetro UV-Vis de la marca Pekín-Elmer Lambda XLS. Para medir la concentración de cada muestra en las pruebas propuestas se realizó una curva de calibración siguiendo la absorción (A [=] u.a.) de las diferentes concentraciones del fenol en H2SO4 0.5 M a una longitud de onda de 270 nm. La construcción de la curva de calibración fue con 10 concentraciones diferentes efectuando la corrección por volumen, esto se realizó adicionando 0.002 L H2SO4 0.5M en la celda y posteriormente se agregaron 10 mL de la solución de fenol 10mM en H2SO4 0.5 M en cada medición.


CONCLUSIONES

De las curvas de calibración del fenol en H2SO4 0.5 M obtenidas por espectrofotometría de UV-Vis, se obtuvo la ecuación de la recta de calibración, la cual fue de A = 0.2167 [fenol] - 0.0397, con una R2 de 0.9844. Durante el primer experimento, se obtuvieron un total de 20 muestras, las cuales se analizaron, obteniendo un promedio en la concentración del efluente recirculado de 12.21 mM de fenol, lo que sugiere que este compuesto se sorbe en un 18 % en el interior del reactor, característica común de este contaminante. En el segundo experimento, se obtuvo un promedio en la concentración de fenol de 11.65 mM (14 % de sorción), considerando la concentración más alta de 13.24 mM (24 % de sorción) a los 15 min y la más baja de 10.15 mM (1.5 % de sorción) al finalizar la prueba (después de 300 min).  Con las pruebas efectuadas en este verano de investigación, se logró estandarizar la metodología de la formación de los pellets de NPs Fe3O4 + Q, los cuales pueden ser empleados en un reactor de lecho empacado para la degradación de fenol en medio acuoso a través de la reacción Fenton. Finalmente, durante esta estancia, se logró emplear los pellets de quitosano en el reactor de lecho empacado, con el cual se logró un 94.40 % de remoción del fenol en medio acuoso ácido, del cual 23 % es por sorción.
Macías Ramírez Esteban Francisco, Universidad de Guadalajara
Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara

CONSTANTE COSMOLóGICA A PARTIR DE UN VACíO 5-DIMENSIONAL.


CONSTANTE COSMOLóGICA A PARTIR DE UN VACíO 5-DIMENSIONAL.

Macías Ramírez Esteban Francisco, Universidad de Guadalajara. Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se busca dar un origen geométrico a los efectos de un universo con energía de vacío de una constante cosmológica.



METODOLOGÍA

Se empieza de un universo 5D vacío, por lo tanto su curvatura es nula, cuyo tensor métrico tiene las siguientes componentes gab=gab(XA) g4a=ga4=0 g44=+-Phi2 donde los índices en mayuscula corren de 0 a 4 y las minusculas de 0 a 3. A partir de esto, se puede calcular el tensor de Ricci en 4 dimensiones y a su vez el escalar de Ricci en 4 dimensiones con los cuales se puede construir un tensor de energía momento. Si se considera que el universo es un fluido perfecto podemos a partir de las componentes del tensor de energía momento podemos encontrar la presión y densidad del fluido para así construir una ecuación de estado cosmológica. La ecuación de estado que corresponde a la energía de vacío de una constante cosmológica es w = 1 donde w es el cociente entre la presión y la densidad. Después se comprobó que una métrica del tipo warped space-time ds2=e2A(l)habdxadxb-dl2 nos lleva a esta ecuación de estado siempre que se cumplan algunas condiciones.


CONCLUSIONES

Se puede obtener una constante cosmológica cuyo origen es geométrico.
Magaña Paz Juan Luis, Instituto Tecnológico de Colima
Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo

DISEÑO DE MOLDE PARA MANUFACTURA DE UN ALABE PARA AEROGENERADOR DE BAJA POTENCIA


DISEÑO DE MOLDE PARA MANUFACTURA DE UN ALABE PARA AEROGENERADOR DE BAJA POTENCIA

Hernández Vázquez Juan Carlos, Instituto Tecnológico Superior de Ciudad Serdán. Magaña Paz Juan Luis, Instituto Tecnológico de Colima. Rodríguez Ramos Angélica Vianney, Instituto Politécnico Nacional. Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo



PLANTEAMIENTO DEL PROBLEMA

Debido a la necesidad de incrementar el uso de aerogeneradores de baja potencia la Universidad del Istmo (UNISTMO) en su división de posgrado se encuentra desarrollando aerogeneradores de baja potencia, entre los cuales existen diseños con capacidades de 1.5 kW, 3 kW, 10 kW y actualmente está en proceso de la manufactura de las aspas de un aerogenerador de 5 kW, por ello la importancia y el interés de capacitar a estudiantes en el diseño de las mismas.



METODOLOGÍA

Para realizar el diseño del aspa se utilizó el perfil aerodinámico FX 63-137 debido a un análisis previamente realizado acerca de su comportamiento en la zona del Istmo, siendo ésta una zona que se caracteriza por contar con altas ráfagas de viento. Posteriormente se utilizó el método Blade Element Momentum el cual es un método iterativo en el cual se definen los parámetros de diseño del aspa como la cuerda (c), la Velocidad relativa (Vrel) y las cargas aerodinámicas se calculan por sección generando así una diferencial, la cual se debe de integrar para obtener el valor total tanto del empuje (T) y el Torque (M). El aspa diseñada fue dividida en 10 secciones además se añadió una sección adicional que corresponde a la punta de ésta, dando un total de 11. Obtenidas las cuerdas de cada sección por el método BEM se procedió a escalar, trasladar y rotar cada una, esto para hacer coincidir su centro aerodinámico. Ya una vez verificado mediante una gráfica que las secciones coincidieran en un mismo centro aerodinámico, se guardaron los puntos de cada una en un archivo de Excel para después exportarlos al software de diseño 3D. El software que se usó para el diseño del aspa fue Inventor debido a la fácil importación de los puntos guardados en los archivos de Excel. En inventor fueron creados planos desfasados entre sí a la distancia obtenida en el método BEM, después se importaron perfil por perfil los puntos en sus respectivos planos, además se agregaron dos circunferencias con un radio correspondiente a un porcentaje de la cuerda del primer perfil, las cuales fueron colocadas a un 3% y 10% de la longitud total del aspa esto para formar la raíz, posteriormente se solevaron las 11 secciones y las 2 circunferencias para así obtener el aspa. Para el diseño del molde se utilizaron los puntos de las secciones empleadas para el aspa, siendo divididas en intradós y extradós, es decir, en dos partes el total de puntos de cada sección, además, se buscó que las curvaturas pudieran ser manufacturadas por la CNC con la que se cuenta en la Universidad del Istmo, ya que el cortador solo puede operar a 90° del plano de trabajo, por lo que la solución a este problema fue quitar puntos del intradós o extradós, cual fuere de las dos que no podía maquinarse, para añadirse a la otra parte de la sección, obteniendo así curvas maquinables. Cuando se observa que las curvas de los perfiles pueden ser maquinadas se procede a realizar el molde. Se agregan rectángulos los cuales representan la base del molde, después se ajustan al primer y último punto de cada perfil cerrando un contorno, posteriormente se solevan las secciones obteniendo el molde. Cabe mencionar que la solevación se hace desde el penúltimo boceto del intradós al primer boceto de la raíz omitiendo lo que es la punta del molde, el siguiente paso es la extrusión de la raíz del primer molde y la solevación de la punta con el aspa. Se realizan los mismos pasos para ambas partes, intradós y extradós. Para obtener el código que será ingresado a la CNC se usó el software de diseño CATIA con el cual se configuraron los parámetros necesarios para el correcto maquinado de los moldes. El proceso de maquinado se dividió en desbastado y acabado. Como parte de un proyecto de la manufactura de las aspas para un aerogenerador de 5 kW en el cual la UNISTMO se encuentra trabajando, el siguiente proceso se realizó con el diseño que previamente fue elaborado por el M.C. Isaías López García. Debido a que la longitud del molde para el aspa es de 2.8 m, lo que es mayor a lo que la bancada de la CNC puede manufacturar, se tomó la decisión de dividir en 2 el molde del intradós, así como el del extradós. Para el maquinado se procedió a colocar el material de desbaste en la CNC. Después se configuró el centroide del material como el origen debido a que el punto inicial de simulación se encuentra en esa posición. Posteriormente se cargó el primer código que corresponde al desbastado de la pieza. Para el proceso de acabado se cargó el código en la CNC y se procedió a realizar el maquinado. Finalmente, como resultado obtuvimos 4 piezas, 2 para el molde del extradós y 2 para el del intradós.  


CONCLUSIONES

Durante la estancia se aprendió la metodología para desarrollar el diseño de aspas para aerogenerador de baja potencia, en la cual aborda desde el estudio de la selección del perfil lo cual es un punto muy importante para la eficiencia del aerogenerador siendo esta la que soportará las cargas del viento como la aplicación de la teoría del método BEM, el dimensionado y la obtención de los puntos para el diseño del aspa en modelo CAD posterior a ello se identificaron las condiciones que se deben contemplar para el diseño de los moldes que ayudarán para la manufactura del aspa, además se generó el código para la realización del maquinado dando como resultado la obtención de las piezas físicas de los moldes del aspa con las medidas previamente especificadas en el diseño CAD. El diseño de los moldes de las aspas que se construyeron en la UNISTMO son piezas importante para la manufactura de las aspas, la cual considera las características del viento de la zona del Istmo, que se caracteriza por contar con ráfagas de viento fuertes.
Maldonado González César Abdiel, Instituto Politécnico Nacional
Asesor: Dr. Roberto Ivan Cabrera Munguia, Universidad Autónoma de Ciudad Juárez

ANáLISIS Y CONTROL DE LA RESPUESTA TRANSITORIA DE UN MOTOR DE CD


ANáLISIS Y CONTROL DE LA RESPUESTA TRANSITORIA DE UN MOTOR DE CD

Maldonado González César Abdiel, Instituto Politécnico Nacional. Asesor: Dr. Roberto Ivan Cabrera Munguia, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Diseñar un sistema de control clásico para controlar la velocidad de un motor de CD mediante la implementación de dos lazos de control que toman en cuenta un control proporcional-derivativo y una retroalimentación tacométrica. En ambos casos se espera que el tiempo de respuesta sea menor que el original.



METODOLOGÍA

1. Estudiar el sistema de control de segundo orden en su forma más general posible, tomando en cuenta el par de fricción inicial y sin despreciar la inductancia de la armadura del motor. Así mismo se determinarán expresiones analíticas para los tiempos de respuesta y pico, así como la sobreelongación máxima.   2. Implementar un controlador proporcional-derivativo (PD), diseñando el lazo de control correspondiente y determinando analíticamente la respuesta transitoria de la salida del sistema; en este caso la velocidad del motor. De nueva cuenta se determinan expresiones analíticas para el tiempo de respuesta, tiempo pico y de la sobreelongación máxima.   2.1 Se contrastan las diferencias entre las salidas del sistema original y del nuevo que contiene una acción de control PD.   3. Implementar un lazo de control que contemple un controlador PD más una retroalimentación tacométrica, para atenuar los tiempos de respuesta y pico de la salida del sistema.   3.1. Constrastar las diferencias entre las salidas del sistema original, el sistema que contiene una acción de control PD y el sistema que contiene un controlador PD más una retroalimentación tacométrica.


CONCLUSIONES

1. Se observa que los tiempos de respuesta del sistema mejoran (se hacen menores) a medida que se implementan las acciones de control correspondiente.   2. Una vez que mejoran los tiempos de respuesta, la velocidad del motor llega a un valor final en un tiempo menor.   3. La señal de salida presenta sobreelongaciones máximas de mayor valor a medida que el tiempo de respuesta mejora.
Mancilla Xinto Nestor Raul, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato

DARKOGéNESIS


DARKOGéNESIS

Gaytán Villarreal José Daniel, Universidad de Sonora. González Montoya Sofía, Universidad de Sonora. Mancilla Xinto Nestor Raul, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas de la física moderna en el área de física de partículas es tratar de explicar por qué existe más materia que antimateria. El surgimiento de la antimateria es producto de la ecuación de Dirac, formulada en 1928 donde predice la existencia de antipartículas además de las partículas conocidas. El problema se genera al pensar que justo después del Big bang el universo era simétrico, por lo cual debería existir la misma cantidad de materia que antimateria, esto provocaría que al entrar en contacto las partículas con las antipartículas éstas se aniquilen produciendo fotones, pero no es así, vemos que la cantidad de materia es mayor y por lo tanto el universo es asimétrico permitiendo la existencia de materia. Para intentar resolver este problema, existe el proceso físico llamado Bariogénesis, el cual trata de explicar la producción de la asimetría bariónica en el universo temprano dando lugar a modelos basados en las interacciones entre partículas fundamentales. El trabajo se enfocó en el modelo llamado Darkgenesis que genera la asimetría bariónica a través del sector de materia oscura, simultáneamente relacionándola con la densidad de materia oscura.



METODOLOGÍA

Parte del trabajo se enfocó en la construcción del lagrangiano del modelo estándar de física de partículas, por ello se comenzó por los principios de la mecánica cuántica relativista, la notación y convenciones utilizados. Para esto, primero se introdujeron las simetrías del sistema: la invarianza del marco de referencia inercial conocida como invarianza de Lorentz, las simetrías de paridad (P), conjugación de carga (C) e inversión de tiempo (T), y el conjunto de éstas, CPT. Se trabajó con la ecuación de Dirac para describir las partículas de spin 1/2 bajo las simetrías de paridad y conjugación de carga, introduciendo los términos de quiralidad y helicidad. Se trabajó en un lagrangiano que sea invariante bajo las simetrías globales de la teoría de grupos U(1) y SU(2). Después se utilizó el rompimiento de simetría espontánea para llegar al teorema de Goldstone, donde surgen partículas escalares sin masa llamados bosones de Goldstone. Con ayuda de la teoría de norma y el mecanismo de Higgs, éstos se convierten en bosones vectoriales masivos. Para comenzar a construir el lagrangiano del modelo estándar se necesitan al menos tres bosones, W+ , W- y ϒ, para esto se necesita el producto SU(2)xU(1) y tenemos cuatro bosones gauge, incluyendo a Z0 . El lagrangiano completo bajo la simetría SU(2)xU(1) se conforma por la parte invariante localmente, la parte fermiónica, el término de Yukawa y la parte invariante de gauge para escalares. Como primer paso se trabajó con el lagrangiano del doblete conformado por el electrón y su correspondiente neutrino para después generalizar a las tres familias de leptones, incluyendo este primer doblete como la primera generación, el muón y su neutrino como la segunda generación y finalmente el tau y su respectivo neutrino como la tercera generación, únicamente con cambios en el término de Yukawa. De aquí se extendió el modelo estándar para incluir a los quarks, de igual manera cambiando el lagrangiano fermiónico y el de Yukawa.  Una vez con el lagrangiano del modelo estándar completo se estudió sobre el proceso de bariogénesis, tomando en cuenta las condiciones de Sakharov necesarias para una asimetría entre materia y antimateria. Estas tres condiciones son la violación del número bariónico, las interacciones fuera del equilibrio térmico y la violación de C y CP (conjugación de carga y paridad).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de física de partículas, así como las herramientas matemáticas que nos permitieron desarrollar dichos conocimientos de una manera más técnica. Si bien no se contribuyó al desarrollo del modelo estándar, se revisó de manera íntegra la física que abarca; además, al realizar una suposición teórica que sobrepasa al modelo, se revisó lo que se considera física nueva, es decir,  la física más allá del modelo estándar, a partir de la realización del modelo bariónico ya mencionado, Darkogénesis.  Se espera, a partir de la investigación experimental llevada a cabo en los distintos aceleradores de partículas a lo largo del globo, llegar a resolver las cuestiones sin respuesta del modelo estándar, tales como la interacción gravitacional, la masa de los neutrinos, la energía oscura, la materia oscura, y, como se vio en el verano, la asimetría presente en el universo entre materia y antimateria.
Martinez de la O Roxana, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

VARIABILIDAD CLIMÁTICA EN CIUDAD ACUÑA (MAGNITUD DE VIENTO).


VARIABILIDAD CLIMÁTICA EN CIUDAD ACUÑA (MAGNITUD DE VIENTO).

Martinez de la O Roxana, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Siempre es posible notar cambios en nuestra ciudad  así como  económicos, sociales, culturales  e inclusive cambios de gobierno,  pero no nos percatamos del cambio de clima o tiempo en nuestra región. Aquí presentamos un análisis de variabilidad climática y magnitud de viento  en el municipio de ciudad  Acuña que  se localiza en el norte del estado de Coahuila, a una altura de 280 metros sobre el nivel del mar, este análisis lleva un periodo de  sesenta y cinco años de los años 1950-2015.  La Variabilidad Climática se refiere a las variaciones del estado medio de datos estadísticos del clima en todas las escalas temporales y espaciales. Existen investigaciones que indican que En las regiones tropicales las circulaciones oceánicas y atmosféricas están altamente conectadas, por lo que una reacciona rápidamente a las fluctuaciones de la otra, como los ¨Fenomenos del  ENSO(El Niño - Oscilación Sur), DEL PDO(Oscilación década del pacifico) Y NAO(La Oscilación del Atlántico Norte) . Con el objetivo de describir la estadística y dinámica de la variabilidad interanual de la temperatura del aire superficial y magnitud de viento en ciudad Acuña, Coah.   ENSO(El Niño - Oscilación Sur):Es el calentamiento anormal de las aguas del pacifico ecuatorial. Se utilizan dos índices para clasificarlo: MEI Índice Multivariado del ENSO (Multivariate ENSO Index): es una base de datos conformada de seis variables de interacción océano-atmósfera observadas en todo el Océano Pacífico. como temperatura superficial del aire y mar, vientos superficial, presión, nivel mar, porcentaje de nublado. Promedios bimensuales (ene-feb, feb-mzo, mzo-abri,… etc.) ONI Índice Oceánico del El Niño (Oceanic Niño Index): es una media móvil de tres meses de las anomalías de la temperatura de la superficie del mar observadas en la pequeña región del Pacífico Tropical. Promedios trimestrales (ene-feb-mzo, feb-maz-abri,…) PDO- Oscilación década del pacifico: es un fenómeno que se encuentra fundamentalmente en el Pacífico Norte (en contraposición al Niño, que afecta sobre todo al Pacífico tropical). Tiene dos fases entre las que suele alternar. NAO-La Oscilación del Atlántico Norte: es una fluctuación a gran escala en la masa atmosférica situada entre la zona de altas presiones subtropicales y la baja polar en la cuenca del Atlántico Norte. Su influencia se extiende desde Norteamérica Central a Europa, alcanzando incluso al Norte de Asia.



METODOLOGÍA

Se utilizaron varios índices para el análisis que incluyen los registros de base de datos de la estacion utilizada, para conocer la teleconexión que asocia las anomalías. Se realizó la correlación en Excel, entre la temperatura superficial y magnitud de viento  de Ciudad Acuña Coah, con los índices MEI, ONI, NAO Y PDO.


CONCLUSIONES

En base a los resultados obtenidos, se pudo concluir  que la correlación en los índices, respecto a las temperaturas máximas y  mínimas su correlación con cada uno de ellos fue mínima, en cambio en la magnitud de viento se observó que la  correlación con los índices fue más notorio en especial con el  ONI Y MEI (El Niño).
Martínez Díaz Ronaldo Daniel, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.


ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.

Colín Carreño Manuel Alejandro, Universidad Autónoma de Guerrero. Constantino Rios Brian Alexis, Universidad de Ciencias y Artes de Chiapas. Díaz Estrada Jesús Ulises, Universidad Autónoma de Guerrero. Martínez Díaz Ronaldo Daniel, Universidad de Ciencias y Artes de Chiapas. Morales Hernández Elifas Constantino, Universidad de Ciencias y Artes de Chiapas. Segura Hernandez Jesus Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es un componente esencial del ambiente puesto que se considera el factor principal que controla el estatus de salud tanto en humanos como en la biota en general (Kazi et al. 2009). El agua subterránea, después de los glaciares es la principal reserva de agua dulce para consumo humano, después representado aproximadamente el 30% del agua dulce del mundo. Sin embargo el crecimiento demográfico, que provoca el aumento de la marcha urbana, así como los cambios en la cobertura del uso de suelo, la sobreexplotación del recurso hídrico y la variabilidad climática, se han convertido en una fuerte amenaza para la recarga potencial de agua subterránea, lo que nos podría encaminar al agotamiento del agua subterránea. La cuenca del rio Sabinal en el estado de Chiapas es un caso particular para analizar la incidencia que tiene el desarrollo urbano de los municipios de Tuxtla Gutierrez y Berriozabal, así, como los cambios de cobertura vegetal; en la recarga potencial de agua subterránea.



METODOLOGÍA

Se realizó una revisión bibliográfica de diferentes estudios previos sobre la estimación de la recarga potencial de agua subterránea (estado del arte), se obtuvieron datos edafológicos y de uso y cobertura del suelo en archivos shp. Así como imágenes satelitales, modelos de elevación digital, y datos meteorológicos del área de estudio para tres años aleatorios (1990, 2000, 2010). Los archivos se obtuvieron de diferentes plataformas virtuales como INEGI, GEOWEB Chiapas, USGS, Alos Palsar, y del Servicio Meteorológico Nacional. Toda la información se analizó, y se homologó a un mismo sistema de referencia espacial (WGS 84 UTM Z 15). Los archivos shp. de edafología se editaron agregándoles más variables dentro de la tabla de atributos como son el grupo hidrológico, y capacidad de retención de agua. Para poderlos convertir a archivos ráster y estos convertirlos a un código ASCII. Del modelo de elevación digital de Alos Palsar se obtuvo un mapa de direcciones de flujo. De las variables meteorológicas se realizó una interpolación diaria para los tres años con ayuda de la técnica kriging, esto último con ayuda del lenguaje de programación Python, las interpolaciones se obtuvieron en formato Netcdf. Por último se espera estimar la recarga potencial de agua subterránea, con ayuda del modelo Soil Water Balance (SWB) del servicio geológico de los estados unidos, el cual realiza un balance hidrológico en formato ráster por lo que los archivos de entrada para poder trabajar con el modelo deben estar dados en formato Netcdf, y código ASCII. Todo esto para poder realizar una evaluación sobre cómo ha afectado el crecimiento urbano y los cambios de cobertura vegetal en la recarga potencial de agua subterránea.


CONCLUSIONES

Con ayuda de la teledetección y la técnica de fotointerpretación, se visualizó el crecimiento constante de la infraestructura urbana, en un periodo comprendido del año 1990 al 2010, lo cual incide en la recarga potencial de agua subterránea, debido al efecto impermeabilizante que propicia una menor infiltración, así mismo, el crecimiento poblacional ocasiona cambios en la cobertura vegetal y uso del suelo, lo que altera el ciclo hidrológico. Se espera estimar la recarga potencial de agua subterránea con ayuda del software antes mencionado y de todos los datos previamente recolectados y analizados.
Martinez Hernandez Omar Luis, Instituto Politécnico Nacional
Asesor: M.C. Manuel Alejandro Valdes Marrero, Universidad del Mar

USO DE VIDEOJUEGOS COMO POSIBLE ALTERNATIVA A LAS EVALUACIONES ESCRITAS


USO DE VIDEOJUEGOS COMO POSIBLE ALTERNATIVA A LAS EVALUACIONES ESCRITAS

Martinez Hernandez Omar Luis, Instituto Politécnico Nacional. Asesor: M.C. Manuel Alejandro Valdes Marrero, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

La forma de evaluación de los conocimientos teóricos adquiridos en la escuela no ha cambiado prácticamente desde el inicio, siendo ésta la aplicación de un examen escrito. El inconveniente de lo anterior es el hecho de que causa mucho estrés al alumno, algo que contribuye al fracaso de este a pesar de que sí maneje los conocimientos esperados, además de que resulta tedioso y aburrido tanto para el estudiante como para el docente. Por otro lado, la industria de los videojuegos ha ganado mucha presencia en los últimos años, incluso superando en importancia y recaudación a la industria del cine, esto debido a que ofrecen narrativas muy interesantes junto con una inmersión más profunda en las mismas, lo cual genera en los jugadores una mayor afinidad a cada entrega de los distintos géneros. Por lo anterior, se planteó la idea de desarrollar un videojuego que pudiera servir de forma de evaluación para las distintas áreas del conocimiento. La forma en que se logra esto es aplicando las preguntas acerca del tema que se está tratando, pero ahora en una dinámica muy similar a los juegos de mesa, en los cuales, al responder correctamente las preguntas de distintos temas, se obtienen puntos, o bien, se avanza en el tablero para poder llegar a una meta y ganar el juego. De forma similar, en el videojuego propuesto el responder correctamente dejará que el avatar elegido por el jugador avance, hasta poder obtener una recompensa cada vez que se pase por la meta, y ya con dichas recompensas se podría determinar la calificación del alumno o alumnos, si es que el profesor decide formar equipos.



METODOLOGÍA

El videojuego sigue la misma mecánica de los juegos de mesa, donde se tienen que responder preguntas para avanzar u obtener recompensas. Hay un tablero virtual donde se encontrará un circuito cerrado conformado por casillas de distintos colores, en donde habrá una casilla de inicio/meta, por la cual, al pasar el avatar elegido por el jugador, obtendrá una recompensa o semilla, que quiere decir que completó una vuelta con éxito. Para avanzar se tirará un dado, de donde se obtendrá el número de casillas a moverse. Una vez se haya colocado el personaje sobre la casilla, el color de ésta determinará la dificultad de la pregunta que se va a desplegar: verde-fácil, amarillo-intermedio y rojo-difícil; si se responde correctamente, el jugador se mantendrá en la casilla a la que se movió, de lo contrario, se regresará al lugar donde estaba cuando inició su turno. Se tiene un cuarto color de casilla, el morado, el cual otorga uno de los distintos power-ups que pueden ser usados para tener una ventaja en el juego, o bien, dificultarles el juego a los rivales. Cabe mencionar que habrá 10 avatares que podrá elegir el jugador o estudiante, 8 de los cuales son especies endémicas de México en peligro de extinción, y los dos restantes son representativos del estado o alma máter de los involucrados en el proyecto. En cuanto a los mapas, habrá tres opciones para elegir: playa, selva y desierto, los cuales corresponden al nivel de dificultad fácil, media, y difícil, respectivamente. Si bien el camino y el número de casillas es fijo en cada uno de los mapas, lo que la dificultad va a variar será la cantidad de casillas de cada color, siguiendo un comportamiento similar a una distribución normal; es decir, donde el valor promedio es el que tiene mayor probabilidad de repetirse. De este modo, al representar cada nivel de dificultad como un valor numérico y elegir uno de éstos como el promedio en cada uno de los mapas, causará que cada tipo de casilla esté más presente que las demás, correspondiendo al nivel de dificultad elegido; es decir, en el fácil habrá más casillas verdes, en el nivel medio, más amarillas y en el difícil, más rojas. Sin importar el nivel que se haya elegido, habrá la misma probabilidad en cada uno de que se genere la casilla de power-up. Para lograr lo anterior, cada mapa tiene fija la ubicación de todas las casillas dentro de él, y antes de iniciar la partida, se genera un número aleatorio, el cuál al quedar dentro de ciertos rangos, determina el tipo de casilla que se va a colocar en cada una de las posiciones guardadas. El juego permite partidas de hasta 5 jugadores, y se puede elegir entre distintos modos de juego: por tiempo, número de turnos y número de semillas. Cuando algún jugador haya ganado la partida, se desplegará el número de aciertos y errores que tuvo cada uno. Primero se tuvo que desarrollar un storyboard, que es donde se definen las características generales del juego, así como la secuencia básica que seguirá. Posteriormente, se realizan los requerimientos, que es el comportamiento detallado de las funciones que tendrá el videojuego, tanto de forma lógica, como de forma gráfica. Lo que se hace después es listar y crear los elementos gráficos y sonidos que se van a necesitar, basados en la lista de requerimientos definida anteriormente. Se diseñó un archivo CSV para almacenar las preguntas. Para la programación se usó la plataforma Greenfoot, la cual usa el lenguaje de programación Java para crear videojuegos y simulaciones en 2D. Java es un lenguaje de programación orientado a objetos, gracias a lo cual, programar el comportamiento de los objetos gráficos, así como sus interacciones, resulta más sencillo. Un objeto es una instancia de una clase predefinida; cada clase tiene atributos, que son las propiedades de sus instancias; y cada clase tiene métodos, que es el comportamiento común que tendrán los objetos de cada clase. Greenfoot tiene una interfaz gráfica amigable, pues permite tener una mejor visualización de las clases, sus relaciones, así como una librería que es la que permite relacionar cada clase con su representación gráfica en el juego.


CONCLUSIONES

Ya que las preguntas se realizan de un modo lúdico y menos estresante, resulta más cómodo evaluar el conocimiento acerca de un tema en particular, siendo el videojuego una herramienta potencialmente útil para integrar al sistema educativo actual, previamente siendo adaptado a los requerimientos de cada escuela. Es importante mencionar, que los temas que pueden auxiliarse de esta herramienta son limitados, ya que al igual que las evaluaciones escritas, sigue consistiendo en un interrogatorio teórico con opciones predefinidas.
Martínez Juárez José Manuel, Universidad de Guadalajara
Asesor: Dr. Marco Antonio Meneses Nava, Centro de Investigaciones en Óptica (CONACYT)

IDENTIFICACIóN DE ELEMENTOS TRAZA EN AGUA POTABLE MEDIANTE ESPECTROSCOPíA LIBS ASISTIDA POR LEVITACIóN ACúSTICA.


IDENTIFICACIóN DE ELEMENTOS TRAZA EN AGUA POTABLE MEDIANTE ESPECTROSCOPíA LIBS ASISTIDA POR LEVITACIóN ACúSTICA.

Martínez Juárez José Manuel, Universidad de Guadalajara. Asesor: Dr. Marco Antonio Meneses Nava, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el agua pueden encontrarse elementos que aporten información acerca de donde fue obtenida, cuál fue el proceso de potabilización o por donde ha sido transportada.



METODOLOGÍA

Se utilizará un sistema de espectroscopía LIBS asistido por levitación acústica para analizar agua destilada que se utilizará como muestra de control, posteriormente se hará lo mismo con muestras de agua potable de la ciudad de León, Guanajuato, todo con el fin de identificar elementos traza e inferir su procedencia.


CONCLUSIONES

Las muestras contienen elementos claramente identificables como calcio y magnesio, más lo que parecen ser algunas trazas no tan claras de elementos como aluminio, osmio, silicio, iridio, y algunos otros que no es posible admitir que están presentes. Debido a que los elementos encontrados suelen estar presentes en acuíferos subterráneos, se puede deducir que las muestras fueron obtenidas de agua de pozo que psoteriormente fue potabilizada.
Martinez López Lizbeth Vanessa, Universidad de Sonora
Asesor: Dr. Ricardo López Esparza, Universidad de Sonora

CONDUCTIVIDAD DE MICELAS DE DODECIL SULFATO DE SODIO (SDS) COMO BASE PARA ESTUDIOS DE FLUJO IóNICO EN NEURONAS


CONDUCTIVIDAD DE MICELAS DE DODECIL SULFATO DE SODIO (SDS) COMO BASE PARA ESTUDIOS DE FLUJO IóNICO EN NEURONAS

Martinez López Lizbeth Vanessa, Universidad de Sonora. Asesor: Dr. Ricardo López Esparza, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Materiales tensoactivos como SDS, forman micelas en soluciones acuosas debido a su naturaleza anfifílica, dichas micelas comienzan a formarse a una concentración mínima de aproximadamente 8.2 mM (llamada concentraciación micelar crítica o cmc) en una temperatura de 25 °C; además se forman otros tipos de estructuras a mayor concentración entre las cuales se tienen liposomas y fase lamelar. Esta última ha sido utilizada como modelo para estudiar fenómenos físicos que se presentan en la membrana celular. Uno de los fenómenos de interés es el de la difusión de iones a través de la membrana. Esta difusión genera un potencial llamado potencial de membrana que se asocia al potencial de acción en el caso de neuronas. El flujo de iones a través de membranas neuronales producen gradientes de densidad que cambian los potenciales de acción. Se realizaron experimentos de conductividad de moléculas de SDS en agua y en presencia de iones de Sodio (Na) y Cloro (Cl). Las curvas de conductividad vs concentración de SDS y NaCl presentan diferencias que pueden relacionarse con el flujo iónico en membranas.



METODOLOGÍA

Materiales: SDS (NaC12H25SO4, 288.38 gr/mol), Cloruro de Sodio (NaCl, 58.44 gr/mol), Agua ultrapura (tipo MilliQ), ScienceWorkshop 750 Interface, Conductivity Sensor Pasco Scientific (CI-6739A, Rango 20K), Micropipeta, Pipetas, Probetas, Matraces aforados (100ml, 1lt), Vasos de precipitado, DataStudio, KaleidaGraph. • Preparación de muestras a) Solución madre SDS en agua: Se diluyó 0.5767 gr de SDS en 100 ml de agua ultrapura, para obtener una solución madre de 20 mM. b) Muestras a menores concentraciones: A partir de la muestra madre, se crearon muestras con las siguientes concentraciones: 15 mM, 12.5 mM, 10 mM, 9 mM, 8.2 mM, 7.5 mM, 5 mM y 2.5 mM, utilizando una relación 1 a 1 para lograr obtener dichas concentraciones en un volumen total de 20 ml cada una. c) Solución madre NaCl en agua: Se diluyó 0.5 gr de NaCl en 100 ml de agua ultrapura, para obtener una solución de 5 gr/L, es decir, 85.56 mM de concentración. d) Muestras a menores concentraciones: A partir de la muestra madre de NaCl se elaboraron cuatro muestras de menor concentración, la relación que utilizamos para obtener dichas muestras fue diluirlas en un factor de 1/2^n   , las concentraciones fueron: 42.78 mM, 21.39 mM, 10.695 mM y 5.3475 mM • Metodología de determinación de conductividad Se midió la conductividad de cada muestra, incluida la muestra madre con ayuda de la interfaz y el software DataStudio, el criterio considerado para obtener los valores de conductividad fue el de estabilidad respecto al tiempo transcurrido de medición. Se hicieron 4 mediciones para cada muestra de SDS y 3 para las de NaCl, se obtuvo el promedio de cada conductividad -su respectiva desviación estándar- y con los datos obtenidos se elaboró una gráfica de conductividad contra concentración.


CONCLUSIONES

Se realizaron experimentos de conductividad utilizando por separado una molécula tensoactiva y sal. Los resultados experimentales muestran que la cmc de SDS es de 8.8 mM, ligeramente más alta que la reportada en la literatura. La dependencia de la conductividad de NaCl es lineal con la concentración, a diferencia de la correspondiente a SDS, que tiene un cambio marcado en la cmc. Los resultados obtenidos permiten considerar el tipo de flujo existente en membranas celulares, que es principalmente por poros, en relación al flujo libre de iones, que es el caso de esta investigación.
Martinez Moreno Angel Martin, Universidad de Sonora
Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)

CáLCULO DE PROPIEDADES óPTICAS LINEALES Y NO LINEALES DE META-MATERIALES 2D.


CáLCULO DE PROPIEDADES óPTICAS LINEALES Y NO LINEALES DE META-MATERIALES 2D.

Martinez Moreno Angel Martin, Universidad de Sonora. Morales Zamudio Ángela, Universidad de Sonora. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Existe una serie de scripts elaborados por alumnos de Doctorado y Maestría en los cuales se calculan distintos parámetros para distintas figuras de Metamaterial y diferentes Celdas unitarias. A su vez, se requiere agregar distintas rotaciones en la Celda unitaria de prueba e interacción entre algunas de ellas, por ello se planteó hacer modificación y/o creación de distintos scripts donde se logra la rotación e interacción de éstas.



METODOLOGÍA

El trabajo realizado tuvo algunas etapas para su elaboración. 1.- Instalación de sistema operativo Linux e instalación de librerías que serán necesarias en la elaboración de scripts respecto a Metamateriales 2D. 2.- Modificación de scripts que sirvan para lograr una rotación de distintos ángulos en la celda unitaria y así observar las variaciones del flujo eléctrico en el Metamaterial 2D. 3.- Agregar más celdas unitarias y lograr una interacción entre ellas que sirva para observar las variaciones del flujo eléctrico en el Metamaterial 2D. 4.- Creación de estrellas de plata y medición de sus diferentes propiedades (Transmitancia, Reflectancia, Carga, Campo Eléctrico, Polarización y Susceptibilidad) variando diferentes parámetros como: Número de pixeles, Alto, Ancho, Suavidad, Número de Haydock, Ángulos, Número de pasos, Permitividad de distintos materiales… 5.- Obtención de animaciones respecto a la figura desarrollada y sus respectivos cálculos. 6.- Elaboración de reporte en programa LaTeX. Se obtuvieron 2 inconvenientes. 1.- El Número de Haydock tiene un margen máximo de 250 en su declaración, una vez sobrepasando ese límite puede ocasionar problemas en el disco duro del computador. 2.- El tiempo estimado para que el programa finalice son 2 días a 3 días, por lo cual es necesario dejar la computadora sin tiempo de descanso.


CONCLUSIONES

Una vez realizado el script para distintos ángulos y obtener interacciones entre distintas Celdas unitarias se consiguieron cálculos más precisos y completos respecto al tema de Metamateriales 2D. Se realizó una estrella utilizando SuperFormula donde su épsilon correspondiente es el de la plata, se calcularon sus distintos parámetros como Transmitancia, Reflectancia, Carga, Campo Eléctrico, Polarización y Susceptibilidad.
Martínez Peña María Isabel, Universidad Autónoma del Estado de México
Asesor: Dr. Rosario Vázquez Morales, Universidad Nacional Autónoma de México

SIMULACIóN NUMéRICA DE FLUJOS DE LAVA. CASO DE ESTUDIO: COMPLEJO VOLCáNICO TACANá


SIMULACIóN NUMéRICA DE FLUJOS DE LAVA. CASO DE ESTUDIO: COMPLEJO VOLCáNICO TACANá

Martínez Peña María Isabel, Universidad Autónoma del Estado de México. Asesor: Dr. Rosario Vázquez Morales, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Los flujos o coladas de lava son derrames de roca fundida, originados en el cráter o en fracturas en la estructura de un volcán, que descienden por los flancos y las quebradas del mismo, a bajas velocidades y que pueden alcanzar distancias de algunos kilómetros de longitud. En el Complejo Volcánico Tacaná (CVT), de acuerdo con su historia eruptiva, es más probable que ocurra un evento eruptivo de tipo efusivo, más que explosivo; aun cuando las manifestaciones de actividad eruptiva en tiempos modernos (1949 y 1986), hayan sido de tipo explosivo mediante erupciones freáticas cercanas a la cima del volcán. No obstante, la cartografía geológica del CVT pone de manifiesto la gran cantidad de flujos de lava (20 en total) que se han acumulado en el edificio volcánico desde hace 40,000 años. Por lo cual, la simulación numérica de este tipo de fenómenos volcánicos resulta importante para la evaluación del peligro por estos eventos en el CVT, así como para poder definir las zonas que serían susceptibles de ser invadidas por flujos de lava, considerando que se encuentran asentamientos humanos en el edificio volcánico del CVT. Dado que no es posible pronosticar una erupción volcánica, especialmente en volcanes que no tienen ningún tipo de monitoreo, como es el caso del CVT; este tipo de estudios, basados en la información histórica, de campo y simulaciones numéricas; proporcionan escenarios a futuro, mismos que ayudan a generar medidas preventivas con la finalidad de crear planes operativos, en los cuales el principal objetivo sea minimizar el daño a infraestructuras y a la población presente en la zona. Tomando en cuenta que el CVT está ubicado en la frontera entre México y Guatemala, es de suma importancia para ambos países el desarrollo de investigaciones como la presente, dado que Guatemala pasó por un evento volcánico catastrófico en Junio de 2018, relacionado al Volcán de Fuego, un volcán localizado a tan sólo 100 km de distancia del CVT, mismo que tuvo efectos negativos en la población.



METODOLOGÍA

En primer lugar, se realizó una revisión de la bibliografía correspondiente a la historia eruptiva del CVT, con la finalidad de obtener un panorama del comportamiento eruptivo del volcán a lo largo del tiempo y analizar los diferentes tipos de fenómenos volcánicos. A partir de esta revisión, se realizó entonces una base de datos de los flujos de lava existentes en el complejo, para analizar sus características y definir los escenarios eruptivos a modelar; así como para obtener los parámetros de entrada necesarios para la modelación, a partir de los datos existentes de eventos antiguos. A continuación, se determinó que la elaboración de dos escenarios correspondientes a flujos de lava cortos (hasta 4 kilómetros de longitud) y flujos de lava largos (hasta 8 kilómetros de longitud), eran los más relevantes a analizar dado que un tercer escenario más corto o intermedio, no tendría diferencias significativas para el análisis de peligro por flujos de lava para el CVT. Una vez definidos los escenarios eruptivos a modelar, para comenzar con el proceso de simulación, se determinaron 16 centros de emisión donde se consideró que sería posible que se produjeran en el futuro, nuevas coladas de lava. La selección de estos sitios se hizo a  partir del análisis de la geología estructural del CVT, así como de la topografía y el estudio de la localización de los centros de emisión antiguos. Después, se llevó a cabo la calibración del software elegido para realizar la simulación, que en este caso fue el Etna Lava Flow Model (Damiani, et al., 2006). Este programa requiere  de algunos parámetros de entrada que incluyen: la posición del centro de emisión en la topografía, el espesor del flujo de lava, la distancia máxima recorrida y el número de iteraciones que realizaría el software, así como el modelo digital del elevación del terreno correspondiente al área de estudio con una resolución de 12 metros. Se realizaron 73 simulaciones en total para el primer escenario, correspondiente a flujos de lava cortos, de los cuales se utilizaron 46 simulaciones para la calibración del software y las 26 restantes son las correspondientes a los resultados obtenidos con el modelo ya calibrado. A continuación se llevó a cabo la simulación para el segundo escenario, correspondiente a flujos de lava largos, para el cual fue necesario llevar a cabo 30 simulaciones, de las cuales 16 corresponden a los resultados obtenidos y 14 fueron utilizadas para la calibración del software. A partir de todos los resultados obtenidos en las simulaciones y con ayuda de un Sistema de Información Geográfica (ArcGIS), se realizó la delimitación de los flujos de lava obtenidos, para establecer una zona de influencia para ambos escenarios. Posteriormente se colocaron los resultados en mapas con la topografía de la zona de estudio, sobreponiendo datos de población y vialidades para determinar las áreas que pudieran estar en peligro por la posible emisión de flujos de lava en un evento eruptivo futuro del CVT.


CONCLUSIONES

A partir de los datos obtenidos durante la estancia de investigación, fue posible generar un mapa de susceptibilidad de zonas de inundación por flujos que lava; el cual beneficiará a las poblaciones tanto de México, como de Guatemala, que se encuentran asentadas dentro de la zona del CVT,  para que estén conscientes de las trayectorias y alcances que tendrían los flujos de lava que se generarán en un evento eruptivo de tipo efusivo. Esta información servirá como antecedente a tener en cuenta para tomar medidas preventivas que salvaguarden la integridad de la población involucrada en caso de una eventualidad de este tipo en el futuro.
Matias Marroquin Aldo Alan, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

IMPLICACIONES DE EXTENDER EL MODELO ESTáNDAR CON UN SINGLETE COMPLEJO


IMPLICACIONES DE EXTENDER EL MODELO ESTáNDAR CON UN SINGLETE COMPLEJO

Matias Marroquin Aldo Alan, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se estudia la extensión del Modelo Estándar de la Física de Partículas considerando un sector de Higgs con un campo doblete de SU(2) y un singlete complejo (SM+1CS). Se muestra que al extender el sector de Higgs el espectro de bosones de Higgs incluye una partícula escalar extra. Se propone esta partícula como un candidato a materia oscura. Analizamos la fenomenología del espectro de bosones de Higgs neutros del modelo usando  el programa SHDECAY, esto es se calculan las razones de ramificación BR(H-->XY), considerando todos los estados finales posibles. Además, se analiza la viabilidad del escalar propuesto como materia oscura usando el programa MICROMEGAS, específicamente con el cálculo de la densidad residual de materia oscura.



METODOLOGÍA

Se estudia el potencial de Higgs del modelo SM+1CS y se obtienen los acoplamientos asociados con el espectro de bosones de Higgs del modelo. Se calcularon las razones de ramificación BR(H-->XY) usando el programa SHDECAY. Se comparan estos con los resultados obtenidos correspondientes al Modelo Estándar. Para analizar la viabilidad del candidato escalar a materia oscura se usa el programa MICROMEGAS para el cálculo y análisis de la densidad residual.  


CONCLUSIONES

Se estudia el potencial de Higgs del modelo SM+1CS y se obtienen los acoplamientos asociados con el espectro de bosones de Higgs del modelo. Se calcularon las razones de ramificación BR(H-->XY) usando el programa SHDECAY. Se comparan estos con los resultados obtenidos correspondientes al Modelo Estándar. Para analizar la viabilidad del candidato escalar a materia oscura se usa el programa MICROMEGAS para el cálculo y análisis de la densidad residual.  
Medina Estrada Brenda Elisa, Instituto Politécnico Nacional
Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima

DIVULGACIóN CIENTíFICA DE NEUTRINOS Y MATERIA OSCURA


DIVULGACIóN CIENTíFICA DE NEUTRINOS Y MATERIA OSCURA

Hernandez Serrano Oscar Kariel, Instituto Politécnico Nacional. Medina Estrada Brenda Elisa, Instituto Politécnico Nacional. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema A pesar de que el mundo está evolucionando en ciencia y tecnología, y México intenta mantenerse a la par de otros países con mayor calidad en dichos sectores, apenas logra destinar un 0.5% del 2.40% del PIB promedio. La ciencia en México desde hace años carece de interés por la mayor parte de la población, el sector con mayor desinterés son los jóvenes. Aunque se les presenta desde una edad temprana, no se obtienen los resultados esperados, lo que convierte esto en una situación que se trata de erradicar. La divulgación científica ha jugado un papel fundamental en este proceso, al desarrollar los textos científicos más sencillos y eficaces de entender. Ya se ha visto que en años recientes ha habido un incremento en la difusión de información científica a través de las diferentes formas en las que se representa la divulgación científica. Tal es el caso de los divulgadores que hacen uso de las redes sociales, así como de las diferentes plataformas de videos, quienes en ocasiones obtienen una gran atención de los jóvenes.



METODOLOGÍA

Metodología   La manera más efectiva de llevar la ciencia a los jóvenes y obtener su atención, es la divulgación científica. Por lo que se ha decidido realizar una serie de videos (de divulgación científica) sobre Neutrinos y Materia Oscura, durante el verano de investigación. Está serie de videos van dirigidos a la población que se encuentra estudiando la secundaria o el nivel medio superior. Aun así, también está al alcance de personas que tengan conocimiento en Física Básica y profesores que buscan incentivar la comprensión de las ciencias exactas en los estudiantes. Se hará el uso de las redes sociales, así como de Youtube. Pues son los medios más usados por los jóvenes actualmente y en donde se ve una gran circulación de datos de carácter científico.  


CONCLUSIONES

Conclusiones Se espera generar interés en los estudiantes de nivel medio superior, y a su vez a jóvenes de secundaria, para aprender más allá de la Física básica y la ciencia instruida en respectivos niveles educativos. De esta manera obtener la aceptación de que la ciencia no es difícil, despertar la inquietud en los temas científicos y obtener la formación de jóvenes en diferentes áreas de la ciencia. Sobre todo, disipar la Pseudociencia que se encuentra también en las mismas redes sociales.
Melchor del Valle Danna Sherlyn, Universidad Veracruzana
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

DOSIMETRíA AMBIENTAL POR TERMOLUMINISCENCIA DE SULFATO DE CALCIO DOPADO CON DISPROSIO EN UNA SALA DE HEMODINAMIA DURANTE PROCEDIMIENTOS DE CARDIOLOGíA INTERVENCIONISTA EN EL HOSPITAL JUáREZ NORTE DE MéXICO


DOSIMETRíA AMBIENTAL POR TERMOLUMINISCENCIA DE SULFATO DE CALCIO DOPADO CON DISPROSIO EN UNA SALA DE HEMODINAMIA DURANTE PROCEDIMIENTOS DE CARDIOLOGíA INTERVENCIONISTA EN EL HOSPITAL JUáREZ NORTE DE MéXICO

Melchor del Valle Danna Sherlyn, Universidad Veracruzana. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Dado el uso de radiaciones ionizantes en el ámbito médico y las consecuencias que implica, es necesario detectar y cuantificar las dosis emitidas por los equipos radiológicos mediante dosimetría para evaluar el efecto de la radiación sobre el medio irradiado y el circundante a la fuente de radiación. En este trabajo se hizo empleo de la dosimetría ambiental por termoluminiscencia para observar si los niveles de radiación dispersa en una sala de hemodinamia se encuentran dentro de rangos razonables ya que es importante llevar un control adecuado de las dosis impartidas durante procedimientos de cardiología intervencionista, aplicando la técnica de fluoroscopia, para evitar posibles efectos graves a futuro ya sea en el personal médico, pacientes o público en general; así como se busca destacar la relación multidisciplinar entre áreas como la medicina, la física y la química.



METODOLOGÍA

Las radiaciones ionizantes, como lo son los rayos X, son aquellas capaces de alterar las propiedades de un material. Por esta razón, se han desarrollado métodos que determinan la medición y detección de la cantidad de radiación absorbida, tal como lo es la dosimetría, que se ocupa de la cuantificación de la dosis absorbida por un material como consecuencia de su exposición a un campo de radiación, a través de unos detectores llamados dosímetros. En el ámbito hospitalario, la dosimetría por termoluminiscencia ha sido ampliamente utilizada. La dosimetría consta de diferentes modalidades, bien puede ser dosimetría en el personal ocupacionalmente expuesto (POE), en el paciente, al ambiente o para protección radiológica.  En particular, la dosimetría ambiental es practicada para la medición de los niveles de radiación en espacios físicos en los que es necesario evaluar el riesgo radiológico dado que en ellos se encuentran funcionando equipos que utilizan radiaciones ionizantes. Uno de los dosímetros termoluminiscentes recomendados para realizarla, son los Sulfatos de Calcio dopados con Disprosio debido a su alta sensibilidad a la radiación. Materiales: Ocho dosímetros de CaSO4:Dy en forma de pastilla (3mm de diámetro por 1 mm de espesor). Cuatro portadosímetros Lector de dosímetros termoluminiscentes Harshaw-3500.  Mufla para tratamiento de borrado térmico. Sala de hemodinamia equipada con un Fluorosocopio. Metodología: Para la selección de un lote de 8 sulfatos, se llevó a cabo una homogeneización del material; primero se les realizó un tratamiento térmico de borrado a 300°C durante 30 minutos para eliminar cualquier información no deseada. Posteriormente se organizó una matriz cuadrada con las pastillas existentes para llevarlas a ser irradiadas en un acelerador lineal, para la obtención de la curva TL. Los parámetros durante la irradiación fueron un campo de 15x15 cm2, a una energía de 6 MeV, con una dosis absorbida de 50 cGy y una rapidez de 300 UM/min durante un tiempo de exposición de 0.16 minutos. Una vez irradiados se procedió a realizar su lectura en un analizador termoluminiscente Harshaw-3500 en conjunto con un ordenador para obtener las curvas TL, con el fin de encontrar las áreas bajo la curva y con ello seleccionar los dosímetros que se encontraran dentro de la desviación estándar. Ya obtenido el lote de 8 pastillas de TLD CaSO4:Dy, se realizaron dos visitas a la sala de hemodinamia, el 3 y 15 de julio del año en curso, para recabar la información de dos jornadas laborales donde los dosímetros fueron colocados de manera específica en cuatros puntos de la sala. Al final de cada jornada, se retiraron los dosímetros para continuar con su lectura en el laboratorio ubicado en CICATA Unidad Legaria haciendo uso del lector Harshaw-3500 obteniendo los datos para generar curvas TL. Los parámetros que se utilizaron para la lectura fueron: Tiempo de precalentamiento: 10 segundos. Temperatura de precalentamiento: 120°C. Velocidad de precalentamiento: 3°C/s. Temperatura máxima de calentamiento: 300°C. Tiempo de adquisición: 60 segundos. Ya generadas las curvas TL se utilizó una curva de calibración para calcular las dosis absorbidas por los TLD y con ello se pudo realizar una comparación de los niveles de radiación recibidos por los dosímetros durante las dos jornadas.


CONCLUSIONES

Las dosis obtenidas por los dosímetros resultaron ser muy mínimas, con diferentes niveles dada su ubicación dentro de la sala, señalando que la posición 2 y 3, lado izquierdo entrando a la sala y detrás del equipo de radiación, fueron los sitios donde se captó un mayor nivel de radiación dispersa, 12-13 mGy (3 julio) y 2-5 mGy (15 de julio); sin embargo, cabe mencionar que debido al breve tiempo de exposición posiblemente los dosímetros no lograron captar suficiente radiación como para generar curvas TL completas, es por ello que en las gráficas no fue posible detectar un punto máximo real, pero a pesar de ello con la información obtenida se logra apreciar un poco la forma en que la radiación es dispersada en la sala de hemodinamia. Los niveles de radiación detectados para el día 3 de julio fueron significativamente más altos que los del 15 de julio debido a que los procedimientos que se llevaron a cabo el día 3, necesitaron de más tiempo de exposición y la dosis impartida se fue acumulando aún más. Como se mencionó, los lugares donde la radiación dispersa tiene más presencia es en dirección izquierda y delantera al entrar a la sala, sitios de interés ya que normalmente es donde se colocan los médicos intervencionistas, es por ello que se sugiere tomar medidas en cuanto al uso de los rayos X, como las dosis que se imparten además del tiempo de exposición durante el cual son aplicadas, con el fin de minimizar los niveles de radiación dispersa y por ende disminuir las posibilidades de producir efectos negativos en el personal que transita esas áreas.
Mendez Molina Chrystian Daniel, Instituto Politécnico Nacional
Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional

RADIOPROTECCIÓN EN INTERVENCIONISMO EN EL ÁREA DE CARDIOLOGÍA DEL HOSPITAL JUÁREZ DE MÉXICO


RADIOPROTECCIÓN EN INTERVENCIONISMO EN EL ÁREA DE CARDIOLOGÍA DEL HOSPITAL JUÁREZ DE MÉXICO

Mendez Molina Chrystian Daniel, Instituto Politécnico Nacional. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El siguiente trabajo se desarrolló durante mi estancia en el XXIV Verano de la Investigación Científica y Tecnológica del Pacífico en las instalaciones de CICATA Legaria del Instituto Politécnico Nacional bajo la tutela del Dr. Teodoro Rivera Montalvo. En la actualidad el uso de las radiaciones ionizantes juega un papel de vital importancia en el diagnóstico y tratamiento de diversas enfermedades que afectan a la población, mediante esta herramienta se puede obtener un análisis clínico más preciso que permite una mejora rápida y eficaz de la salud del paciente. Aunque a pesar de ser una buena opción en el diagnóstico, hay que tomar en cuenta que las radiaciones ionizantes interactúan con el tejido generando así un daño celular, que a largo plazo puede traer grandes consecuencias no solo en la salud del paciente, sino que también a la salud del personal ocupacionalmente expuesto a dichas radiaciones.  El daño que causa la radiación en los órganos y tejidos depende de la dosis recibida, o dosis absorbida, que se expresa en una unidad llamada gray (Gy). El daño que puede producir una dosis absorbida depende del tipo de radiación y de la sensibilidad de los diferentes órganos y tejidos. Actualmente en el área de radioterapia existe una figura entre el personal el cual se encarga de prevenir y optimizar el uso de las radiaciones ionizantes tanto para los pacientes como para el personal ocupacionalmente expuesto, dentro de las actividades que realiza esta persona es la dosimetría, la cual permite conocer la exposición de una persona ya sea paciente o POE a las radiaciones ionizantes, pero en el área de radiodiagnóstico no existe nadie que se encargue de llevar a cabo dicha función por lo que el POE especialmente se encuentra menos educado y capacitado en la cultura de radioprotección lo cual vuelve al personal más vulnerable a daños estocásticos.



METODOLOGÍA

Borrado de dosímetros mediante tratamiento térmico Inicialmente se introdujeron los dosímetros a la mufla a una temperatura de 300 °C por un tiempo de 30 minutos para asegurarnos que no almacenaran ninguna información que afectara nuestros futuros análisis. Homogeneización del lote Inicialmente se irradiaron con un LINAC de haz polienergético de la marca SIEMENS modelo PRIMUS a una distancia de 100 cm y a una dosis de 50 cGy por un tiempo de 0.16 min. A continuación, se leyeron los dosímetros en el Harshaw 3500 con los siguientes parámetros: Temp incial: 120 °C Temp máxima: 300 °C Taza de incremento: 3 °C/s Tiempo: 60 seg. Finalmente se seleccionaron los dosímetros que presentaban respuestas similares tomando en cuenta un 5% de variación estándar.   Calibración de los dosímetros Para la calibración de los dosímetros se requiere exponer el lote de los mismos a distintas energías conocidas para posteriormente relacionar su respuesta con la radiación de exposición.   Obtención de las curvas TL Para poder utilizar un dosímetro se debe conocer su curva TL, la cual nos da la relación de la respuesta en función de la dosis absorbida, para esto se debe obtener una recta que tenga un coeficiente de correlación muy aproximado a la unidad, esto con el fin de obtener la ecuación de esta recta la cual usaremos posteriormente para conocer la dosis absorbida por cada dosímetro en cada una de nuestras mediciones. Dosimetría en intervencionismo en cardiología La dosimetría para radioprotección se llevó a cabo en el quirófano de hemodinamia del Hospital Juárez de México, durante tres procedimientos tanto diagnósticos como terapéuticos. Los dosímetros se colocaron a distintas distancias del tubo de rayos X (25 cm, 230 cm,  420 cm,420 cm + vidrio plomado y 720 cm) Análisis de las curvas TL y cuantificación de dosis Finalmente se hizo la lectura de cada dosímetro mediante el lector Harshaw 3500 nuevamente y se realizó el análisis de la dosis absorbida empleando la curva de calibración otorgada por el Doctor Teodoro,


CONCLUSIONES

El uso de rayos x como herramienta de diagnóstico médico no debe de ser un tema alarmante que cause euforia y miedo entre el personal, simplemente se debe de asegurar que el POE cumpla con todas las medidas de prevención y que el equipo se encuentre siempre en los niveles óptimos de funcionamiento, todo esto mediante programas de mantenimiento adecuados y de calidad, además el personal debe de estar capacitado para conocer los dispositivos de radioprotección que existen y el daño que puede ocasionar no usarlos; los dispositivos deben de cumplir con todos los lineamientos que dictan las normas de protección, de igual forma deben existir campañas de capacitación y programas de rotación entre el POE para así asegurar que la dosis absorbida por cada uno de ellos se mantenga en los niveles más bajos como razonablemente sean posibles. Cabe señalar que durante esta investigación pudimos observar de manera directa que no todo el POE utiliza los dispositivos de seguridad e incluso se observó durante la primera sesión de estudio como una enfermera introdujo la mano para acomodar al paciente con el tubo de rayos x en funcionamiento, es por esta razón que todo el personal que se encuentre dentro de una sala de hemodinamia debe conocer los dispositivos de radioprotección y las medidas de seguridad que debe tomar al trabajar cerca de fuentes de radiación ionizante.  Los tiempos de exposición tienen un papel fundamental en las dosis absorbidas tanto para el paciente como para el POE, por esta razón se debe de tomar en cuenta este factor para así disminuir los daños al organismo. También cabe señalar que las distancias entre el tubo de rayos x y el paciente e incluso el personal, modifican las dosis absorbidas, esto se puede entender mejor mediante la ley del cuadrado inverso de la distancia cuando se habla de una exposición directa al haz de rayos x. La radioprotección es una cultura que se debe adoptar, ya que la salud del personal ocupacionalmente expuesto es responsabilidad del mismo.
Mendiola Ramirez Hector Ivan, Universidad Politécnica de Tecámac
Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac

SÍNTESIS DE MATERIAL CERÁMICO POR QUÍMICA VERDE CON INCREMENTO DE MAGNETIZACIÓN


SÍNTESIS DE MATERIAL CERÁMICO POR QUÍMICA VERDE CON INCREMENTO DE MAGNETIZACIÓN

Mendiola Ramirez Hector Ivan, Universidad Politécnica de Tecámac. Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Con el avance de la ciencia y  la tecnología ha surgido la necesidad de buscar tanto nuevos materiales como nuevas tecnologías para obtener estos, no obstante la mayoría de los procesos para obtención de materiales son tanto costosos como complejos. Desgraciadamente la mayoría de los procesos conocidos para la sintetización o aleado de materiales se realizan a temperaturas muy elevadas y con altos niveles de contaminación, debido al desprendimiento de múltiples gases y residuos producidos por las elevadas temperaturas e incluso agentes catalizadores utilizados para las reacciones. Otra razón importante  es el uso de materiales nanométricos, ya que se ha vuelto una gran opción tanto en áreas de ingeniería como metalurgia o manufactura hasta áreas de la medicina como la biomedicina o la biónica, ya sea en la creación de compuestos especializados en enfermedades y tratamientos, o en la incorporación de nuevos materiales en prótesis o equipos específicos. Se sabe que en la creación de dichos materiales se requiere equipos muy elaborados y de alto valor, por lo cual es necesaria la implementación de nuevas tecnologías que permitan tener una mayor eficiencia en la producción de estos materiales así como también bajos costos y que sea amigable para el medio ambiente. Se realizó el análisis de materiales cerámicos previamente obtenidos mediante química verde para su posterior caracterización.



METODOLOGÍA

Para la realización de este análisis mediante química verde, se seleccionaron los materiales cerámicos precursores que fueron sometidos a diferentes intervalos de molienda mecánica Se buscó identificar el tipo de arreglo estructural que se tiene, a partir de ello proponer un arreglo cristalino semejante a las estructuras presentadas con hierro y con ello buscar estructuras en bases de datos para poder simular la respuesta de DRX. La molienda se llevó a cabo en un molino Spex 8000D, los materiales junto con 6 bolas de acero endurecido de que se colocaron en viales cilíndricos de acero inoxidable en todos los casos se utilizó una relación bolas: polvo de 20:1 en peso y las moliendas se realizarán a temperatura ambiente en atmósfera de aire. La morfología de los polvos después del proceso de molienda se observó con Microscopia Electrónica de Barrido. El tamaño de partícula se determinó utilizando un analizador de tamaño de partícula Brookhaven Nano 90+ además de un baño ultrasónico. El estudio de saturación magnética se realizó a temperatura ambiente usando un magnetómetro de muestra vibrante MicroSense, con un campo máximo externo de 18000 Oe. En cuestión de equipo de seguridad se utilizaron googles, mascarillas para evitar absorción de polvos, guantes de nitrilo, jeringas en la medición del analizador de tamaño de partícula y guantes de látex en el manejo del molino mecánico y otras caracterizaciones. Se ocupó agua destilada para la medición de tamaño de partícula y operación del equipo de Rayos X, mientras que otro se utilizará para las otras caracterizaciones.


CONCLUSIONES

Una vez terminada la estancia de verano hasta el momento se logró observar que hay un cambio estructural de la muestra después de  12 horas así como nanopartículas con el analizador de tamaño de partícula, con lo cual se comprobo la hipótesis que existen materiales menores a 100 nm, mostrando una relación inversamente proporcional  entre el tamaño de partícula y los niveles de magnetización de estas.   Mediante micrografías fue posible observar la morfología irregular de la mezcla de los materiales cerámicos precursores en intervalos de molienda diferentes, ya que con esto se logra observar las diferentes etapas de aglomeramiento de las partículas siendo más perceptibles  en las primeras horas de molienda. A medida que aumenta el tiempo de molienda se puede observar una disminución del tamaño de partícula debido a la fragilidad estructural en esos momentos de la muestra, provocando la fractura de esta en partículas más pequeñas, finalmente fue posible el observar que al culminar el tiempo de molienda establecido en 12 horas la micrografía mostro una muestra más dispersa y con un nivel de aglomeramiento menor al que cuando inicio el proceso de química verde.
Mendoza Molina Marcos Gabriel, Instituto Politécnico Nacional
Asesor: Dr. Ma. Catalina Gómez Espinosa, Universidad Autónoma de Guerrero

APLICACIóN DE TéCNICAS DIGITALES PARA RECONSTRUIR LA PIGMENTACIóN EN CONCHAS FóSILES


APLICACIóN DE TéCNICAS DIGITALES PARA RECONSTRUIR LA PIGMENTACIóN EN CONCHAS FóSILES

Mendoza Molina Marcos Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Ma. Catalina Gómez Espinosa, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

  Aplicación de técnicas digitales para reconstruir la pigmentación en conchas fósiles  Asesor: Dra. Catalina Gómez Espinosa, Universidad Autónoma de Guerrero. Estudiante: Mendoza Molina Marcos Gabriel, Instituto Politécnico Nacional. PLANTEAMIENTO DEL PROBLEMA En esta investigación se aborda la clase Gastropoda, la cual constituye uno de los grupos de mayor extensión entre los moluscos. Los gasterópodos viven en los medios muy diversificados como: dulceacuícolas, continentales y en su mayoría marinos, su distribución está limitada a su necesidad de agua, la temperatura, profundidad (resisten altas temperaturas y presiones), acidez del agua y por su característica del sustrato, son organismos bentónicos móviles que se desplazan con un pie ventral, aunque algunos se fijan en rocas o arrecifes, los organismos que habitan el mar se encuentran en la zona litoral. El registro fósil de la clase gasterópoda se ha establecido del Cámbrico al Reciente (Buitrón Sánchez et al., 2019). Generalmente, el color no se conserva en la concha fósil de los moluscos y dependerá del tiempo geológico y ambiente en el que este se ha estado preservando, cuando se conserva parte de la pigmentación es únicamente observable como manchas, marcas, puntos o bandas claras y oscuras. Un método que se ha mostrado que es exitoso para la revelación de pigmentación que no es visible con luz blanca, es a través del método de blanquear las conchas fósiles con hipoclorito de sodio (NaClO), y posteriormente fotografiar con fluorescencia bajo luz ultravioleta. Este método fue iniciado por Axel Olsson de Coral Gables, Florida en 1960 aunque no fue muy ampliamente difundido (Pitt & Pitt, 1993). Este proceso ha sido usado y perfeccionado posteriormente por Harold y Emily Vokes de la Universidad de Tulane (Vokes y Vokes, 1968), y también ha sido usado por Hoerle (1976), Pitt y Pitt (1992), entre otros. La reacción química de oxidación es un factor que ayuda a la exposición de los patrones de pigmentación en la concha ya sea por la exposición al ambiente natural o por su reposo de la concha en cloro. El principal objetivo de este trabajo la reconstrucción los patrones de pigmentación y coloración de los moluscos gasterópodos del Plioceno (5.3-3.5 millones de años) de los depósitos sedimentarios de Punta Maldonado, Guerrero, a través del uso de luz ultravioleta.  



METODOLOGÍA

METODOLOGIA La metodología que se realizó en el Trabajo de Laboratorio Se eligió las muestras de fósiles, para detectar la presencia de sedimentos y en caso de ser necesario realizar nuevamente su lavado con agua corriente o su limpieza con agua oxigenada (H2O2), para posteriormente fotografiar a los ejemplares más representativos para la ilustración de este trabajo. Preparación de las muestras Con las muestras recolectadas y clasificadas con base a la morfología de la concha de los moluscos se realizaron tres pruebas metodológicas de oxidación de los ejemplares para verificar cual era la más propicia y eficiente de llevar a cabo para cumplir con el objetivo general de esta investigación: a) La primera prueba consistió en sumergir dentro de un vaso de plástico una muestra de gasterópodo en una mezcla 50:50 de agua e hipoclorito de sodio por 24 horas b) La segunda prueba se sumergió otra muestra del mismo tipo de gasterópodo en 100% de hipoclorito de sodio por 24 horas c) La tercera prueba se realizó muestra del mismo tipo de gasterópodo en 100% de hipoclorito de sodio por 72 horas. Después de cada uno de las pruebas se lavaron con agua corriente y se dejaron secar a temperatura ambiente. Fotografía y procesamiento de imágenes digitales Posteriormente a este tratamiento los ejemplares fueron fotografiados con luz ultravioleta y editada, para la toma de fotografías se realizó la simulación de un cuarto obscuro, el cual fue construido utilizando una caja de cartón la cual fue forrada en su interior por cartulina  negra mate; La iluminación se realizó utilizaron dos lámparas de rayos ultravioleta de onda larga de 50 leds y las fotografías fueron tomadas usando una cámara digital Canon EOS REBEL SL2. Se obtuvo las fotografías digitales poniendo cada uno de los especímenes en la simulación del cuarto obscuro, tomando las vistas de las conchas superficie central, superficie dorsal y la vista apical. Posteriormente las imágenes fueron editadas en los software Photoshop Cs6 y Corel Draw X6.


CONCLUSIONES

Resultados y Conclusiones Resultados del método de 72 Horas en 100% de hipoclorito de sodio Este método siendo comparado con el método de 24 horas en 100% en hipoclorito de sodio, nos indica que es más eficiente en algunas cascaras de los ejemplares ya que como se muestra en la Fig. 6 el ejemplar de Conus Fig. 6.2 Este preservaba un tipo de color diferente al obtenido al momento de emplear este método el cual causo su decoloración en este, mientras que en el resto de las muestra fue satisfactorio ya que ayudo a que la pigmentación fuera más notable, mientras que el método de 100% hipoclorito de sodio con 24 horas fue también eficiente mostrando una mejor pigmentación en un 80 o 70% de las muestras. Conclusiones El estudio de los patrones coloración es una herramienta útil para identificación, clasificación y comparación para las cascaras de los gasterópodos Las características compartidas de algunas especies con las ya existentes hacen posible su identificación y relación entre estas confirmando con otra herramienta la clasificación del espécimen, así como saber que los patrones de color para ciertos géneros no se ha modificado mucho o siguen iguales desde hace 5.333 Ma. a la actualidad, algunas especies su pigmentación está más preservada como Cerithium stercusmuscarum y Triplofusus prínceps lo que ayuda más a su comparación. Es necesario que para que pueda obtener buenos resultados en la elaboración es necesario que tengan un 100% de hipoclorito de sodio (NaClO). Con  la mayoría de los Fósiles se logró el objetivo.  
Meneses Huerta Diana, Universidad Politécnica de Sinaloa
Asesor: Dr. Omar Calvario Martínez, Centro de Investigación en Alimentación y Desarrollo (CONACYT)

REMOCION DE NUTRIENTES POR MEDIO DE LA MACROALGA GRACILARIA SP


REMOCION DE NUTRIENTES POR MEDIO DE LA MACROALGA GRACILARIA SP

Meneses Huerta Diana, Universidad Politécnica de Sinaloa. Asesor: Dr. Omar Calvario Martínez, Centro de Investigación en Alimentación y Desarrollo (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El uso de macroalgas, como sistema alternativo para tratamiento biológico de sistemas acuáticos a sido ampliamente estudiado debido a su capacidad para remover cantidades significativas de nitritos, nitratos, amonio y fosfatos. El objetivo del presente trabajo fue evaluar la eficiencia de la macroalga Gracilaria sp para remover la carga de nutrientes en sistemas acuáticos experimentales.



METODOLOGÍA

Para este estudio se utilizaron seis contenedores con 20 litros de agua y concentraciones conocidas de amonio, nitritos, nitratos y fosfatos. Cinco contenedores con  400 g de la macroalga en cada uno de ellos, estos fueron utilizados para estimar la remoción de nutrientes  y un contenedor sin macroalga que sirvió como control. Los contenedores fueron colocados en la superficie, dentro de un estanque con agua de aproximadamente 18 metros de largo por 5 metros ancho por 1 metro de profundidad y expuestos a condiciones ambientales por 48 horas. Se colectaron muestras de agua de cada uno de los contenedores para el análisis de nutrientes disueltos, temperatura, oxígeno disuelto y radiación luminosa cada media hora durante las primeras 4 horas y posteriormente en intervalos más amplios durante el periodo experimental.


CONCLUSIONES

Se reporta el promedio de las cinco charolas para amonio, nitritos, nitratos y fosfatos. La concentración de amonio disminuyo aproximadamente el 100% en las primeras 17 horas, en el caso de nitritos se removió mas del 50% y en el caso de los nitratos y fosfatos permaneció uniforme desde el inicio hasta el final del experimento. Es importante mencionar que en la charola control, la concentración de los nutrientes durante todo el experimento permaneció constante. Durante el periodo de luz, la concentración mínima de oxigeno disuelto fue de 8.88 mg/L a las 9:30 horas mientras que el máximo se registro alrededor de las  14:00 horas con una concentración de oxigeno disuelto de 25.00 mg/L. La concentración de oxígeno disuelto durante la noche vario entre 3.01 y 8.69 mg/L. En el caso de la temperatura  esta se incrementa durante el dia, la temperatura mínima fue de 23.34°C a las 9:00 horas y la máxima fue de 28.75°C a las 13:30 horas. Durante la noche la temperatura vario entre 24.90°C y 25.50°C. La radiación luminosa mostró un máximo de 1.5E+17 uE/seg/cm2 a las 11:30 horas y valores mas bajos al amanecer y anochecer con valores nulos durante la noche. Los resultados sugieren que la macroalga Gracilaria sp prefiere el nitrógeno (amonio principalmente, seguido de nitritos)  que el fósforo.
Meré Hidalgo Pablo, Universidad de Guanajuato
Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas

LAS MATROIDES Y SU RELACIóN CON MóDULOS LIBRES GRADUADOS Y ESPACIOS VECTORIALES.


LAS MATROIDES Y SU RELACIóN CON MóDULOS LIBRES GRADUADOS Y ESPACIOS VECTORIALES.

Meré Hidalgo Pablo, Universidad de Guanajuato. Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Una matroide es una estructura de combinatoria la cual generaliza nociones de independencia lineal en espacios vectoriales así como de teoría de gráficas. Las matroides fueron introducidas por Hassler Whitney en 1935 y han tenido gran desarrollo durante el siglo pasado. Actualmente la teoría de matroides destaca por sus aplicaciones a geometría, topología, optimización, teoría de redes y teoría de códigos.  El proyecto esta motivado por las aplicaciones de matroides y álgebra conmutativa a teoría de códigos. Sin embargo en el proyecto se pretende estudiar las relaciones de la combinatoria con el álgebra, mediante el ideal de Stanley-Reiser asociado a una matroide y la resolución libre del mismo. En la resolución libre graduada aparecen los rangos de módulos libres los cuales se conoces como números de Betti, en el caso graduado se pueden obtener los números de Betti graduados. El principal objetivo del proyecto consiste en calcular los números de Betti y con ello obtener información para el polinomio de Tutte, polinomio de Hilbert y propiedades del matroide.   



METODOLOGÍA

El proyecto se constituyó por las siguientes actividades:     1) Leer y comprender la tesis Aplicaciones de la Teoría de Códigos a los números de Betti de una matroide de, la ahora maestra en matemáticas, Aracely Isis Gómez bajo asesoría del Dr Hernán de Alba Casillas.     2) Asistir a seminarios y presentaciones de tesis de alumnos de la Universidad Autónoma de Zacatecas, Unidad de Matemáticas      3) Hacer lecturas complementarias en Matroid Theory de James Oxley y Combinatorial Commutative Algebra de Miller y Strumfels entre otros.      4) Sesiones de discusión y trabajo en conjunto entre los estudiantes: Karen Toxqui Toxqui, Israel Bonal Rodriguez, Ernesto Reyes Ramirez y yo Pablo Meré, junto con el Dr Hernán de Alba. En dichas sesiones se trabajaron temas de álgebra conmutativa, teoría de graduaciones y de ideales monomiales, así como Matroides.      5) Utilizar el software Macaulay 2 para calcular números de Betti, resoluciones libres minerales graduadas y propiedades de las matroides estudiadas durante el proyecto. 


CONCLUSIONES

Se estudiaron las propiedades de matroides con sus distintas deficiones y ejemplos que ilustran la utilidad en temas de gráficas, álgebra conmutativa, algebra lineal e incluso geometrías finitas. Se demostró la relación de los grupos de homología reducida del ideal de Stanley-Reisner de un complejo simplicidad de clanes, con características de conexidad del 1-esqueleto del complejo.  Mediante resultados y técnicas de geometría algebraica combinatoria, se calcularon los números de Betti del ideal de Stanley-Reisner asociado a distintos matroides: matroides uniformes, duales de geometrías proyectivas finitas y geometrías afines finitas, así como truncamiento de estas. Se caracterizaron las familias de matroides perfectos: uiformes, geometrías proyectivas finitas y geometrías afines finitas, mediante sus alpha-sucesiones. Recíprocamente se caracterizaron sus duales mediante las d-sucesiones y se mostró la conexión con la resolución libe mínima graduada y lo números de Betti.  Se dieron explícitamente todos los planos finitos afines que al considerarlos como matroides y hacer un truncamiento, preservan una estructura de geometría  productiva o afín.
Meza Avilés Miriam Alondra, Universidad Autónoma de Tamaulipas
Asesor: M.C. Moisés Ricardo Miguel Aguilar, Universidad Autónoma de Tamaulipas

ANáLISIS DE LOS PROTOTIPOS DE CUERPOS GEOMéTRICOS QUE SE UTILIZAN DENTRO DE DISCURSO MATEMáTICO ESCOLAR (DME) DE NIVEL BáSICO SECUNDARIA


ANáLISIS DE LOS PROTOTIPOS DE CUERPOS GEOMéTRICOS QUE SE UTILIZAN DENTRO DE DISCURSO MATEMáTICO ESCOLAR (DME) DE NIVEL BáSICO SECUNDARIA

Meza Avilés Miriam Alondra, Universidad Autónoma de Tamaulipas. Asesor: M.C. Moisés Ricardo Miguel Aguilar, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Las investigaciones en el aprendizaje de la geometría han reportado diversas dificultades que presentan los estudiantes. En geometría plana se ha reportado por Scaglia & Moreina (2005) las dificultades a consecuencia de reproducir prototipos geométricos en el discurso matemático escolar.  Por lo que nos preguntamos cuales son las dificultades generadas por los prototipos en la enseñanza de los cuerpos geométricos en nivel secundaria, visto desde el enfoque de la teoría socioepistemológica de la matemática educativa.  Tovar & Mayorga (2015) menciona que la Geometría permite a los estudiantes visualizar, modelizar e interpretar el espacio físico en donde se desenvuelve lo que lleva al estudio de cuáles son las representaciones de cuerpos geométricos que se presentan en los libros de texto de secundaria validados por la SEP. Los problemas con la geometría están racionados con nuestra percepción visual y son debidos al alto nivel de rigidez y abstracción de los conceptos que se engloban (Laliena, 2013), es por eso por lo que en el discurso matemático escolar se debe diversificar la manera de representar los cuerpos geométricos de tal manera que los alumnos pueda abstraes con mayor facilidad el contenido.



METODOLOGÍA

Para el desarrollo de esta investigación se realizó un análisis de las representaciones gráfica de los cuerpos geométricos tanto como en el libro de geometría de Baldor como todos los libros de texto de nivel básico secundaria avalados por la SEP, con el fin conocer que tratamiento se le da al conocimiento en el libro mas utilizado por los profesores matemáticas y darnos cuenda de que los libros de la actualidad siguen replicando prototipos en la enseñanza de cuerpos geométricos. Para el análisis del discurso matemático escolar (dME) se ha considerado en una primera instancia el libro de Geometría y trigonometría Baldor (2005), dado que aún es un libro consultado por los maestros de matemáticas. Este libro cuenta con conceptos, teoremas, formulas, representaciones gráficas y ejercicios en todos los temas. Se tomaron tres capítulos del libro para el análisis, los cuales son Capitulo XIX prismas y pirámides, seguido del Capítulo XX volúmenes de poliedros y por último el Capítulo XXI cuerpos redondos.  Discurso Matemático Escolar actual (Soto, 2010)  Carácter utilitario  La organización de la matemática escolar ha antepuesto la utilidad del conocimiento a cualquiera de sus restantes cualidades.  No muestra un carácter utilitario, debido a que solo expone las fórmulas y pide realizar ejercicios en los cuales necesita aplicar dichas fórmulas.   Trabajo en un solo contexto matemático.  Atomización los conceptos  No considera los aspectos sociales, contextuales y culturales que permiten la constitución del conocimiento.  No se considera el contexto en los que pueda tener una aplicación el conocimiento, para poder dar significado.  Carácter hegemónico  Supremacía de argumentaciones y significados frente a otros.  Conocimiento acabado y continuo La enseñanza de la matemática se reduce a la mecanización de procesos o memorización de los conceptos.  El libro tiene como prioridad presentar conceptos y teoremas además de un predominio de la memorización de conceptos y formulas para llegar a un resultado único.  Falta marcos de referencia para la resignificación  Se ha soslayado el hecho de que la matemática responde a otras prácticas de referencia, donde se encuentran las bases de significados naturales.  Si tiene falta de referencia de conceptos ya que no muestra para que es útil este conocimiento  El tratamiento que se le da al conocimiento en el libro de Baldor es totalmente intramatemático, cada capítulo lo inicia con una serie de definiciones relacionado con el tema, además de caracterizar los elementos de dicho tema por ejemplo el prisma y sus aristas. Una vez dedo estas definiciones y elementos del tema pasa a los teoremas que consisten en fórmalas para calcular áreas y volúmenes y por último pasar a los ejercicios y no se muestra una aplicación del conocimiento. Extendemos la investigación con un análisis mixto del discurso matemático escolar en los libros de texto de los tres grados de secundaria respecto a los principales cuerpos geométricos y los posibles prototipos de estos.  Realizando una matriz de análisis, para el reconocimiento de cuerpos geométricos prototípicos en los libros de texto autorizados por la SEP. 


CONCLUSIONES

Se muestra análisis de datos obtenidos a partir de la matriz de cuerpos geométricos prototípicos encontrados en los libros de texto de nivel básico secundaria en contraste con los planes y programas de estudio que marca la SEP. Durante el análisis se encontró que los libros de texto de secundaria siguen replicando y una serie de prototipos, como por ejemplo los prismas rectos verticales se presentan en un 86%, horizontales tan solo un 20% y un 82% de prismas la altura es mayor a la base. Lo cual muestra que los libros de texto de secundaria no diversifican las representaciones de los cuerpos geométricos.
Mociño Sánchez Isis Ariadna, Instituto Politécnico Nacional
Asesor: M.C. Jorge Otero González, Benemérita Universidad Autónoma de Puebla

ESTRATEGIA DIDáCTICA PARA LA MEJORA DEL DESEMPEñO EN LOS TEMAS: EXPONENTES, RADICALES, PRODUCTOS NOTABLES Y FACTORIZACIóN


ESTRATEGIA DIDáCTICA PARA LA MEJORA DEL DESEMPEñO EN LOS TEMAS: EXPONENTES, RADICALES, PRODUCTOS NOTABLES Y FACTORIZACIóN

Mociño Sánchez Isis Ariadna, Instituto Politécnico Nacional. Asesor: M.C. Jorge Otero González, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Académicamente en la mayoría de los estudiantes de nivel medio superior, presentan dificultades en el área de matemáticas, mismas que conllevan en muchas ocasiones a la deserción escolar. El principal problema radica desde la enseñanza del álgebra, puesto que es lo primero que se imparte al cursar el nivel medio superior, y al no quedar comprendida desde un inicio provoca que se presenten aún mayores deficiencias en las siguientes unidades de aprendizaje impartidas del área de matemáticas. El álgebra por sí sola ya presenta un cierto grado de dificultad, y éste aumenta o disminuye de acuerdo con el método de enseñanza y el refuerzo de éste, es decir, la práctica. Derivado a esto se optó por diseñar una estrategia didáctica para el reforzamiento de los conocimientos de álgebra de estudiantes que previamente han cursado dicha unidad de aprendizaje y presentan deficiencias alarmantes.



METODOLOGÍA

Se aplicó una prueba diagnóstico a una muestra de 19 alumnos de la preparatoria Emiliano Zapata extensión San Martín y el Centro de Estudios Científicos y Tecnológicos No. 16 Hidalgo. Dicha prueba constituida por distintos temas de álgebra y cada tema por 3 niveles de dificultad. El propósito de la aplicación de esta prueba fue poder identificar específicamente en qué temas y nivel de dificultad se comete un mayor número de incidencias. A partir de los resultados obtenidos en la prueba diagnóstico, se inició un análisis de cómo es que cada estudiante llegó a su respuesta. Con base a ello, se determinaron los temas con mayores deficiencias y cuáles eran los elementos que aumentaban su dificultad. Posteriormente se comenzó con el desarrollo de la estrategia didáctica enfocándonos en cuatro temas: • Exponentes • Radicales • Productos notables • Factorización Cada estrategia consta de actividades previas que fomentan el desarrollo del razonamiento proporcionando información del nivel inicial del estudiante en el dominio del tema. Continúa con la redacción de la teoría fundamental para la mayor comprensión posible. Y concluye con actividades que nuevamente fomentan un desarrollo de razonamiento en lugar de la mecanización del desarrollo de expresiones que cada tema conlleva. Se aplicaron las estrategias didácticas en un periodo de cuatro días, asignando un tema con un lapso de dos horas por día; además de asignar actividades para practicar en casa. En un quinto día se aplicó una segunda y última prueba para medir la efectividad de cada estrategia. Al aplicar la prueba final se notó mejoría de los alumnos de una forma no uniforme, obteniendo mayor dominio en distintos temas, sin presentar un patrón.


CONCLUSIONES

A partir de la estancia se logró diseñar una estrategia la cual tras ser puesta a prueba mostró sus cualidades a favor y todo lo que conlleva al aplicarla en estudiantes.  Para obtener mejores resultados se debe aplicar la estrategia a una mayor cantidad de alumnos, los cuales deben presentar compromiso e interés. Y esto debe ser manejado en un mayor lapso. Concluyendo que el hecho de presentar una estrategia muy bien diseñada por sí sola no asegura un buen resultado por parte de los estudiantes, los buenos resultados exigen práctica y tiempo.
Mondragón Enríquez Leonel Martín, Instituto Tecnológico de Tláhuac
Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional

CONTROL Y DISEñO EN 3D DE VEHíCULO AéREO NO TRIPULADO


CONTROL Y DISEñO EN 3D DE VEHíCULO AéREO NO TRIPULADO

Carrillo Hernández Karen Guadalupe, Universidad Veracruzana. Mondragón Enríquez Leonel Martín, Instituto Tecnológico de Tláhuac. Velázquez Cabrera Jaime Mauricio, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La tecnología avanza a pasos agigantados. Los medios de transporte, sean para trasladar personas u objetos, también lo hace con ella. Uno de ellos son los vehículos aéreos no tripulados (VANT).  Existen VANT de usos tanto civiles como comerciales, pero sus primeros usos fueron en aplicaciones militares, en este caso llamados Vehículos Aéreos de Combate No Tripulados. Con la progresiva popularización del uso civil de los drones sus aplicaciones varían, ampliándose el número de consumidores más allá del terreno militar. Este crecimiento tan acusado ha llevado a que surjan cada vez más empresas para beneficiarse de este nicho de mercado. Por lo que estos Vehículos son utilizados en misiones especificas adaptadas a las necesidades de la industria. Con el propósito de cubrir el requerimiento especifico en la misión de un VANT, se parte de un problema específico y se propone una solución. La cual conlleva al diseño preliminar de la propuesta, modelado matemático, simulación del modelo y validación de resultados. Esta simulación nos permite saber el desempeño que tendrá la solución propuesta en el problema especificado permitiendo variar parámetros sin poner en riesgo la integridad del sistema y manteniendo los costos al mínimo posible. Finalmente, ésta será comparada con el modelo físico, permitiendo conocer las posibles variaciones para su futura optimización.



METODOLOGÍA

Planteamiento del problema y objetivo Modelado y control de Motores Brushless utilizados en un Vehículo Aéreo No Tripulado. Objetivo: Diseñar un sistema de control para un Motor Brushless el cual irá montado en un Dron Cuadrirotor. Modelado matemático Partiendo de las ecuaciones que rigen el comportamiento del problema propuesto, se obtuvo el modelo matemático para representar el motor de corriente continua. Adaptación del modelo matemático a un programa de modelado en computadora A partir de distintos métodos matemáticos y teoría de control. Utilizando el Software Simulink de Matlab se obtiene un modelo que permite representar el modelo matemático en la computadora; representando el modelo de motor en su parte eléctrica y mecánica. Variación de parámetros a partir de hojas de especificación de componentes seleccionados Una vez seleccionados los componentes necesarios para la creación del modelo, se investiga las especificaciones técnicas de los mismos para permitir variar los parámetros   Reducción de complejidad en el sistema Debido al grado de complejidad en las ecuaciones utilizadas para el modelado matemático, es deseable reducir este sistema a los componentes más elementales posibles. Lo cual fue posible aplicando diversas metodologías de diseño. Detección de porcentaje de error y propuesta de control para reducción del mismo. Una vez realizando una primera simulación se obtuvo un porcentaje de error comparando la salida obtenida con los datos de entrada. Con lo cual se propuso un controlador que permite reducir el error al mínimo posible para desarrollar un sistema fiable. Desarrollo de sistema embebido a partir de elementos básicos. Una vez obtenido un modelo con un control que permita el mínimo error. Se debe desarrollar el modelo en componentes básicos que nos permitirá la construcción física del mismo y validación de los resultados de simulación. Creación de un modelo en 3D con ayuda de la herramienta de CAD Solidworks Empleando la herramienta de CAD Solidworks se realizan los trazos por separado de brazos, tren de aterrizaje y del plato superior e inferior para luego poder realizar el ensamblaje del Dron. En un archivo diferente realizamos el ensamblaje del motor y de nuestra la hélice, para luego proceder a colocar este ensamblaje en cada uno de los brazos del Dron. Exportación del modelo CAD a un entorno de realidad virtual Una vez ensamblado el Dron procedemos a guardar una copia tipo .wrl, lo que nos permite tener el modelo del Dron en una versión VRML 1 aunque debido a fines que ser verán más adelante haciendo uso del software AC3D exportamos nuestro archivo a una versión de VRML 2. Modificación de los centros de rotación de las hélices Para poder darle movimiento de manera virtual a nuestro Dron debemos primero modificar los centros de rotación de este por lo que empleando la herramienta vrbuild2 que nos facilita MATLAB modificamos lo necesario en cada hélice. Debido a que no es exacto el movimiento realizado, por medio de cálculos utilizando nuestro modelo del Dron en SolidWorks tomamos medidas del centro de nuestras hélices. Corrección de los centros de rotación en el código programable empleando WinEdt 10 Con los cálculos obtenidos con anterioridad modificamos el código en cada sección de las hélices para de esta manera tener los adecuados para después agregar la rotación en cada una de ellas. Sistema de adquisición de datos creado en Simulink aplicando un filtro para reducción de ruido Empleando la librería de Simulink 3D Animation se requiere agregar nuestra señal obtenida del control del sistema del motor, un filtro de reducción de ruido considerando que cualquier sistema se ve afectado por este mismo y una señal que le permite moverse de manera mas cercana a la realidad. Conexión del sistema de adquisición de datos a un modelo de simulación en 3D cargando el modelo de realidad virtual Simulación final en realidad virtual obteniendo valores a partir del trazado físico de la trayectoria del dron por medio del sistema de adquisición de datos.


CONCLUSIONES

Hasta el momento podemos concluir que las herramientas con las que actualmente contamos nos permiten trabajar de manera efectiva y eficaz, creando espacios y objetos y sistemas casi idénticos a los de la realidad para poder probarlos con lo que se reducen costos y se evita poner en riesgo nuestro sistema.  
Montero Palomino Kirsten Emily, Universidad Veracruzana
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

ANáLISIS TEMPORAL DE VIENTO EN PUERTO VALLARTA


ANáLISIS TEMPORAL DE VIENTO EN PUERTO VALLARTA

Montero Palomino Kirsten Emily, Universidad Veracruzana. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Es fundamental conocer los patrones de viento debido a la utilidad en distintas áreas: en el estudio de calidad del aire, en el campo de las energías renovables y para comprender la circulación local del lugar. En la región de Bahía de banderas se encuentra ubicado la red de estaciones de monitoreo atmosférico, en donde se realizó una exploración para determinar la estación con menor discontinuidad en la serie de tiempo y de esta manera cubrir un ciclo anual o descartar la persistencia del tiempo atmosférico año a año. Se eligió la estación de Puerto Vallarta ubicada en el Centro Universitario de la costa (CUC), para el periodo 2011-2015.



METODOLOGÍA

Los datos que se obtuvieron de la estación meteorológica situado en el CUC se le realizaron una serie de criterios para el control de calidad en los valores de temperatura, dirección y velocidad de viento y precipitación. Cada variable tiene un rango de validez diferente: 10 < Temperatura ( ºC ) < 40 0 < Dir. de viento ( º ) < 360 0 < Vel. De viento ( m s-1 )  < 30 0 < Precipitación ( mm ) < 15 Después con la variable de velocidad de viento se realizaba una búsqueda de los valores que no variaban ± 0.1 𝑚 𝑠-1 en 3 hrs para descartar los siguientes datos repetidos. Por último, para todas las variables en estudio tenían que estar en el intervalo de la media ± 3 desviaciones estándar. En la selección del periodo de estudio cada variable debe tener un mínimo de 75 % de datos validos por año. Para determinar el periodo de lluvias y el periodo seco se hizo uso de un climograma decadal de la estación, donde muestra la temperatura promedio y la precipitación media acumulada durante el tiempo de análisis. Donde la línea de la temperatura intercepte la barra de precipitación es considerado temporada de lluvias, y las barras de precipitación que queden por debajo de la temperatura se considera periodo seco. Se calcularon las componentes del viento ‘u’ y ‘v’ para la realizar el promedio de manera estacional y anual. En el promedio estacional se tomaron 15 días del periodo seco (16 - 31 de mayo) y del periodo de lluvias (1 - 15 de agosto) de un año neutro, 2013, y se promedió cada 4 hrs para evaluar su comportamiento diario comparado con la temperatura. En el promedio anual se realizaron promedios quincenales en los 5 años, para identificar los cambios de intensidad en la velocidad de viento y de dirección antes y durante el periodo de lluvias.


CONCLUSIONES

En el análisis de los quince días para el periodo de lluvias y seco se identificó el cambio de la dirección de viento (Suroeste a Noreste) acompañado con la marcha diurna de la temperatura, de esta manera se puede deducir la existencia de la circulación de brisa marina y terral en Puerto Vallarta. De manera estacional, el vector de viento muestra un cambio en la dirección de viento, de sur a suroeste, y mayor intensidad en los vientos a finales del periodo seco, disminuyendo la velocidad durante la temporada de lluvias.
Montes Retamoza Daniela, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Luc Julien Jerome Dendooven , Centro de Investigación y de Estudios Avanzados (IPN)

ESTUDIO DE ENDóFITOS EN RAíCES DE ZEA MAYS CULTIVADO EN INVERNADERO.


ESTUDIO DE ENDóFITOS EN RAíCES DE ZEA MAYS CULTIVADO EN INVERNADERO.

Montes Retamoza Daniela, Consejo Sudcaliforniano de Ciencia y Tecnología. Morán Gómez Alejandra Karelia, Instituto Politécnico Nacional. Asesor: Dr. Luc Julien Jerome Dendooven , Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La producción agropecuaria tiene profundos efectos en el medio ambiente en conjunto. La fertilización del suelo es una de muchas variables agroecológicas que influyen sobre la distribución y la abundancia de las poblaciones de insectos. Al hacer uso excesivo de los fertilizantes, uno de sus efectos es el agrietamiento del suelo, lo que favorece condiciones de anoxia. A nivel mundial, está emergiendo un consenso en cuanto a la necesidad de nuevas estrategias de desarrollo agrícola para asegurar una producción estable de alimentos y que sea acorde con la calidad ambiental. El desarrollo y uso de los biofertilizantes se contempla como una importante alternativa para la sustitución parcial o total de los fertilizantes minerales. Se planea hacer uso de microorganismos que  puedan resultar útiles para este fin, en este caso, los endófitos. Éstos mantienen relaciones simbióticas con las plantas y en muchos de los casos ya se encuentran en sus raíces, por lo que, durante la estancia Verano de Investigación nos dedicamos a la detección de endófitos en la raíz del maíz por medio de técnicas de biología molecular con el fin de poder estudiarlos.



METODOLOGÍA

La metodología empleada consistió en el lavado de las raíces de maíz, en donde se prepararon aproximadamente 0.5 g de éstas para su posterior lisis mecánica con nitrógeno líquido . Las muestras maceradas fueron tratadas con tres técnicas de extracción del DNA genómico. Se corroboró la extracción del DNA mediante una electroforesis. Posteriormente, se llevó a cabo la amplificación de las regiones hipervariables V3 y V4 del 16S rRNA bacteriano utilizando mix de reacción y primers específicos de la raíz y así, poducir la separación de los productos por PCR. Esto con el objetivo de detectar la presencia de endófitos. Finalmente, por medio de electroforesis y haciendo uso de  gel de agarosa al 1% se obtuvieron las diferentes bandas a analizar. Lo anterior se realizó en cada uno de las muestras de raíz proporcionada por el investigador. 


CONCLUSIONES

Comparando los resultados de las tres diferentes técnicas de extracción de DNA, se observó que no hay diferencia significativa entre ellos. Todos los productos obtenidos tenían una concentración muy similar de DNA metagenómico. En lo que respecta a los productos de PCR, del total de muestras expuestas, tuvimos resultados favorables en tres de ellas, donde observamos una amplificación correcta, encontrado las regiones buscadas  (V3-V4 del gen 16S rRNA) en las muestras de raíz analizadas. Sin embargo, aún se debe continuar intentando tener éxito en el mayor número posible de muestras.  Para terminar, cabe mencionar que, gracias al Verano de  Investigación Científica he  reforzado mi formación académica al permitirme conocer diversas técnicas de biología molecular y llevarlas a la práctica en un ambiente profesional, ya que no es lo mismo verlo expuesto en clase, que hacerlo tu mismo y con asesores profesionales que te orientan y te ayudan a quitarte el miedo de fracasar, a seguir intentanto hasta que el resultado sea exitoso. Asimismo, el conocimiento de poder realizar un analisis de resultados a través de los geles obtenidos y así, llegar a una cocnlusión para la toma de decisiones. Doy gracias por esta gran oportunidad, porque me brinda experiencia y una muestra de lo que es una investigación en forma y real.   
Montiel Ramirez Brenda Karytza, Universidad de Sonora
Asesor: Dr. Octavio Jose Obregon Diaz, Universidad de Guanajuato

FíSICA DE PLASMAS. ECUACIóN KP


FíSICA DE PLASMAS. ECUACIóN KP

Montiel Ramirez Brenda Karytza, Universidad de Sonora. Asesor: Dr. Octavio Jose Obregon Diaz, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Existe un cuarto estado de la materia muy poco conocido: el plasma, del cual está hecho la mayor parte de la materia visible en el universo, siendo el estado de agregación más abundante. Posee propiedades que los sólidos, líquidos y gaseosos no lo presentan, y por ello se convierte en un objeto de estudio de bastante relevancia. En términos más formales un plasma es un gas ionizado. El estudiarlo nos permite conocer no solo interacciones únicas, si no que se estaría examinando a la vez el propio universo a través de sus estrellas, nebulosas y cometas, entre otros.  La Ecuación Kadomstev - Petviashvili, tambien conocida como ecuación KP, es una ecuación diferencial no lineal. Siendo un modelo universal, la cual describe una gran variedad de fenómenos; explica el movimiento de ondas con la principal caracterísitica de ser no lineales. Justificación: El uso de esta herramienta para trabajar en física de plasmas se realizó con el fin de tener un modelo para trabajar ondas acústicas en plasmas polvorientos. Objetivos: Como principal objetivo es el estudio de plasmas polvorientos haciendo transitar una onda acústica a traves de dicho plasma no magnetizado, sin colisiones que consta de electrones, dos iones de temperatura y granos de polvo con carga negativa alta.



METODOLOGÍA

El propagar una onda acústica a través del plasma, se realizó con el fin de obtener información acerca de las propiedades y estructuras mecánicas de dicho plasma. Al hacer incapié en "polvoriento" se hace referencia a que no presenta interacciones, ya que se desprecian las interacciones dentro del mismo plasma así como en la onda, siendo la única relevante onda-plasma. La onda acústica al transitar a través del plasma se convierte en una onda no dispersiva, fenónemo que se observa en repetidas ocasiones como lo es en un vórtice o en aros de humo. La ecuación KP se presenta a continuacion: (ut + ε2 uxxx + u ux )x ± uyy = 0 Donde podemos observar un comportamiento no lineal, correspondiente en este caso a una onda. Detrás de la teoría matemática, vemos involucrados otras tantas herramientas como lo fue la distribución Maxwell - Boltzmann y la Teoría de perturbaciones. Se procedió a resolver la ecuación para diversos casos en los que variaban los parámetros involucrados y con ello dar diversos rumbos a la solución de la ecuación.


CONCLUSIONES

Existieron muchos casos de solución para la ecuación Kadomstev - Petviashvili, de los cuales al ser abundantes solo se tomaron ciertos de ellos para los cuales se resolvió. Se pudo comprender el fenómeno estudiado y con ello obtener una mejor idea acerca del entendimiento de diversos fenómenos, así como la motivación en seguir por el camino de la investigación para poder aplicar lo aprendido dentro de la estancia, abarcando temas dentro de la astrofísica como lo es la física solar o el estudio de la magnetósfera terrestre.
Montoya Ochoa Montoya Ochoa Viridiana, Universidad de Sonora
Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional

MONITOREO DEL VOLCáN POPOCATéPETL POR MEDIO DE IMáGENES SATELITALES EN EL PERíODO DE JUNIO-DICIEMBRE 2018


MONITOREO DEL VOLCáN POPOCATéPETL POR MEDIO DE IMáGENES SATELITALES EN EL PERíODO DE JUNIO-DICIEMBRE 2018

Castillo Ramirez Oliver Isaac, Instituto Politécnico Nacional. Guzmán Bahena Gustavo, Universidad Autónoma de Guerrero. Montoya Ochoa Montoya Ochoa Viridiana, Universidad de Sonora. Asesor: Dr. José Carlos Jiménez Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El volcán Popocatépetl es uno de los volcanes más representativos de México, actualmente se encuentra en un periodo eruptivo y por la cercanía que este tiene con las ciudades de México, Puebla y Morelos es considerado como uno de los volcanes más peligrosos para la comunidad civil y para el espacio aéreo. Esto despierta el interés para la investigación de su comportamiento con el propósito de buscar mitigar riesgos en la población. El volcán Popocatépetl es clasificado como el estratovolcán más activo de México, con una estimación de más de medio millón de años de actividad con una actividad eruptiva explosiva bimodal compuesta por erupciones del tipo  pliniano y vulcaniano. En la actualidad, después de un periodo pasivo de 70 años el volcán Popocaépetl, tuvo un incremento en su actividad a partir de finales de1993. Se presentaron eventos sísmicos de largo periodo y aumento en la actividad fumarólica. También se reportaron cambios en la temperatura y pH del lago en el cráter, y un incremento en la emisión de gases (Martin Del Pozzo, 2012). De esa fecha al reciente, se han reportado incrementos y descensos en las explosiones de ceniza, incluso periodos anuales en los que casi no se presentan erupciones explosivas. Se pudo observar nuevamente una ciclicidad en la actividad volcánica representada por el mes de enero con un reporte de 21 días con actividad explosiva seguido de un decremente en los meses posteriores pero en el mes de Septiembre se puede observar  un fuerte aumento alcanzando los 22 días reportados con ceniza. Es por esta razón que este trabajo pretende llevar a cabo un estudio del comportamiento de la actividad del volcán antes y durante este periodo de incremento de actividad. Se realizará un monitoreo de la actividad de las emisiones de SO2 durante los meses de julio a diciembre de 2018, con el propósito de interpretar el comportamiento interno del sistema del volcán. Para esto se utilizará una técnica basada en el procesamiento de imágenes satelitales en el rango del infrarrojo térmico desarrollada por Realmuto y Berk (2016).



METODOLOGÍA

El estudio se llevó a cabo durante una estancia de verano bajo el Programa Delfín para incentivar la formación de investigadores. Para lograr el objetivo se llevaron a cabo varios pasos que se describirán a continuación.  Recopilación de imágenes satelitales del periodo de tiempo de julio a diciembre del 2018. Para este punto se descargaron imágenes satelitales del sensor MODIS del sitio web LAADS DAAC-NASA correspondientes al periodo de estudio. Técnica utilizada para el procesamiento de las imágenes MODIS Para llevara a cabo el procesamiento de las imágenes MODIS se utilizó el programa Plume Tracker desarrollado por Realmuto y Berk (2016). Para poder utilizar el Plume Tracker se deben preparar varios archivos obtenidos a partir de la imagen MODIS original. Para obtener estos archivos se utilizó el software ENVI® para la manipulación de las imágenes satelitales así como el programa Excel de Office® para la manipulación de los datos y el cálculo de los flujos de SO2. Para el procesamiento de las imágenes MODIS para la detección y cuantificación de SO2 en la atmosfera, se debe ser muy cuidadoso, debido a que un error en el desarrollo puede ocasionar un resultado erróneo. Se ocuparon datos de la VAAC de Washington para saber el número de erupciones que tuvo el volcán a lo largo del periodo analizado (junio - diciembre 2018). El software Plume Traker utiliza un archivo de datos de la estructura vertical de la atmósfera, para lo cual se generaron los datos para este archivo utilizando la información publicada por la NOAA. Por otro lado, de estos datos también se obtiene la dirección de los vientos en los niveles del cráter del volcán y superiores que son utilizados para identificar la dirección y la velocidad con que se desplaza la pluma volcánica. El resultado del procesamiento de la imagen MODIS con el Plume Tracker es un mapa de dispersión de SO2.  Con esta información los archivos generados por plume tracker deben ser procesados nuevamente por el software ENVI®. Como resultado de este procedimiento se obtiene un archivo en formato .txt que contendrá la información de la dispersión del gas que necesitamos para calcular el flujo de SO2 que hubo en ese día. Para calcular el flujo de SO2 se aplica fórmula propuesta por Jimenez et. al. (2011) para la estimación del flujo de SO2 a partir del procesamiento de la imagen MODIS.


CONCLUSIONES

El presente trabajo se enfocó en el análisis del monitoreo de la actividad de la desgasificación del volcán Popocatépetl durante los meses de junio a diciembre de 2018 con el propósito de identificar el tipo de comportamiento interno del volcán que dio origen a este fuerte incremento de la actividad explosiva. En el período analizado de junio a diciembre se registraron mayor cantidad de erupciones en el mes de septiembre lo cual se puede relacionar con el periodo de máximos niveles de flujo de SO2 reportando durante el mes de agosto registradas en la base de datos creada a partir del procesamiento de imágenes satelitales del sensor MODIS. El volcán muestra un comportamiento cíclico donde se tienen periodos de acumulación de energía, por tanto, pocas erupciones. Lo observado en el monitoreo por medio de imágenes satelitales mostró que justo antes del inicio de un cambio fuerte en el incremento de la actividad explosiva se presenta un incremento marcado en la concentración del flujo de SO2. Esto podría estar indicando la aportación de material nuevo en la zona interna del volcán que provoca el incremento en la emisión de gases volcánicos y por el aumento en el volumen de magma que ocasiona el crecimiento del domo ocasiona que se selle el sistema representado por un decremento muy marcado en el flujo de SO2. Este proceso provoca un aumento de la presión interna de sistema ocasionando que finalmente el tapón del domo cesa y se fragmente permitiendo liberar la presión interna en una serie de erupciones explosiones con la presencia de ceniza. El estudio muestra una correspondencia desfasada de los niveles de flujo de SO2 con las erupciones registradas por la VAAC de Washington.
Montoya Pereyra Alma Abril, Universidad Autónoma de Chiapas
Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla

SOLUCIóN DE ECUACIONES DIFERENCIALES RELACIONADAS A MODELOS FISIOLóGICOS A TRAVéS DE MéTODOS COMPUTACIONALES.


SOLUCIóN DE ECUACIONES DIFERENCIALES RELACIONADAS A MODELOS FISIOLóGICOS A TRAVéS DE MéTODOS COMPUTACIONALES.

Montoya Pereyra Alma Abril, Universidad Autónoma de Chiapas. Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Existen muchos tipos de ecuaciones diferenciales, existen las ecuaciones diferenciales parciales que a la vez se dividen en elípticas, parabólicas e hiperbólicas. Este tipo de ecuaciones diferenciales son utilizadas en muchos campos, como son la propagación del sonido o del calor, la electrostática, la electrodinámica, la dinámica de fluidos, la elasticidad, la mecánica cuántica y muchos otros.  En nuestro caso nos concentramos en la parte fisiológica del ser humano, sabemos que no se pueden hacer experimentos fácilmente al tratar de encontrar nuevos métodos como por ejemplo, para el tratamiento de tumores, como lo es la ablación. Lo que se busca es poder simular los resultados a procedimientos como éste y poder llegar a conclusiones que nos puedan ayudar en la práctica.



METODOLOGÍA

Se hizo una pequeña investigación de ecuaciones diferenciales, empezamos a trabajarlas en Matlab y encontramos sus curvas solución. Posteriormente estudiamos ecuaciones diferenciales parciales, métodos para resolverlas y programamos en Matlab un código para cada tipo de estas. Estudiamos el modelo de Noble,  y programamos el modelo de Hodgkin y Huxley. Posteriormente de que trabajamos en Matlab empezamos a trabajar el software COMSOL Multiphysics en el cual modelamos algunas cosas como arritmias cardíacas, desfibrilación cardiaca, administración de fármacos en arterias, ablación auricular, ablación de tumores hepáticos, el funcionamiento del flujo sanguíneo aórtico, entre otros. Finalmente nos enfocamos en resolver ecuaciones diferenciales en COMSOL Multiphysics, llevado a cabo por el método de elemento finito y vimos las diferencias del método de diferencias finitas.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de ecuaciones diferenciales, aprendimos el funcionamiento y diferencias entre los métodos de diferencias finitas y elemento finito. Además aprendimos a usar COMSOL Multiphysics y aprendimos a programar en Matlab la solución de diferentes tipos de ecuaciones diferenciales. Discutimos las soluciones a nuestros modelos fisiológicos y tratamos de entender el por qué de los resultados.  
Morales Berumen Blanca Liliana, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

VARIABILIDAD CLIMáTICA EN CIUDAD ACUñA, COAHUILA.


VARIABILIDAD CLIMáTICA EN CIUDAD ACUñA, COAHUILA.

Morales Berumen Blanca Liliana, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Desde la antigüedad la humanidad ha tenido la necesidad de entender los fenómenos que lo rodean para aprovechar sus recursos, cuidar los ecosistemas y protegerse de los eventos extremos, como pasa con la atmósfera; para adentrarse un poco más a este tema, la meteorología es el estudio del estado instantáneo de la atmósfera y su evolución día a día, así como la climatología es el promedio de estos estudios, complementados con la medición de la variabilidad de sus elementos, en esta ocasión las variables que se analizaron fueron la temperatura y la precipitación en Ciudad Acuña, Coahuila. Asi como las anomalias de los indices del ENSO (ONI, MEI. PDO y NAO).



METODOLOGÍA

Primeramente se obtuvo el historial climatológico (en un periodo comprendido del 1950 a 2015)  de Ciudad Acuña de una base de datos correspondiente a una estación meteorológica en la Ciudad vecina de Del Rio, Texas. Despues se  obtuvieron promedios mensuales durante todo el periodo y también promedios anuales y decadales de las temperaturas, la precipitación, así como de cada uno de los índices para así determinar la correlación que existe entre las variables y cada índice y analizar que fenómeno influye de manera más notoria en la variabilidad climática de esta Región. Posteriormente se graficaron las anomalías de la temperatura y precipitación por década para observar su comportamiento y analizarlas por separado , después se graficaron en conjunto con los 4 índices para poder observar el comportamiento de cada uno de ellos y poder visualizar si existía al menos gráficamente una similitud entre ellos.


CONCLUSIONES

Al ver la tendencia de las temperaturas , se tiene una baja relevante en la década de los sesenta, y en esta misma es que se tiene mayor correlación con 3 de los 4 índices (ONI, PDO y NAO), sin embargo con la precipitación ocurre esto en la década del 2000, teniendo mayor correlación con ONI, MEI y PDO. En general los coeficientes de correlación por todo el periodo de estudio fue muy mínima, no se encontró una correlación significativa con ninguno de los índices, por ello no podemos realmente determinar certeramente la influencia de estos índices con la variabilidad climática en Ciudad Acuña.
Morales Esgua María Eugenia, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Miguel Angel Valera Pérez, Benemérita Universidad Autónoma de Puebla

PRODUCCIóN SUSTENTABLE Y CALIDAD DE SUELO.


PRODUCCIóN SUSTENTABLE Y CALIDAD DE SUELO.

Morales Esgua María Eugenia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Miguel Angel Valera Pérez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

A nivel mundial, se han perdido miles de hectáreas de suelo aprovechable para la agricultura, mientras que otro tanto ha cambiado de uso para producir alimentos con gran demanda como lo es el café. La producción mundial de café verde promedio en el periodo 2000-2012 fue de 7 millones 964 mil toneladas. De éste volumen, el 75 por ciento lo aportaron los diez principales países productores. Brasil ocupa el primer lugar al reportar el 30.5 por ciento de la producción total, seguido de VietNam, Indonesia y Colombia con un aporte de 12.4, 8.1 y 7.8 por ciento de la producción mundial, respectivamente. La India y México ocupan el quinto lugar al representar el 3.5 por ciento de la oferta mundial de café. La producción cafetalera posee un alto valor económico y social, además la actividad desempeña un papel ambiental importante, ya que su producción se da bajo sistemas que mantienen una cubierta vegetal casi permanente sobre el suelo, reduciendo así los problemas de erosión, sin embargo, los principales problemas ambientales en los sistemas de producción de café son la pérdida de hábitat y sus efectos sobre la biodiversidad, la degradación del suelo, los efectos sobre la calidad del agua y el uso excesivo de plaguicidas. Debido a lo anterior, uno de los retos de la agricultura moderna radica en satisfacer la demanda de un mercado creciente, al mismo tiempo que se aumenta la necesidad de introducir alternativas de producción que conduzcan a una mayor sostenibilidad económica y ambiental. El café es un cultivo estratégico en México; su producción emplea a más de 500,000 productores de 14 entidades federativas y 480 municipios; de las 730,011 hectáreas sembradas en 2016, 94.98% de la superficie se encuentra no mecanizada debido al intensivo uso de mano de obra, por lo que es necesario conocer las características de los sistemas de producción. En México existen cinco sistemas de producción de café de acuerdo con Fuentes y Nolasco , estos son: a) Sistema Rusticano o de Montaña (R), b) Policultivo Tradicional o Jardín de Café (PT), c) Policultivo Comercial (PC), d) Monocultivo Bajo Sombra o Sistema Especializado (SE), y e) Monocultivo de Sol o a Cielo Abierto (MCA).



METODOLOGÍA

Se seleccionaron dos plantaciones de café de diferentes regiones, un punto de localización geográfica fue en el municipio de Atoyac de Álvarez pertenece a la región de la Costa Grande del estado de Guerrero, situado en México. Está ubicado entre los paralelos 17° 04’ y 17° 34’ de latitud norte y los meridianos 100° 06’ y 100° 32’ de longitud oeste con altitudes que van desde 0 a 3,400 msnm, por otra parte, se seleccionó el municipio de Xochitlán de Vicente Suárez en el estado de Puebla. Dentro de los parámetros de importancia significativa en las dos zonas de estudio (el municipio de Atoyac de Álvarez perteneciente a la región de la Costa Grande del estado de Guerrero y el municipio de Xochitlán de Vicente Suárez en el estado de Puebla), uno de los más importantes a determinar es la materia orgánica del suelo, ya que es uno de los recursos naturales más importantes y es la base de la fertilidad del suelo; este término se refiere generalmente a la cantidad de carbono orgánico total, contenido en su mayoría en las sustancias húmicas del suelo; otros parámetro de importancia también lo son nitrógeno y pH. A partir de los datos recuperados de las dos zonas de estudio (el municipio de Atoyac de Álvarez perteneciente a la región de la Costa Grande del estado de Guerrero y el municipio de Xochitlán de Vicente Suárez en el estado de Puebla), se  realizó un análisis estadístico de las propiedades de ambas zonas para determinar cuál es mejor para el desarrollo del cafeto.


CONCLUSIONES

Se realizó a ANOVA en Minitab® para las propiedades físicas y químicas de los suelos de las dos zonas de estudio (el municipio de Atoyac de Álvarez perteneciente a la región de la Costa Grande del estado de Guerrero y el municipio de Xochitlán de Vicente Suárez en el estado de Puebla), que fueron pH en agua, porcentaje de materia orgánica (%MO), porcentaje de carbono orgánico (% CO), porcentaje de nitrógeno total (%  NT), porcentaje de arena, arcilla y limo, con lo cual se pudieron obtener datos de α, valor p e hipótesis, con lo que se pudo realizar una interpretación por parámetro. Con base en los resultados obtenidos del análisis estadístico se puede determinar que, de las dos zonas de estudio, la más viable, con mejores características físicas y químicas para el cultivo y desarrollo del cafetal es el de la zona de estudio del Estado de Puebla, ya que las condiciones climatológicas son óptimas para el desarrollo del cafeto, sobre todo por los factores como la temperatura, humedad, altitud, además de que el suelo (predominantemente arcilloso) permiten mejores posibilidades de desarrollo sin alterar el suelo para brindar las condiciones necesarias como lo es el caso de Guerrero. Dentro de los distintos tipos de sistemas de cultivo de café, el más viable por las condiciones dadas en el análisis de resultados es el Policultivo Comercial, ya que tiene un rango de pH necesario para el aprovechamiento de nutrientes en específico del cafeto, ya que el rango adecuado de pH se encuentra entre 5.0 y 5.5, comparado con el rusticano, cuyo rango de pH es considerablemente inferior, generando una posible toxicidad por aluminio. Los datos recuperados de las dos zonas de estudio, y el análisis estadístico permiten concluir que el municipio de Xochitlán de Vicente Suárez en el estado de Puebla es un sitio óptimo para el cafeto, y de acuerdo a los sistemas de cultivo, el recomendable conforme a la información recuperada es el Policultivo Comercial, mientras que los cultivos de cafeto del municipio de Atoyac de Álvarez perteneciente a la región de la Costa Grande del estado de Guerrero al no contar con las condiciones físicas y químicas óptimas, significa un mayor deterioro del suelo, al comprometer los nutrientes de este y en su caso, al necesitar el ingreso de fertilizantes.
Morales Hernández Elifas Constantino, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.


ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.

Colín Carreño Manuel Alejandro, Universidad Autónoma de Guerrero. Constantino Rios Brian Alexis, Universidad de Ciencias y Artes de Chiapas. Díaz Estrada Jesús Ulises, Universidad Autónoma de Guerrero. Martínez Díaz Ronaldo Daniel, Universidad de Ciencias y Artes de Chiapas. Morales Hernández Elifas Constantino, Universidad de Ciencias y Artes de Chiapas. Segura Hernandez Jesus Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es un componente esencial del ambiente puesto que se considera el factor principal que controla el estatus de salud tanto en humanos como en la biota en general (Kazi et al. 2009). El agua subterránea, después de los glaciares es la principal reserva de agua dulce para consumo humano, después representado aproximadamente el 30% del agua dulce del mundo. Sin embargo el crecimiento demográfico, que provoca el aumento de la marcha urbana, así como los cambios en la cobertura del uso de suelo, la sobreexplotación del recurso hídrico y la variabilidad climática, se han convertido en una fuerte amenaza para la recarga potencial de agua subterránea, lo que nos podría encaminar al agotamiento del agua subterránea. La cuenca del rio Sabinal en el estado de Chiapas es un caso particular para analizar la incidencia que tiene el desarrollo urbano de los municipios de Tuxtla Gutierrez y Berriozabal, así, como los cambios de cobertura vegetal; en la recarga potencial de agua subterránea.



METODOLOGÍA

Se realizó una revisión bibliográfica de diferentes estudios previos sobre la estimación de la recarga potencial de agua subterránea (estado del arte), se obtuvieron datos edafológicos y de uso y cobertura del suelo en archivos shp. Así como imágenes satelitales, modelos de elevación digital, y datos meteorológicos del área de estudio para tres años aleatorios (1990, 2000, 2010). Los archivos se obtuvieron de diferentes plataformas virtuales como INEGI, GEOWEB Chiapas, USGS, Alos Palsar, y del Servicio Meteorológico Nacional. Toda la información se analizó, y se homologó a un mismo sistema de referencia espacial (WGS 84 UTM Z 15). Los archivos shp. de edafología se editaron agregándoles más variables dentro de la tabla de atributos como son el grupo hidrológico, y capacidad de retención de agua. Para poderlos convertir a archivos ráster y estos convertirlos a un código ASCII. Del modelo de elevación digital de Alos Palsar se obtuvo un mapa de direcciones de flujo. De las variables meteorológicas se realizó una interpolación diaria para los tres años con ayuda de la técnica kriging, esto último con ayuda del lenguaje de programación Python, las interpolaciones se obtuvieron en formato Netcdf. Por último se espera estimar la recarga potencial de agua subterránea, con ayuda del modelo Soil Water Balance (SWB) del servicio geológico de los estados unidos, el cual realiza un balance hidrológico en formato ráster por lo que los archivos de entrada para poder trabajar con el modelo deben estar dados en formato Netcdf, y código ASCII. Todo esto para poder realizar una evaluación sobre cómo ha afectado el crecimiento urbano y los cambios de cobertura vegetal en la recarga potencial de agua subterránea.


CONCLUSIONES

Con ayuda de la teledetección y la técnica de fotointerpretación, se visualizó el crecimiento constante de la infraestructura urbana, en un periodo comprendido del año 1990 al 2010, lo cual incide en la recarga potencial de agua subterránea, debido al efecto impermeabilizante que propicia una menor infiltración, así mismo, el crecimiento poblacional ocasiona cambios en la cobertura vegetal y uso del suelo, lo que altera el ciclo hidrológico. Se espera estimar la recarga potencial de agua subterránea con ayuda del software antes mencionado y de todos los datos previamente recolectados y analizados.
Morales Jimenez Rafael, Universidad de Colima
Asesor: Dr. Sofía Ortega Castillo, Centro de Investigación en Matemáticas (CONACYT)

MEDIDA DE HAUSDORFF: CURVAS QUE LLENAN EL ESPACIO Y EL CONJUNTO DE BESICOVITCH


MEDIDA DE HAUSDORFF: CURVAS QUE LLENAN EL ESPACIO Y EL CONJUNTO DE BESICOVITCH

Alvarado Garduño Omar, Instituto Politécnico Nacional. Morales Jimenez Rafael, Universidad de Colima. Zárate Zavala Luis Uriel, Universidad de Guadalajara. Asesor: Dr. Sofía Ortega Castillo, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio de las matemáticas se inició con la geometría, y la geometría la entendemos como la ciencia que estudia los objetos geométricos; es decir, objetos que podemos medir.  Cuando uno piensa en medir lo más natural en el plano es tomar dos puntos y calcular la distancia entre estos puntos. Si estamos en una esfera tomamos la distancia mínima de los arcos que unen dichos puntos. Así, sabemos de forma intuitiva como medir o calcular distancias en ciertos conjuntos, aunque, lo último no siempre sea sencillo. Con el paso del tiempo, gracias a A. Cauchy (1789-1857) y B. Riemann (1826-1866) fuimos capaces de formalizar está idea de medir, lo cual nos ayudó a resolver el problema de calcular distancias sobre conjuntos más complicados que una esfera o un plano. Sin embargo, está integral tenía varios defectos; por ejemplo, ciertos subconjuntos de conjuntos con integral nula no son necesariamente integrables. Este y otros problemas se llegaron a resolver con la medida de Lebesgue.   Sin embargo, un estudio más profundo de las propiedades geométricas de ciertos conjuntos muchas veces requiere del análisis de su "masa" más allá de lo que se puede obtener en términos de la medida de Lebesgue. Es aquí donde la medida de Hausdorff con la noción de dimensión (que puede ser fraccionada) y su medida asociada juegan un rol crucial. Recientemente la medida de Hausdorff ha tenido un gran incremento en la importancia dentro de las ciencias. Mandelbrot fue de los primeros en deducir su uso en modelos de distintas áreas de estudio; algunas de sus aplicaciones son, por ejemplo, el movimiento Browniano de partículas, turbulencia en fluidos, crecimiento de las plantas, la distribución de las galaxias en el universo, e incluso la fluctuación del precio en el mercado de valores. En 1890 Giuseppe Peano construyó una curva continua que llena completamente un cuadrado en el plano como contraejemplo de que una curva continua no puede ser encerrada en una región arbitrariamente pequeña. Este fue un ejemplo temprano de lo que hpy se conoce como fractal.  En 1917 Besicovitch mientras trabajaba en problemas de integración de Riemann se encontro con la pregunta: ¿existe algún conjunto compacto que contenga un segmento de línea en cada de dirección tal que su medida de Lebesgue sea cero? Después, en 1919 logró construir dicho conjunto el cual conocemos como "el conjunto de Besicovitch" Existe una condición de regularidad que satisfacen los subconjuntos medibles (con medida finita) en Rd cuando d>2.  Sin embargo, esta condición no se satisface para d=2 por la existencia del conjunto de Besicovitch. Esta condición está relacionada con la transformada de Radon. Esta se usa aquí para calcular la medida de conjuntos en Rd interceptados con ciertos planos en la medida natural sobre dicho plano. 



METODOLOGÍA

Primero estudiamos la medida de Lebesgue y la teoría de la medida general. Enseguida se estudió la teoría de la medida de Hausdorff, así como algunos conjuntos cuya dimensión es fraccionaria, entre estos se encuentra el conjunto de Cantor y la curva de Von Koch. Luego de esto se realizó la construcción de la curva de Peano, la cual es una curva que tiene varias propiedades particulares pero la más interesante es que es una curva que llena por completo el cuadrado unitario en el plano. Para la construcción de esta curva se tuvieron que introducir los conceptos de intervalos cuarticos, cuadrados diádicos y correspondencia diádica y también se probaron varias propiedades de estos, las cual se necesitan para la construcción y prueba de las características de la curva de Peano. También, se estudió análisis de Fourier sobre el espacio de Schwartz para, después, extenderlo al espacio de funciones integrables, L1. Esto ayudó con el estudio de análisis de la transformada de Radón para funciones continuas de soporte compacto.  Se estudiaron también ciertas propiedades de la transformada de Radón para funciones sobre Rd con d>2 que serán cruciales para mostrar que cierta condición de regularidad para subconjuntos de Rd no se satisface cuando d=2. Para finalizar, gracias a esta condición de regularidad es posible comprobar la existencia de los conjuntos de Besicovitch, así como, la construcción de uno de ellos. Lo cual, realizamos haciendo uso del conjunto de Cantor.


CONCLUSIONES

Estudiamos la teoría de medida de Hausdorff, con la cual fuimos capaces de calcular la dimensión de Hausdorff para el conjunto de Cantor, el triángulo de Sierpinski y la curva de Von koch. Se comprobó que cada uno de estos conjuntos tienen asociados funciones de auto-similitud. Para el último conjunto usamos estás funciones para calcular su dimensión. También, realizamos animaciones de estos conjuntos con ayuda del lenguaje de programación java. La propiedad de auto-similitud es de gran ayuda al momento de calcular la dimensión de un conjunto, ya que en ciertos casos estas funciones y los conjuntos abiertos asociados tienen restricciones débiles, lo cual, las hace más fácil de encontrar. Al estudiar la curva de Peano nos dimos cuentas que las propiedades que estudiamos de esta curva coinciden con la teoria que desarrollamos sobre la medida. Además, de que corroboramos que esta curva efectivamente cubre al espacio, es decir, tiene dimensión de Hausdorff dos y medida positiva. La transformada de Radon resultó ser una herramienta natural para probar que la dimensión de los conjuntos de Besicovitch en el plano tienen dimensión dos, ya que cualquier segmento de longitud unitaria se puede pensar como un segmento perpendicular a algún vector en S1.  Así, también se construyó un conjunto de Besicovitch como rotaciones del conjunto de líneas que unen el conjunto de Cantor con disección un medio sobre el eje x y sobre la recta y=1 escalado un medio.
Morales López Erik, Instituto Politécnico Nacional
Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez

IMPLEMENTACIóN DE UN MULTIJUGADOR A SIMULADOR PARA ACCIONES CORRECTIVAS DE FUGAS EN LíNEAS DE BOMBEO DE PETRóLEO EN EL GOLFO DE MéXICO


IMPLEMENTACIóN DE UN MULTIJUGADOR A SIMULADOR PARA ACCIONES CORRECTIVAS DE FUGAS EN LíNEAS DE BOMBEO DE PETRóLEO EN EL GOLFO DE MéXICO

Morales López Erik, Instituto Politécnico Nacional. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La explotación petrolera es una de las industrias más importantes de México pues representa aproximadamente el 37% de los ingresos del país, por lo que estar preparados para actuar ante distintas problemáticas es de suma importancia. Sin embargo, poder solucionar estas problemáticas se debe de capacitar al personal, lo cual representa un gasto muy grande si se quiere hacer presencialmente. SimROV es un simulador de un entorno de petróleo submarino donde se pueden crear diferentes problemas y el operador de un ROV (vehículo operado a distancia) debe resolverlos. El objetivo principal del proyecto es presentar la versión multijugador de SimROV, donde además de compartir el entorno, el sistema tiene la posibilidad de recopilar información sobre las acciones que los operadores han realizado. El sistema será configurado para tener un entorno virtual común donde un instructor puede supervisar a un grupo de operadores, que tienen control independiente sobre su propio ROV y la capacidad de interactuar con otros. Por otro lado, el instructor tiene la posibilidad de modificar algunas características del entorno.



METODOLOGÍA

  Para crear un multijugador utilizamos el entorno de desarrollo para videojuegos Unity 2018.4, específicamente el componente Network Manager, que nos proporciona una serie de herramientas como: Network HUD que es responsable de crear y gestionar la creación del servidor y el emparejamiento de los clientes, Network Identity: El encargado de transmitir la información necesaria al servidor como como la ubicación de cada uno de los operadores. Además, tuvimos que estudiar y entender la estructura de un multijugador en donde pudimos aprender hay dos tipos de usuarios: el servidor y el cliente. El servidor es el encargado de crear el lugar donde se estará ejecutando el simulador, mientras que los clientes son los que se conectaran al servidor y se comunicaran entre ellos gracias a la propiedad Network Idenity ya descrita anteriormente. En el caso particular del simulador, el servidor será el instructor y los clientes serán los operadores. Para lograr que Unity lograra diferenciar entre quien es el Servidor y quienes son los clientes, creamos un menú que, con dos botones diferentes, los cuales están configurados para que cada uno de ellos llame a una función diferente: Ingresa como instructor Cuando damos clic en este botón estamos haciendo un llamado a la función StartupHost_AA, la cual le indica al Network Manager que inicie el servidor, cabe mencionar que se debe de declarar otra función donde se elija el lugar donde se va a alojar el servidor. public void StartupHost_AA() { SetPort(); NetworkManager.singleton.StartHost(); } Ingresa como cliente En este caso estaremos haciendo un llamado a otra función dentro de nuestro Script en donde indicaremos que nos uniremos como clientes, hay que aclarar que debemos especificar la dirección del servidor. public void JointGame_AA() { SetAddress(); SetPort(); NetworkManager.singleton.StartClient(); }   Gracias a las funciones declaradas, Unity es capaz de diferenciar entre quien será el servidor y quienes serán los clientes; gracias a esta ventaja podemos hacer una validación que hará que al servidor se le den los permisos del instructor. if (isServer) { GameObject.Find("TipoUsuario").GetComponent().text = "Instructor"; GameObject.Find("Radar").GetComponent().text = " "; } else { if (isClient) { GameObject.Find("TipoUsuario").GetComponent().text = "Operador"; GameObject.Find("Radar").GetComponent().text = "Radar"; GameObject.Find("OcultaRadarServidor").SetActive(false); } }   Como se puede ver, estamos comprobando si la persona que inicia sesión es la que inició el servidor, si es así, le dará un CANVAS diferente al operador llamado "Vista Instructor" que tiene algunos botones configurados específicamente para este usuario (ya descritos). De lo contrario, el simulador mostrará la vista del operador y generará un ROV para ese usuario. Como ya se ha mencionado, el Sistema debía de permitir dos tipos de usuarios: el instructor y los operadores; pero también tiene la posibilidad de que más de un operador pueda acceder. Sin embargo, se originó un error con el cual no era posible que el simulador funcionara de manera correcta. El problema consistía en diferentes problemáticas: Cuando seleccionábamos Instructor solo se iniciaba el servidor, pero el simulador no iniciaba.   El segundo problema iba ligado al punto anterior, cada vez que iniciábamos una nueva instancia, el control y la vista de todos se cambiaba a la del ultimo operador en abrir una instancia. Para solucionar este problema unicamente tuvimos que verificar que cada nueva istancia fuera local y se le pudieran asignar su propio control y sus propias cámaras.     


CONCLUSIONES

  Un ambiente bajo el mar es un desafío incuestionable, en el caso de fugas de combustible en escenarios subacuáticos de la presente investigación, ha sido posible implementar correctamente un grupo de ROV capaces de interactuar entre sí cuando una falla masiva de ellos y la energía pueden para tener una reacción táctica al problema que ocurre, el siguiente paso de la presente investigación fue la implementación completa del algoritmo de búsqueda Harmony y sus pruebas correspondientes para generar un entorno colaborativo, en términos del progreso realizado por el escenario virtual es posible tener un control autónomo de cada ROV considerando una base de datos de las maniobras y especificando un plan reactivo para resolver un problema como una fuga masiva o daño en uno de los conductos de transferencia de combustible. Un aspecto relevante de la presente investigación es la implementación adecuada de un nivel correcto de estrategias y estratagemas para que el entorno funcione como un entorno de aprendizaje para los usuarios de una compañía petrolera nacional y pueda replicarse a las 17 compañías de OIpep, que tienen petróleo de aguas profundas.
Morales Olmos José Eduardo, Universidad Veracruzana
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

CONSTRUCCIóN Y CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS TIPO RPC


CONSTRUCCIóN Y CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS TIPO RPC

Morales Olmos José Eduardo, Universidad Veracruzana. Soto Soto Paloma Jael, Universidad de Sonora. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los experimentos a altas energías realizados en el CERN (European Organization for Nuclear Research) ubicado en Ginebra, tienen como objetivo el estudio de los constituyentes de la materia y de las fuerzas fundamentales con las que interaccionan. Actualmente existe una búsqueda continua para la evidencia de partículas súper simétricas que podrían dar explicación a la materia oscura que necesita el modelo cosmológico actual, además de las extensiones al modelo estándar de partículas. El detector de partículas gaseoso denominado Resistive Plate Chamber (RPC) tiene una importancia muy grande en el avance científico a nivel mundial, gracias a las propiedades que posee y de la gran capacidad de adaptación experimental en diferentes áreas. El experimento CMS del CERN se utiliza en la detección y determinación de la trayectoria de muones alcanzando eficiencias de hasta el 97%. Sin embargo, el tema de investigación sigue en discusión con respecto a la optimización del detector, llegando a alcanzar tiempos de respuestas más rápidos y eficiencias mayores. Por lo que en este verano se dio a la tarea de realizar la construcción de un RPC para el estudio de los detectores de partículas modernos (una innovación para ACORDE de ALICE) y su aplicación en proyectos internacionales



METODOLOGÍA

Para la construcción de un detector de particulas tipo RPC se realizó el siguiente proceso: Marco y tapas: Se cortaron dos placas de acrílico de 22.5 cm por lado y se realizó el corte y construcción de un marco de acrílico con un ligero surco interior de 1mm de profundidad, esto con el fin de que la placa encaje de manera correcta al momento de pegarlo, a dicha placa se le hacen orificios en donde se conectaran las tomas de gas y los cables de alto voltaje. Pintura e instalación de electrodos: Se seleccionaron 3 placas de vidrio de las cuales a dos de ellas les agregaremos la instalación del electrodo ocupando cinta aislante de cobre y banda de película Polyiamide de baja estaticidad. Después se procedió a pintar las placas con una pintura resistiva, utilizando una pistola de aire y una compresora de aire, dejando un borde de 5 mm sin pintar en cada lado, la función de la pintura es crear el campo eléctrico. Se colocó de la misma manera alrededor del vidrio una pintura de plata, la cual nos ayudara a conservar el campo eléctrico en el interior de la placa de vidrio, procedemos a pintar nuevamente con la pintura resistiva y dejamos secar. Ensamble del detector: Se procede a pegar una de las placas de acrílico al marco, utilizando resina de fibra de vidrio. Una vez pegado procederemos a montar uno de los vidrios ya pintados de tal forma que la pintura resistiva este en contacto con la placa de acrílico y ayudándonos de unos espaciadores hechos de PLA (Polylactic Acid) acomodamos la placa de manera que esta quede fija en el interior. Se coloca el primer GAP ayudándonos de hilo para pescar de 1 mm de diámetro y soldando las correspondientes conexiones de alto voltaje del RPC para generar el campo dentro de este. Sobre este colocar el vidrio que se encuentra libre de pintura procurando que el hilo de pescar y los espaciadores permiten el libre flujo del gas con el cual se va a llenar el RPC y direccionándolo a su salida y entrada correspondiente. Ya hecho esto colocaremos el otro vidrio con el lado de la pintura viendo hacia afuera. Aseguraremos todo en el interior y cerraremos colocaremos la otra tapa de acrílico para cerrar el RPC y de nuevo utilizaremos la resina de fibra de vidrio y colocando un peso considerable encima de tal manera que obtengamos un sellado correcto y que el gas no vaya en otra dirección que no sea la establecida y dejaremos secar el un día entero o hasta notar que la resina ha endurecido. Una vez construido el RPC y que este se haya secado y pegado de manera correcta procederemos a limpiar el interior con Argón. El Argón es usualmente utilizado debido a que es altamente ionizable y su costo es bajo. Conectaremos el gas a las tomas de entrada y salida del gas y una vez hecho esto dejaremos que este se limpie por un día entero. Una vez hecho esto procederemos a medir las características de nuestro RPC con el uso de una fuente de alto voltaje y ahora en lugar de usar argón ocuparemos el Freón el cual es un gas cuyas características son igual de deseables que el argón puro, dada al nivel de ionización que posee, con la diferencia de que este es un poco más caro, a costo de un mejor rendimiento. También procederemos a montar el RPC dentro de una caja de metal cuya función es aislar el detector de cualquier tipo de ruido que se pueda meter debido al alto voltaje. Comenzaremos a medir las características de nuestro RPC. Empezaremos midiendo la resistividad del detector, conectando las terminales de alto voltaje del RPC a la fuente y haciendo que el gas circule de manera correcta. Iremos registrando el consumo de corriente y el voltaje utilizado. Ya hecho esto procederemos a medir la cantidad de partículas que pasan por el RPC, para esto nos ayudaremos de una contadora de partículas, en la cual irán conectados los canales del RPC con ayuda de un cable de respuesta de 5 ns, e iremos variando ambos canales de alto voltaje para apreciar la curva.


CONCLUSIONES

Debido al tiempo del cual se dispuso, no fue posible terminar de caracterizar el detector. Dado que aún faltaba la caracterización usando los PMT, la resolución espacial y temporal del detector, sin embargo, pudimos verificar que el detector construido cumple las expectativas que antes habíamos planteado, siendo bien portado en los datos que recolecta y en los valores separados para que este sea lo más eficiente posible. Podemos concluir que el desarrollo, construcción y caracterización de un RPC es un proceso complejo, el cual involucra la ayuda de muchas personas a nivel internacional para la optimización del diseño, del funcionamiento y de la eficiencia del mismo. Esto con el fin de llegar a explorar lugares inexplorados en la física, estos detectores usualmente se ocupan en la detección de muones, los cuales van a ser implementados a mayor escala en los proyectos tales como el espectrómetro de muones delantero de ALICE (un experimento de gran colisionador de iones). Estos detectores son de vital importancia en el avance científico mundial y en la aplicación de estos a otras ramas tales como la medicina.
Morales Ramírez Natalia, Instituto Politécnico Nacional
Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México

MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA


MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA

Aguilar Valdez Sofía Alejandra, Universidad de Guadalajara. Jiménez Salado Isabel, Instituto Politécnico Nacional. Morales Ramírez Natalia, Instituto Politécnico Nacional. Navarro Salazar Fidel Alejandro, Universidad de Sonora. Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se estudiará la detección de alimentos procesados por radiación a través de diferentes métodos. Se discutirán los conceptos que gobiernan la propiedad de luminiscencia del estado  sólido como un punto inicial para estudiar materiales con aplicaciones dosimétricas. De esta forma, podremos demostrar las ventajas de la irradiación de alimentos en México a partir de medidas de PSL (fotoluminiscencia) en orégano y TL (termoluminiscencia) en calcita naranja a diferentes dosis de radiación gamma.  Se trabajó con orégano debido a su importancia en el mercado mexicano, ya que se cosechan anualmente cerca de 4000 toneladas; de las cuales el 85% es exportado a Estados Unidos, el 10% se utiliza en el mercado doméstico y el 5% a países europeos y asiáticos. Debido a que las exigencias del mercado extranjero han de cumplirse en su totalidad, un método de esterilización viable es el de procesar a los alimentos por irradiación gamma. Aunado a lo anterior, también se trabajó con calcita naranja por sus propiedades luminiscentes como dosímetro natural. Las propiedades de TL de la calcita tienen aplicación en datación geológica, dosimetría ionizante y ultravioleta, así como en la evaluación de dosis gamma usadas para la preservación de comida.



METODOLOGÍA

Se trabajaron varias muestras de calcita naranja y orégano expuestas a diferentes dosis de radiación gamma de Cs137, en un rango de 50-3000 Gy, a través del irradiador autocontenido Gammacell 3000.  Para analizar las muestras de calcita y orégano, se utilizaron los métodos de TL y PSL respectivamente. Además, se revisaron varios conceptos que gobiernan la propiedad de luminiscencia del estado sólido; entre ellos  la teoría de bandas y su relación con la estructura cristalina de los materiales, la interacción de la luz con la materia, y la energía de activación. Esta última se obtuvo con la ecuación de Arrhenius de acuerdo al método de levantamiento inicial. En consecuencia, a partir de los resultados experimentales fue posible calcular el factor de frecuencia y la energía de activación. Para el estudio de las ocho muestras de orégano a diferentes dosis, se empleó el método de PSL a través del equipo SURRC Pulsed PSL System de la compañía SUERC. Dicho instrumento hace uso de un arreglo de diodos infrarrojos para detectar la señal emitida por la presencia de feldespato en las muestras de orégano. De los datos obtenidos de orégano irradiado fue posible observar que la evolución de la cuenta de fotones tiende a aumentar con respecto a la dosis. Así mismo, por medio del PSL se determinó que las muestras se encontraban irradiadas a partir de una dosis de 250 Gy. La evolución de la cuenta total con respecto a la dosis presenta en primera instancia un comportamiento lineal en las dosis de 50-500 Gy, seguido de un comportamiento exponencial De la misma forma, se trabajó con el desvanecimiento de la señal a través del tiempo para las muestras de orégano con dosis de 250, 1000, 2000 y 3000 Gy. Se trabajaron con estas dosis puesto que la muestra de 250 Gy fue la primera categorizada como positiva. Se realizó un estudio de las cuentas por segundo con respecto al tiempo para la señal de cada dosis en un intervalo de 34 días después de ser irradiadas. Se observó que las cuentas por segundo disminuyen con el tiempo; así mismo, la cuenta total decreció de forma lineal con una pendiente más pronunciada a mayor dosis. Sin embargo, fue posible presenciar una recuperación de las cuentas por segundo y cuenta total en cada dosis debido a la participación de trampas previamente inactivas. Adicionalmente, para muestras mayores a 250 Gy era posible obtener un resultado positivo mediante el método PSL debido a la alta concentración de poliminerales como feldespatos. Las dosis utilizadas de calcita fueron de; 50, 100, 250, 500, 1000, 1500, y 2000 Gy. Para obtener resultados con mayor fiabilidad, se utilizaron dos muestras por cada dosis y doce adicionales con dosis de 1000 Gy con la finalidad de estudiar la pérdida de señal. Los picos de las curvas de brillo se encuentran en un rango de temperatura de 134-153°C. Así mismo, la respuesta de la intensidad termoluminiscente es directamente proporcional a la dosis a la que fueron expuestas las muestras; dado que se espera que a mayor dosis, habría mayor respuesta termoluminiscente. Con respecto a los parámetros de atrapamiento, se observó un comportamiento exponencial para la energía de activación y el factor de frecuencia. La respuesta TL disminuye conforme pasan los días, mostrando un decaimiento del 57%. De la misma forma, la banda de reatrapamiento aumenta provocando que la banda principal disminuya; es decir, el rango de la temperatura máxima de la respuesta TL cambia a 143-175°C después de 34 días.


CONCLUSIONES

El método de PSL demostró ser sensible y eficiente para el análisis de muestras irradiadas de orégano, detectando material irradiado en un plazo de 34 días para muestras mayores a 250 Gy. Debido a una alta concentración de poliminerales, como feldespatos y silicatos, presentes en el orégano. En consecuencia, el método de PSL es útil para la detección a largo plazo de alimentos secos irradiados conservados en ambientes obscuros.  Por otro lado, a través del método de TL se obtuvo que la calcita naranja mantiene su señal por más de un mes de ser irradiada. Por este motivo se recomienda el material como dosímetro natural para el estudio de irradiación de alimentos y datación geológica.  A través del verano de investigación, logramos entender la participación de los materiales con aplicaciones dosimétricas en la detección de alimentos irradiados. Comprendimos que la transferencia de la metodología a la industria es importante, ya que en este caso el fomentar dicha práctica en México como control de calidad es una necesidad dadas las aplicaciones de la calcita mineral en la industria química y la alta demanda del orégano como producto de exportación y de consumo interno en la alimentación.
Morales Zamudio Ángela, Universidad de Sonora
Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)

CáLCULO DE PROPIEDADES óPTICAS LINEALES Y NO LINEALES DE META-MATERIALES 2D.


CáLCULO DE PROPIEDADES óPTICAS LINEALES Y NO LINEALES DE META-MATERIALES 2D.

Martinez Moreno Angel Martin, Universidad de Sonora. Morales Zamudio Ángela, Universidad de Sonora. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Existe una serie de scripts elaborados por alumnos de Doctorado y Maestría en los cuales se calculan distintos parámetros para distintas figuras de Metamaterial y diferentes Celdas unitarias. A su vez, se requiere agregar distintas rotaciones en la Celda unitaria de prueba e interacción entre algunas de ellas, por ello se planteó hacer modificación y/o creación de distintos scripts donde se logra la rotación e interacción de éstas.



METODOLOGÍA

El trabajo realizado tuvo algunas etapas para su elaboración. 1.- Instalación de sistema operativo Linux e instalación de librerías que serán necesarias en la elaboración de scripts respecto a Metamateriales 2D. 2.- Modificación de scripts que sirvan para lograr una rotación de distintos ángulos en la celda unitaria y así observar las variaciones del flujo eléctrico en el Metamaterial 2D. 3.- Agregar más celdas unitarias y lograr una interacción entre ellas que sirva para observar las variaciones del flujo eléctrico en el Metamaterial 2D. 4.- Creación de estrellas de plata y medición de sus diferentes propiedades (Transmitancia, Reflectancia, Carga, Campo Eléctrico, Polarización y Susceptibilidad) variando diferentes parámetros como: Número de pixeles, Alto, Ancho, Suavidad, Número de Haydock, Ángulos, Número de pasos, Permitividad de distintos materiales… 5.- Obtención de animaciones respecto a la figura desarrollada y sus respectivos cálculos. 6.- Elaboración de reporte en programa LaTeX. Se obtuvieron 2 inconvenientes. 1.- El Número de Haydock tiene un margen máximo de 250 en su declaración, una vez sobrepasando ese límite puede ocasionar problemas en el disco duro del computador. 2.- El tiempo estimado para que el programa finalice son 2 días a 3 días, por lo cual es necesario dejar la computadora sin tiempo de descanso.


CONCLUSIONES

Una vez realizado el script para distintos ángulos y obtener interacciones entre distintas Celdas unitarias se consiguieron cálculos más precisos y completos respecto al tema de Metamateriales 2D. Se realizó una estrella utilizando SuperFormula donde su épsilon correspondiente es el de la plata, se calcularon sus distintos parámetros como Transmitancia, Reflectancia, Carga, Campo Eléctrico, Polarización y Susceptibilidad.
Morán Cortés Jesús Israel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla

SOLUCIóN DE EDP’S CON MATLAB Y COMSOL MULTIPHYSICS PARA PROBLEMAS ORIENTADOS A LA FISIOLOGíA DEL CUERPO HUMANO


SOLUCIóN DE EDP’S CON MATLAB Y COMSOL MULTIPHYSICS PARA PROBLEMAS ORIENTADOS A LA FISIOLOGíA DEL CUERPO HUMANO

Morán Cortés Jesús Israel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Beatriz Bonilla Capilla, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La representación de fenómenos de la naturaleza usando modelos matemáticos eficaces es el objetivo de nuestro campo estudio. Para ello, las ecuaciones diferenciales son muy polifacéticas, es decir, podemos utilizarlas para describir una gran abundancia de problemas en matemáticas, física, química o biología de nuestro interés; en su gran diversidad de representaciones como en las ecuaciones de Calor, de Laplace o de Poisson, por decir algunas.    Sin embargo, en la mayoría de las ecuaciones diferenciales, los métodos computacionales son necesarios para obtener soluciones numéricas, dejando las soluciones exactas para sus facetas más simples. Por tal motivo, nos hemos centrado en estudiar y aprender diferentes métodos numéricos empleando MATLAB y COMSOL Multiphysics, para analizar y resolver distintos problemas donde se ven involucradas las ecuaciones diferenciales. Esta es la finalidad de este proyecto de investigación. 



METODOLOGÍA

Iniciamos con el estudio de ecuaciones diferenciales parciales, su definición, su clasificación y unos tipos de ecuaciones relevantes en física. También, nos familiarizamos con la programación en MATLAB y en COMSOL Multiphysics y, comparamos las soluciones numéricas de algunas ecuaciones diferenciales simples obtenidas en ambos programas. Posteriormente, simulamos una gran diversidad de problemas físicos usando COMSOL Multiphysics para usar la gran variedad de herramientas ofrecidas por este software. Asimismo, resolvimos algunos problemas propuestos por la bibliografía proporcionada por nuestra asesora. Finalmente, estudiamos y analizamos métodos numéricos, estos son, el método de diferencias finitas usado por MATLAB y el método de elemento finito utilizado por COMSOL Multiphysics. Haciendo énfasis en el proceso empleado por este último.


CONCLUSIONES

En el transcurso de la estancia de verano, haciendo uso de MATLAB y COMSOL Multiphysics, se logró adquirir una gran pluralidad de conocimientos y habilidades en la aplicación de métodos numéricos para la solución de las ecuaciones diferenciales en distintos problemas físicos, en su mayoría, orientados a la fisiología del cuerpo humano.
Morán Gómez Alejandra Karelia, Instituto Politécnico Nacional
Asesor: Dr. Luc Julien Jerome Dendooven , Centro de Investigación y de Estudios Avanzados (IPN)

ESTUDIO DE ENDóFITOS EN RAíCES DE ZEA MAYS CULTIVADO EN INVERNADERO.


ESTUDIO DE ENDóFITOS EN RAíCES DE ZEA MAYS CULTIVADO EN INVERNADERO.

Montes Retamoza Daniela, Consejo Sudcaliforniano de Ciencia y Tecnología. Morán Gómez Alejandra Karelia, Instituto Politécnico Nacional. Asesor: Dr. Luc Julien Jerome Dendooven , Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La producción agropecuaria tiene profundos efectos en el medio ambiente en conjunto. La fertilización del suelo es una de muchas variables agroecológicas que influyen sobre la distribución y la abundancia de las poblaciones de insectos. Al hacer uso excesivo de los fertilizantes, uno de sus efectos es el agrietamiento del suelo, lo que favorece condiciones de anoxia. A nivel mundial, está emergiendo un consenso en cuanto a la necesidad de nuevas estrategias de desarrollo agrícola para asegurar una producción estable de alimentos y que sea acorde con la calidad ambiental. El desarrollo y uso de los biofertilizantes se contempla como una importante alternativa para la sustitución parcial o total de los fertilizantes minerales. Se planea hacer uso de microorganismos que  puedan resultar útiles para este fin, en este caso, los endófitos. Éstos mantienen relaciones simbióticas con las plantas y en muchos de los casos ya se encuentran en sus raíces, por lo que, durante la estancia Verano de Investigación nos dedicamos a la detección de endófitos en la raíz del maíz por medio de técnicas de biología molecular con el fin de poder estudiarlos.



METODOLOGÍA

La metodología empleada consistió en el lavado de las raíces de maíz, en donde se prepararon aproximadamente 0.5 g de éstas para su posterior lisis mecánica con nitrógeno líquido . Las muestras maceradas fueron tratadas con tres técnicas de extracción del DNA genómico. Se corroboró la extracción del DNA mediante una electroforesis. Posteriormente, se llevó a cabo la amplificación de las regiones hipervariables V3 y V4 del 16S rRNA bacteriano utilizando mix de reacción y primers específicos de la raíz y así, poducir la separación de los productos por PCR. Esto con el objetivo de detectar la presencia de endófitos. Finalmente, por medio de electroforesis y haciendo uso de  gel de agarosa al 1% se obtuvieron las diferentes bandas a analizar. Lo anterior se realizó en cada uno de las muestras de raíz proporcionada por el investigador. 


CONCLUSIONES

Comparando los resultados de las tres diferentes técnicas de extracción de DNA, se observó que no hay diferencia significativa entre ellos. Todos los productos obtenidos tenían una concentración muy similar de DNA metagenómico. En lo que respecta a los productos de PCR, del total de muestras expuestas, tuvimos resultados favorables en tres de ellas, donde observamos una amplificación correcta, encontrado las regiones buscadas  (V3-V4 del gen 16S rRNA) en las muestras de raíz analizadas. Sin embargo, aún se debe continuar intentando tener éxito en el mayor número posible de muestras.  Para terminar, cabe mencionar que, gracias al Verano de  Investigación Científica he  reforzado mi formación académica al permitirme conocer diversas técnicas de biología molecular y llevarlas a la práctica en un ambiente profesional, ya que no es lo mismo verlo expuesto en clase, que hacerlo tu mismo y con asesores profesionales que te orientan y te ayudan a quitarte el miedo de fracasar, a seguir intentanto hasta que el resultado sea exitoso. Asimismo, el conocimiento de poder realizar un analisis de resultados a través de los geles obtenidos y así, llegar a una cocnlusión para la toma de decisiones. Doy gracias por esta gran oportunidad, porque me brinda experiencia y una muestra de lo que es una investigación en forma y real.   
Moreno Araujo Jose Enrique, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)

CARACTERIZACIóN DE GUíAS DE ONDA óPTICAS.


CARACTERIZACIóN DE GUíAS DE ONDA óPTICAS.

Moreno Araujo Jose Enrique, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el campo de la óptica integrada se busca generar componentes de tamaño muy reducido que nos permitan transmitir información por medio de señales ópticas. Estos circuitos ópticos se presentan como una alternativa a los componentes electrónicos que ya realizan estas funciones pero obteniendo mejoras en aspectos como la velocidad y el ancho de banda.  Uno de los métodos que la óptica ha desarrollado para confinar haces de luz, es la creación de pequeños canales dentro de vidrios y cristales los cuales presentan distintos índices de refracción en su interior para así poder llevar una onda electromagnética de un punto a otro según sea requerido.  El proyecto de investigación consiste en caracterizar las guías de onda en diferentes tipos de materiales dopados con tierras raras.  El objetivo principal es observar la manera en que las ondas electromagnéticas se propagan a través de las guías contenidas en los sustratos, analizando a su vez las pérdidas que se presentan y como éstas pueden tener variaciones haciendo cambios tanto de materiales como de técnicas de fabricación de guías.



METODOLOGÍA

En este proyecto de investigación fue necesario hacer mediciones de las diferentes propiedades de las guías de onda encontradas en diversos sustratos que fueron proporcionados por el asesor. Cada medición requirió de un proceso específico así como de un arreglo experimental diferente. Durante el desarrollo de la investigación se realizaron mediciones diversas como; el tamaño de los modos de propagación de las guías de onda, así como las pérdidas por propagación, la relación de los cambios de índice de refracción y las diferencias que generaban distintos sustratos. Las mediciones fueron llevadas a cabo con equipos particulares dentro de los laboratorios del Centro de Investigaciones en Óptica A.C. Los resultados fueron procesados y analizados para posteriormente obtener conclusiones correspondientes.  


CONCLUSIONES

Se observó de cerca el comportamiento de los diferentes componentes ópticos que conforman la óptica integrada, específicamente con el uso de las guías de onda ópticas en sustratos dopados con tierras raras. Con la información recabada a través de los equipos y experimentos realizados se logró la caracterización de las guías de onda con las que se trabajó durante el proyecto. Además se pudo hacer una valoración de sus diferentes características y funcionalidades para poder comprender su comportamiento. Algunos resultados relevantes obtenidos de este proyecto fueron los tamaños de los modos de las guías de onda, los cuales se encuentran entre los 11 y 21 micrómetros, lo cual corresponde con los tamaños de fabricación preestablecidos para los tres diferentes tipos de guías grabadas en las muestras utilizadas. Se obtuvo que al incidir el haz de luz en las guías de onda se tienen pérdidas de alrededor de 22.06 dB/cm. Finalmente, con ayuda de equipo especializado y un software se vio que dentro de las guías de onda ópticas existen pequeños cambios de índice de refracción, cerca de 2.18E-03 en su mejor aproximación, los cuales son la razón por la cual las guías de onda funcionan como canales de paso para los haces de luz incidentes. Con este proyecto de investigación se observó la importancia de las diferentes funcionalidades, usos y posibles aplicaciones de las guías de onda ópticas y de la óptica integrada en general. 
Moreno Cano Luis Eduardo, Instituto Politécnico Nacional
Asesor: Dr. Argelia Perez Pacheco, Hospital General de México

CALIBRACIóN DE UN SISTEMA DE VIBRACIóN PARA LA DETECCIóN DEL UMBRAL DE SENSIBILIDAD TáCTIL


CALIBRACIóN DE UN SISTEMA DE VIBRACIóN PARA LA DETECCIóN DEL UMBRAL DE SENSIBILIDAD TáCTIL

Moreno Cano Luis Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Argelia Perez Pacheco, Hospital General de México



PLANTEAMIENTO DEL PROBLEMA

Los receptores cutáneos originan sensaciones táctiles de presión, temperatura, dolor, etc. Entre los receptores se encuentran los mecano-receptores que son receptores sensoriales que reaccionan ante la presión mecánica y pertenecen al sentido del tacto. El cerebro usa información muy compleja sobre los estímulos recibidos para detectar y discriminar las sensaciones de la piel. La valoración de alteración sensitiva resulta esencial como parte de una valoración clínica ya que las alteraciones en el sistema periférico se relacionan con las capacidades físicas, de las cuales sino se tiene una valoración temprana, se producirá un impacto negativo para llevar a cabo determinadas tareas de la vida cotidiana. La pérdida progresiva de sensaciones o falta de sensibilidad son indicativos de alteraciones neurológicas, traumatismo craneoencefálico, enfermedades neurodegenerativas entre otras. Mediante el N-Tuner se busca encontrar valores cuantificables de la percepción de una población sana (grupo control) para ser comparada con una población con neuropatía diabética.  



METODOLOGÍA

El N-Tuner, fue calibrado encontrando una frecuencia de operación óptima de 130 Hz. El sistema se conecta a un amplificador, el cual a su vez es conectado a un Arduino y por último a una membrana vibratoria. El Arduino convertirá la señal vibratoria a un valor de voltaje RMS. Se desarrolló una base de datos la cual incluye el ID del usuario, nombre completo, fecha del estudio, el peso de la persona, de su mano y del dedo del pie derecho, así como la medida de los voltajes RMS. La frecuencia de operación se mantuvo constante (130 Hz) y se varió la amplitud. El valor registrado de voltaje RMS fue el mínimo valor de vibración del N-Tuner que el usuario percibió e indicó al operador, haciendo una rampa de mayor a menor vibración y de menor a mayor vibración por parte del operador sin conocimiento del usuario. Para encontrar umbrales de sensibilidad táctil de sujetos sanos (control) y con una patología (neuropatía diabética) se realizó un promedio de las mediciones de la mano y del pie derecho para cada sujeto de estudio. Las mediciones de la mano fueron en los 3 dedos de la mano derecha juntos: índice, dedo medio y anular y las del pie correspondieron al dedo pulgar del pie derecho, ambos (dedos mano y pie) se colocaron encima del N-Tuner boca abajo.


CONCLUSIONES

Para el sistema, se encontró la frecuencia de operación de 130 Hz.  En la base de datos se pudo observar que los rangos del GRUPO CONTROL se encuentran entre 0,006 V y 0,0163 V para mediciones en la mano y entre 0.008 V y 0.013 V para mediciones en el pie. Se graficaron los resultados y posteriormente se realizará el estudio a sujetos con neuropatía diabética para realizar el análisis y encontrar que diferencias o similitudes se encuentran. El desarrollo de este sistema es muy importante debido a que puede ser un instrumento mèdico con el cual se detecte alguna neuropatía en este caso diabética, y que el estudio no sea subjetivo como normalmente se realiza con el monofilamento, ya que nuestro sistema arroja valores cuantificables.  
Moreno Yocupicio Alondra del Socorro, Universidad de Sonora
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

RIESGOS HIDROMETEOROLóGICOS EN LAS CUENCAS HIDROLóGICAS DE PUERTO VALLARTA.


RIESGOS HIDROMETEOROLóGICOS EN LAS CUENCAS HIDROLóGICAS DE PUERTO VALLARTA.

Moreno Yocupicio Alondra del Socorro, Universidad de Sonora. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los fenómenos hidrometereológicos nacionalmente han generado grandes pérdidas a lo largo de los años. En promedio penetran al territorio nacional anualmente 4 ciclones destructivos, produciendo lluvias intensas con sus consecuentes inundaciones y deslaves. Puerto Vallarta por su localización geográfica y características tectónicas está expuesta a fenómenos naturales de alta peligrosidad como son los terremotos y los huracanes, los cuales deben ser estudiados para poder diseñar acciones que tiendan a mitigar sus efectos. El problema de la cuidad es que la zona Urbana de Puerto Vallarta cuenta con poca o nula planificación ante desastres naturales a los que es propensa. Cada vez hay zonas más zonas habitacionales que crecen alrededor de ríos, arroyos; con peligro de inundación, así como asentaciones en cerros; lugares con peligro de deslizamiento de rocas y tierra.



METODOLOGÍA

Primeramente, se realizó una investigación bibliográfica referente al área de estudio, se consultaron atlas de riesgo de Puerto Vallarta y Bahía Banderas, así como el Atlas del Agua en México. Se determinaron cuales eran las principales cuencas de Puerto Vallarta, estableciéndose 5 punto, haciéndose mapas de estos puntos identificando los principales ríos y cuencas de Puerto Vallarta, donde después se recopilarían datos estadísticos de precipitación en cada estación meteorológicas correspondiente a un punto. Con la base de datos por estación se pudieron hacer tablas y graficas en Excel de precipitación, en una tabla se sumó la precipitación total por mes y año, y en otra se registró el número de eventos catastróficos registrados en cada mes, así como la mayor cantidad de precipitación ocurrida en los eventos. Por último, con el objetivo de interpolar los datos obtenidos de los datos anteriores, se realizó otra tabla con la precipitación total por año según la estación meteorológica y las coordenadas de cada una se proceso en el programa ArcMap de ArcGIS, haciéndose una serie de mapas de interpolación, donde se detectarán las zonas más afectadas con las lluvias, por cada año se hizo un mapa con el sistema de interpolación de IDW, obteniéndose un total de 8 mapas.


CONCLUSIONES

Después de todo el análisis de datos estadísticos se pudo observar que dentro del periodo 2010 a 2017 los años con mayor precipitación fueron 2010 y 2014, siendo el Río Cuale el más afectado de las zonas. También se observó que la temporada de lluvia en Puerto Vallarta comienza en junio y termina en octubre, teniendo su mayor intensidad en julio, agosto y septiembre, siendo agosto el mes con mayor cantidad de lluvias por año. De igual manera el mes de agosto tuvo el mayor número de eventos catastróficos y de mayor intensidad en este periodo, seguido de septiembre y julio respectivamente. 
Muñoz Ramírez César Adrián, Instituto Politécnico Nacional
Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)

PROGRAMACIóN UTILIZANDO PLATAFORMA MULTIPARADIGMA PYTHON.


PROGRAMACIóN UTILIZANDO PLATAFORMA MULTIPARADIGMA PYTHON.

Muñoz Ramírez César Adrián, Instituto Politécnico Nacional. Sánchez Bolaños Stephanie, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Un entorno de programación amigable y potente es necesario a la hora de desarrollar proyectos  que  manejen una gran cantidad de datos, tal es el caso de la creación de gráficas, ya que implica cierta manipulación del espacio en la que se presenta el esquema. Con la creciente necesidad del manejo de entornos de desarrollo de aplicaciones, se han ido reduciendo las plataformas que brinden a los desarrolladores las herramientas necesarias para crear diferentes códigos, sin necesidad de adquirir licencias, que puedan provocar ciertas limitantes al momento del desarrollo del código. Por tal motivo, el aprender a manejar diferentes entornos de programación libres, como es la sintaxis y el uso de utilerías propias del lenguaje, toma gran importancia ya que brinda diferentes opciones de desarrollo a los programadores, dando la oportunidad de ofrecer sistemas eficientes.



METODOLOGÍA

El Dr. Moisés Cywiak Garbarcewicz  encargado del laboratorio de metrología heterogenia del Centro de Investigaciones en Óptica León, GTO. Nos dio una breve explicación sobre el plan de trabajo que llevaríamos acabo durante el verano científico, que consta de los siguientes puntos: Introducción a la programación y desarrollo de programación en Python. Gráficas en dos dimensiones. Gráficas en tres dimensiones. Interfaz de usuario: Formas, lienzos e interfaces dinámicas de usuario. Sonidos y animación. Procesos para embeber gráficos de dos y tres dimensiones en el ambiente de usuario. En seguida se instaló la plataforma de programación con la versión adecuada, tomando en cuenta las necesidades de funcionamiento, además se analizaron conceptos básicos propios del lenguaje de programación, como la asignación de valores a variables, ciclos y manejo de operaciones matemáticas básicas. Así mismo se instalaron módulos esenciales para el desarrollo de las actividades posteriores, tales como, la utilería matplotlib con la cual se pudieron utilizar expresiones y métodos matemáticos más complejos; entendiendo de esta forma el funcionamiento del entorno Python como son los requerimientos de instalación, recursos, comprensión de la interfaz propia de la plataforma y sintaxis. Mediante el uso de las utilerías matplotlib y numpy se logró graficar en dos dimensiones (X,Y), la función exponencial de n números, senos, cosenos y la gráfica gaussiana, pudiendo ofrecer un entorno con ciertas funciones interactivas con respecto a la interfaz de usuario. Además se pudo comprender el uso de arreglos, que ocupan cierto espacio de memoria, con el cual se puede armar el plano cartesiano sin perder los valores de los ejes en cada punto propuesto. Los puntos anteriores ofrecen la facilidad de modificar los datos principales de la gráfica para ofrecer diferentes estados de la misma y de su perspectiva. De la misma forma permite también el manejo de las diferentes características visuales, como el color de la gráfica y de su entorno, así como su posicionamiento, ofreciendo un panorama completo de la gráfica en dos dimensiones, o incluso la vista de más de una gráfica. Se hace uso de la utilería mpl_toolkits, la cual permite hacer graficas de tres ejes (X,Y, f(X)), permitiendo dar una vista con perspectivas propias de un plano en tres dimensiones, generando un entorno que permite manipular la posición de la vista de la misma gráfica. De esta forma se logró la creación de un mapa de colores personalizado, el cual se aplicó a la gráfica creada, además de utilizar funciones propias de la utilería que permite la vista de la rejilla y del recubrimiento que conforman a la gráfica, permitiendo el control total sobre el estilo del esquema.   El uso de la utilería tkinter permite la creación de los elementos para generar una interfaz de usuario totalmente interactiva; se ha utilizado esta utilería y sus métodos para hacer formas o ventanas que contengan botones, etiquetas, cajas de entrada y lienzos o canvas, con las cuales se puede tener un mayor control del contenido de la forma. De la misma forma se aplicaron funciones con la sintaxis propia del lenguaje, lo que permitió la programación del comportamiento de cada uno de los elementos. Se alcanzó el objetivo para insertar sonido y animación en la interfaz de usuario. Mediante el uso de las utilerías winsound y time se pudo controlar la emisión de sonidos con una medida en Hz controlada con lo cual se logró hacer más interactivo el manejo de la interfaz una vez ejecutado el entorno. De la misma manera, se logró la animación de una gráfica haciendo que ésta cambiara sus valores y los mostrara en pantalla de una forma continua, dentro de un periodo de tiempo controlado. Haciendo uso de las diferentes extensiones de la utilería matplotlib, se logró la inserción de las gráficas en dos y tres dimensiones realizadas en las etapas anteriores combinando los elementos visuales apropiados como son botones, imágenes, etiquetas y cajas de entrada; con la vista del esquema, incluyendo el estilo personalizado del mismo.


CONCLUSIONES

Se realizó y aplicó el conocimiento y  la teoría adecuada resultante de la investigación realizada, para lograr el funcionamiento apropiado del lenguaje de programación aplicado a la asignación de valores y variables, ciclos y manejo de operaciones matemáticas básicas con los métodos y las propiedades de los componentes de la plataforma Python. De esta forma logramos modificar el comportamiento del entorno predefinido para proporcionar las funcionalidades que se plantearon originalmente en el proyecto, generando el entendimiento de los conceptos y la lógica necesaria para lograr cada uno de los objetivos propuestos.
Muñoz Ramirez Jose Alfredo, Universidad de Guadalajara
Asesor: Dr. Juan Hugo García López, Universidad de Guadalajara

ANáLISIS DE UN CIRCUITO CAóTICO JERK Y SU POSIBLE IMPLEMENTACIóN EN LOS SISTEMAS DE TELECOMUNICACIONES


ANáLISIS DE UN CIRCUITO CAóTICO JERK Y SU POSIBLE IMPLEMENTACIóN EN LOS SISTEMAS DE TELECOMUNICACIONES

Muñoz Ramirez Jose Alfredo, Universidad de Guadalajara. Asesor: Dr. Juan Hugo García López, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las grandes cantidades de información confidencial que todos los días deben fluir a través de los sistemas de telecomunicaciones los ha hecho blanco de ciberdelincuentes que buscan ganancias financieras. Investigaciones recientes en materia de seguridad se han enfocado en métodos que busquen salvaguardar los intereses de grandes cadenas bancarias, entidades gubernamentales y otras instituciones que han sido afectadas por el fenómeno de la infiltración cibernética.



METODOLOGÍA

Análisis de antecedentes Planteamiento del problema Planteamiento de objetivos (generales y específicos) Generación de hipótesis Análisis numérico del sistema Desarrollo experimental Análisis de resultados Conclusiones


CONCLUSIONES

En este trabajo se experimentó con un circuito Jerk simple, no lineal de tres ecuaciones diferenciales y se analizó su comportamiento caótico. Se realizo un análisis numérico de las ecuaciones diferenciales descritas resueltas por el método de Runge Kutta de orden 4 empleando el software Matlab® y sus soluciones fueron graficadas en los planos x-y, y-z y x-z para observar el atractor caótico que el sistema Jerk debía presentar. Además, fue construido un diagrama de bifurcación en donde para observar su comportamiento al cambiar el parámetro a. En esta etapa me ayudó mucho estar familiarizado con el software Matlab® y saber aplicar el método utilizado en la solución de las ecuaciones diferenciales. Conocí, además el diagrama de bifurcación, estrategia de análisis muy utilizada en sistemas dinámicos. Se diseño un circuito del sistema Jerk analizado con amplificadores operacionales TL072 y otros componentes electrónicos pasivos. Utilizando la herramienta de osciloscopio dentro del software y graficando en el modo A/B pudimos proyectar la respuesta del sistema en espacio de fase y observar el atractor caótico generado por el circuito. Los resultados obtenidos los comparamos con el análisis numérico y pudimos concluir que existe una buena relación entre ambos análisis. La variación de la resistencia Ra era la equivalencia para variar el parámetro a, pero con una correspondencia de Ra = R / a. aprendí que a partir de amplificadores operacionales es posible representar en electrónica ecuaciones diferenciales que modelan los diferentes sistemas.   En la etapa de experimentación se realizó el armado en físico del circuito analógico en la placa de pruebas (Protoboard) implementando el circuito simulado en Multisim®. En esta etapa experimental se buscó proyectar los atractores caóticos que en simulación ya se habían observado y analizar el comportamiento real del sistema implementado con amplificadores operacionales. Este proceso fue un poco tardado debido a que en un principio utilizamos amplificadores operacionales LM741 los cuales no funcionaron de la forma esperada y sustituimos más tarde por el tipo antes mencionado, aunque el circuito analógico funciono a la perfección esta etapa experimental aun será desarrollada pues se busca implementar un sistema no solo analógico sino fusionado también con una parte digital constituida por un microcontrolador Arduino. Para que finalmente podamos implementar el sistema Jerk en la encriptación de señales y aportar al ramo de la seguridad en telecomunicaciones.
Murrieta Costeño Oziel, Universidad Veracruzana
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

SEñAL DE LA CANíCULA (O MIDSUMMER DROUGHT) Y SU RELACIóN CON LA VELOCIDAD DEL VIENTO EN LA REGIóN DE PUERTO VALLARTA


SEñAL DE LA CANíCULA (O MIDSUMMER DROUGHT) Y SU RELACIóN CON LA VELOCIDAD DEL VIENTO EN LA REGIóN DE PUERTO VALLARTA

Murrieta Costeño Oziel, Universidad Veracruzana. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La variación de la precipitación a lo largo del año muestra un periodo lluvioso entre mayo-octubre en Puerto Vallarta, se ha dicho que para el oeste de México durante periodo de canícula, la intensidad del viento es mayor al inicio y disminuye hacia el final, se quiere observar ese comportamiento en la región de Puerto Vallarta.  Identificar la señal de la canícula y su relación con el viento mediante los datos de una estación automática, durante el periodo 2010-2018, comparando un año con canícula marcada y un año sin canícula prácticamente.



METODOLOGÍA

Se utilizaron datos de la estación automática del centro universitario de la costa, las variables de precipitación y velocidad del viento. Se sumó la precipitación para obtener lo acumulado por quincena y se promedio el viento en igual tiempo. De acuerdo a García, 2015, se siguió su metodología para obtener la intensidad de la canícula: selecciona el periodo de lluvias mayo-octubre se localiza el primer máximo de precipitación entre mayo-julio se localiza el segundo máximo de precipitación entre agosto-octubre se promedia la precipitación de las quincenas que quedaron ubicadas entre los dos máximos, el valor obtenido corresponde a la precipitación promedio de la canícula (Pmsd). Imsd es un índice que determina la reducción de la precipitación durante el periodo de canícula Pmax es la máxima precipitación obtenida del primer o segundo pico de precipitación (del que sea mayor).


CONCLUSIONES

Se logró observar que el año con mayor intensidad de canícula fue el 2012 con 0.72, mientras que el viento comienza a disminuir una quincena antes del primer máximo. El año 2011 se tuvo una intensidad de 0.37 lo cual nos diría que no hubo canícula o fue muy débil (según García, 2015), se observa que el viento se comporta de manera oscilatoria, aumentando y disminuyendo. Para los años con canícula de mayor intensidad se observó la disminución en la velocidad del viento hasta su final cuando alcanza un segundo máximo de precipitación, mientras que en el año con menor intensidad se adelanta esa disminución y no es continua. En años con canícula intensa para la región de Puerto Vallarta el viento se comporta de acuerdo a la teoría descrita en los análisis de mayor área de estudio.
Najar Cantú Elena Margarita, Universidad Autónoma de Sinaloa
Asesor: Dr. Javier Alejandro Gonzalez Ortega, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)

DESPLAZAMIENTO COSíSMICO DEL EVENTO RIDGECREST MW 7.1 DEL 2019 EN CALIFORNIA EU


DESPLAZAMIENTO COSíSMICO DEL EVENTO RIDGECREST MW 7.1 DEL 2019 EN CALIFORNIA EU

Najar Cantú Elena Margarita, Universidad Autónoma de Sinaloa. Asesor: Dr. Javier Alejandro Gonzalez Ortega, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Recientemente se registraron sismos de magnitud moderada al este de California EU, sin embargo el que logro llamar la atención de todos fue el Mw 7.1 Ridgecrest, 6 de julio de 2019, por ser de magnitud considerable comparado con los sismos que han ocurrido anteriormente en esta zona. Este sismo ocurrió aproximadamente 34 horas después y a 11 km al noroeste de un evento Mw 6.4 en la misma región, el 4 de julio de 2019, a las 17:33 UTC. Esta región ha presentado varios eventos sísmicos de tamaño moderado. En los últimos 40 años, antes del evento del 4 de julio de 2019, se registraron 8 sismos Mw5+ dentro de 50 km alrededor del epicentro del sismo del 6 de julio de 2019. Debido a que es un sismo reciente no se cuenta con estudios tan detallados, es por ello que se desea investigar más a fondo este evento sísmico por medio de la geodesia satelital.



METODOLOGÍA

Se obtuvieron las series de tiempo 32 estaciones geodésicas cercanas al área del sismo Mw 7.1 Ridgecrest (UNAVCO, PBO), de este archivo se estimó el desplazamiento en las componentes N(norte), E(este), Vertical (altura) del día 5 y 6 de julio de cada una de las estaciones y se calculó la diferencia entre ellas, esta diferencia es el desplazamiento cosísmico en cada una de las componentes para todas las estaciones.  Después, se graficó en Excel y se calculó el vector de desplazamiento cosísmico para cada una de ellas. Teniendo toda esta información ordenada se realizó un mapa en el programa QGIS en el cual se introdujeron las coordenadas de las estaciones, el epicentro del sismo, el plano de la falla del sismo y los desplazamientos cosísmicos en 3 dimensiones.


CONCLUSIONES

Considero que las aplicaciones de la geodesia en la sismología han tenido un gran impacto ya que algunos instrumentos geodésicos como lo es el GPS complementan las mediciones de instrumentos sismológicos como los acelerómetros y sismógrafos, permitiendo así obtener mejores interpretaciones de los eventos símicos abriendo una nueva puerta a investigaciones, lo cual es muy importante y complementario a la sismología. Estudiar este tipo de sismos como el ocurrido el 6 de julio en California nos permiten generar nuevos conocimientos sobre este tipo de eventos, estudiarlos es de gran importancia ya que estos fenómenos pueden llegan a costar la vida de muchas personas así como grandes pérdidas económicas y materiales.
Navarro Islas José Gabriel, Universidad de Sonora
Asesor: Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)

CóMPUTO DE ALTO RENDIMIENTO, EL MéTODO DE DIFERENCIAS FINITAS Y SU APLICACIóN EN SISMOLOGíA.


CóMPUTO DE ALTO RENDIMIENTO, EL MéTODO DE DIFERENCIAS FINITAS Y SU APLICACIóN EN SISMOLOGíA.

Navarro Islas José Gabriel, Universidad de Sonora. Asesor: Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La sismología es una rama de la geofísica que se encarga de estudiar terremotos y la propagación de ondas elásticas y acústicas que se generan en el interior y la superficie de la Tierra. Por otro lado, la sismología de exploración consiste en generar ondas artificiales en el subsuelo para encontrar o describir las capas que forman a éste, estudiando cómo es que se propaga la onda y como cambian sus propiedades dependiendo de la capa en la que choca esta onda. Esta rama de la sismología permite encontrar incluso yacimientos de recursos naturales, como lo es el caso de los hidrocarburos. El presente resumen y trabajo hace alusión a la simulación de las ondas acústicas anteriormente mencionadas. Para poder estudiar estas ondas, además de usar la ecuación que define su comportamiento, se utilizan distintos métodos numéricos para simular el comportamiento de ésta, siendo uno de ellos el método de diferencias finitas. Con ayuda de este método y varios recursos computacionales podemos estudiar distintos subsuelos, y en base a eso, encontrar información de gran importancia acerca de subsuelos de nuestra Tierra, que podría ayudar a encontrar nuevos recursos, detectar nuevas fallas, entre otras cosas. Los recursos computacionales son de gran importancia, ya que estos métodos, requieren de mucha memoria y tiempo de cómputo. Es por eso que uno de los objetivos de este verano es aprender a como hacer eficiente este proceso utilizando distintos recursos computacionales, en nuestro caso, una supercomputadora tipo cluster. Para implementar el código de simulación de ondas acústicas, se utilizó el lenguaje de programación FORTRAN. Este permitió con facilidad codificar el método de diferencias finitas, y posteriormente, realizar un manejo dinámico de memoria utilizando apuntadores y OpenMP.



METODOLOGÍA

Se dio lectura a distinta bibliografía para relacionarse con el contenido del trabajo a realizar, principalmente el libro: Ikelle Luc y Amundsen Lasse (2018) Introduction to Petroleum Sismology¸ 2da edición. Pag. 1 - 72, 1315 - 1317; además de distinta bibliografía en internet. Se estudiaron a fondo la ecuación de onda acústica y sus propiedades, para de esta manera estar relacionado con su comportamiento y su utilidad. Una vez que se comprendió como es la ecuación de onda acústica, se estudió el método de diferencias finitas, el cual permite dar una solución aproximada a ecuaciones diferenciales parciales. Ya familiarizado con el método a utilizar, se aplicó este método a la ecuación diferencial de la onda acústica, tomándola en un plano bidimensional. Se dieron características al subsuelo a estudiar y de aquí se empezó la implementación del código de la simulación de esta ecuación. Para la implementación de la simulación de la onda acústica, se utilizó el lenguaje de programación FORTRAN. Antes de programar, se realizó un pseudocódigo para observar a grandes rasgos la estructura del programa, dado esto, se empezó a implementar el código. Se realizaron pruebas con una malla pequeña para observar si el programa estaba funcionando y una vez que se realizaron las modificaciones necesarias para que este funcionara, se pasó a paralelizar el programa. La paralelización consiste en convertir código secuencial en multihilo con la finalidad de utilizar múltiples procesadores simultáneamente para realizar una tarea, en este caso, se utilizó OpenMP para realizar esta paralelización, con el fin de calcular las presiones en los distintos puntos de la malla seleccionada en el subsuelo. Se realizaron pruebas a pequeña escala de la paralelización, usando cuatro procesadores. Posteriormente se pasó a utilizar la supercomputadora CeMIEGeo (http://www.cemiegeo.org/) . La supercomputadora cuenta con varios nodos de distintos tipos. Los utilizados en este caso son llamados PHI los cuales contaban con veinte nodos (procesadores) cada uno. Se realizaron distintas pruebas de eficiencia de paralelización, utilizando los dos distintos tipos de compiladores disponibles (GNU e Intel). Para que la paralelización sea más notable, se implementaron en el código el uso de apuntadores. Con esto, la parte secuencial del programa ya no tomaría tanto tiempo. Además, usando este recurso, se hace un uso más flexible y eficiente de memoria. Realizando más pruebas de eficiencia, se encontró que el compilador de Intel es un poco más rápido que el de GNU, por lo cual para el resto de las simulaciones se utilizó este compilador. Se utilizó el programa SeismicUnix para poder observar la salida del programa y ver gráficamente el comportamiento de la onda acústica en el medio seleccionado. Con esto y el programa implementado totalmente, se empezaron a realizar más pruebas con distintos medios.  


CONCLUSIONES

Durante esta estancia de verano se pudo observar el comportamiento de ondas acústicas en distintos medios, cambiando los parámetros en el programa generado que implementa el método de diferencias finitas. Esto facilitó conocer cómo las distintas capas del subsuelo interactúan con la onda, y de esta manera poder caracterizar estas capas. Además, también se pudo conocer el costo computacional que toma el realizar este proceso, así como experimentar de primera mano la importancia de la eficiencia que se debe de tener al realizar este tipo de implementación. El uso de la supercomputadora dejo en claro la necesidad de utilizar la paralelización en programas, sobre todo al generar mucha información. Es por esto que se puede concluir que se aprendió como es el cómputo de alto rendimiento y como mediante su implementación, se puede facilitar mucho ciertos trabajos en la computación, como lo es en el caso de la sismología y las diferencias finitas.
Navarro Salazar Fidel Alejandro, Universidad de Sonora
Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México

MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA


MEDIDAS DE TL EN CALCITA NARANJA Y PSL EN ORéGANO A DIFERENTES DOSIS DE RADIACIóN GAMMA

Aguilar Valdez Sofía Alejandra, Universidad de Guadalajara. Jiménez Salado Isabel, Instituto Politécnico Nacional. Morales Ramírez Natalia, Instituto Politécnico Nacional. Navarro Salazar Fidel Alejandro, Universidad de Sonora. Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se estudiará la detección de alimentos procesados por radiación a través de diferentes métodos. Se discutirán los conceptos que gobiernan la propiedad de luminiscencia del estado  sólido como un punto inicial para estudiar materiales con aplicaciones dosimétricas. De esta forma, podremos demostrar las ventajas de la irradiación de alimentos en México a partir de medidas de PSL (fotoluminiscencia) en orégano y TL (termoluminiscencia) en calcita naranja a diferentes dosis de radiación gamma.  Se trabajó con orégano debido a su importancia en el mercado mexicano, ya que se cosechan anualmente cerca de 4000 toneladas; de las cuales el 85% es exportado a Estados Unidos, el 10% se utiliza en el mercado doméstico y el 5% a países europeos y asiáticos. Debido a que las exigencias del mercado extranjero han de cumplirse en su totalidad, un método de esterilización viable es el de procesar a los alimentos por irradiación gamma. Aunado a lo anterior, también se trabajó con calcita naranja por sus propiedades luminiscentes como dosímetro natural. Las propiedades de TL de la calcita tienen aplicación en datación geológica, dosimetría ionizante y ultravioleta, así como en la evaluación de dosis gamma usadas para la preservación de comida.



METODOLOGÍA

Se trabajaron varias muestras de calcita naranja y orégano expuestas a diferentes dosis de radiación gamma de Cs137, en un rango de 50-3000 Gy, a través del irradiador autocontenido Gammacell 3000.  Para analizar las muestras de calcita y orégano, se utilizaron los métodos de TL y PSL respectivamente. Además, se revisaron varios conceptos que gobiernan la propiedad de luminiscencia del estado sólido; entre ellos  la teoría de bandas y su relación con la estructura cristalina de los materiales, la interacción de la luz con la materia, y la energía de activación. Esta última se obtuvo con la ecuación de Arrhenius de acuerdo al método de levantamiento inicial. En consecuencia, a partir de los resultados experimentales fue posible calcular el factor de frecuencia y la energía de activación. Para el estudio de las ocho muestras de orégano a diferentes dosis, se empleó el método de PSL a través del equipo SURRC Pulsed PSL System de la compañía SUERC. Dicho instrumento hace uso de un arreglo de diodos infrarrojos para detectar la señal emitida por la presencia de feldespato en las muestras de orégano. De los datos obtenidos de orégano irradiado fue posible observar que la evolución de la cuenta de fotones tiende a aumentar con respecto a la dosis. Así mismo, por medio del PSL se determinó que las muestras se encontraban irradiadas a partir de una dosis de 250 Gy. La evolución de la cuenta total con respecto a la dosis presenta en primera instancia un comportamiento lineal en las dosis de 50-500 Gy, seguido de un comportamiento exponencial De la misma forma, se trabajó con el desvanecimiento de la señal a través del tiempo para las muestras de orégano con dosis de 250, 1000, 2000 y 3000 Gy. Se trabajaron con estas dosis puesto que la muestra de 250 Gy fue la primera categorizada como positiva. Se realizó un estudio de las cuentas por segundo con respecto al tiempo para la señal de cada dosis en un intervalo de 34 días después de ser irradiadas. Se observó que las cuentas por segundo disminuyen con el tiempo; así mismo, la cuenta total decreció de forma lineal con una pendiente más pronunciada a mayor dosis. Sin embargo, fue posible presenciar una recuperación de las cuentas por segundo y cuenta total en cada dosis debido a la participación de trampas previamente inactivas. Adicionalmente, para muestras mayores a 250 Gy era posible obtener un resultado positivo mediante el método PSL debido a la alta concentración de poliminerales como feldespatos. Las dosis utilizadas de calcita fueron de; 50, 100, 250, 500, 1000, 1500, y 2000 Gy. Para obtener resultados con mayor fiabilidad, se utilizaron dos muestras por cada dosis y doce adicionales con dosis de 1000 Gy con la finalidad de estudiar la pérdida de señal. Los picos de las curvas de brillo se encuentran en un rango de temperatura de 134-153°C. Así mismo, la respuesta de la intensidad termoluminiscente es directamente proporcional a la dosis a la que fueron expuestas las muestras; dado que se espera que a mayor dosis, habría mayor respuesta termoluminiscente. Con respecto a los parámetros de atrapamiento, se observó un comportamiento exponencial para la energía de activación y el factor de frecuencia. La respuesta TL disminuye conforme pasan los días, mostrando un decaimiento del 57%. De la misma forma, la banda de reatrapamiento aumenta provocando que la banda principal disminuya; es decir, el rango de la temperatura máxima de la respuesta TL cambia a 143-175°C después de 34 días.


CONCLUSIONES

El método de PSL demostró ser sensible y eficiente para el análisis de muestras irradiadas de orégano, detectando material irradiado en un plazo de 34 días para muestras mayores a 250 Gy. Debido a una alta concentración de poliminerales, como feldespatos y silicatos, presentes en el orégano. En consecuencia, el método de PSL es útil para la detección a largo plazo de alimentos secos irradiados conservados en ambientes obscuros.  Por otro lado, a través del método de TL se obtuvo que la calcita naranja mantiene su señal por más de un mes de ser irradiada. Por este motivo se recomienda el material como dosímetro natural para el estudio de irradiación de alimentos y datación geológica.  A través del verano de investigación, logramos entender la participación de los materiales con aplicaciones dosimétricas en la detección de alimentos irradiados. Comprendimos que la transferencia de la metodología a la industria es importante, ya que en este caso el fomentar dicha práctica en México como control de calidad es una necesidad dadas las aplicaciones de la calcita mineral en la industria química y la alta demanda del orégano como producto de exportación y de consumo interno en la alimentación.
Nepomuceno Eslava Roberto Cesar, Instituto Politécnico Nacional
Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México

SEPARACIóN DE ZIRCONES DE GRANITOIDES CRETáCICOS DEL NW DE MéXICO PARA SU CARACTERIZACIóN MEDIANTE TéCNICAS DE MICROSCOPíA


SEPARACIóN DE ZIRCONES DE GRANITOIDES CRETáCICOS DEL NW DE MéXICO PARA SU CARACTERIZACIóN MEDIANTE TéCNICAS DE MICROSCOPíA

Nepomuceno Eslava Roberto Cesar, Instituto Politécnico Nacional. Asesor: Dr. Alexander Iriondo Perrée, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Hace aproximadamente 108 Ma en el NW de México se tenía un fenómeno de subducción asociado a la placa oceánica de Farallón subyaciendo a la placa continental norteamericana, este fenómeno ocasionó el establecimiento de un arco cordillerano en la placa continental causando un continuo magmatismo desde granitos post colisionales, conocidos como La Posta (~98 Ma), hasta intrusiones de ~50 Ma o más jóvenes en Sonora continental. Es a partir de este arco magmático continental cordillerano, que se evaluará el proceso de asimilación cortical de los magmas asociados en el NW de México, probando la idea de que según va evolucionando la subducción, los magmas comienzan a asimilar más y más corteza según transcurre el tiempo y el arco magmático comienza a migrar hasta el interior del país.



METODOLOGÍA

Una vez recolectadas las muestras en campo, el trabajo que se realizó en el laboratorio fue la separación, montaje y caracterización de zircones, procesos realizados dentro del el Laboratorio de Caracterización Mineral (CarMINLab) en el Centro de Geociencias (CGEO) de la Universidad Nacional Autónoma de México en su Campus Juriquilla, Querétaro. Las muestras de roca, aproximadamente de 4 kg, fueron pulverizadas en una quebradora de quijadas para posteriormente ser tamizadas en una fracción de malla 60 (0.250 mm). El material menor a está fracción (<60) era el que se requería para continuar con el siguiente proceso, mientras que la fracción mayor (>60) era colocada y guardada en una bolsa resellable de plástico, tipo Ziploc. Una vez tamizado el material, el siguiente paso fue el lavado de muestra con agua de la llave, realizándolo con vasos de precipitado de 1L. Este lavado se hizo con el objetivo de eliminar las partículas más finas de cada muestra; después de este lavado, las muestras eran metidas en un horno a ~80°C durante un 1 día. Después de haber secado la muestra, se realizó la separación de minerales magnéticos, paramagnéticos y no magnéticos en un separador magnético tipo Frantz. Una porción de la parte no magnética (~30 gr) fue introducida en un líquido de alta densidad como lo es el yoduro de metileno o MEI (densidad = 3.33 g/cm3), utilizando un embudo de vidrio; esto con el fin de obtener el material más denso que el MEI, donde se encontrarán los zircones con densidades entre 4.6-4.7 g/cm3. Posteriormente, se empleó una lupa binocular y pinzas de precisión para elegir y montar los zircones uno a uno sobre una placa de vidrio con cinta adhesiva de doble cara ubicada en una segunda lupa binocular. Una vez montados los zircones, sobre la placa se colocaron moldes de plástico donde fue vertida la resina epoxi para encapsular los zircones y hacer las probetas. Estas son preparadas mediante un proceso de desbastado y pulido utilizando lijas y pasta de alúmina. Las probetas son posteriormente recubiertas con carbón con el propósito de hacerlas conductoras de electrones y con ello poder ser introducidas en un microscopio electrónico de barrido (SEM, por sus siglas en inglés) marca HITACHI modelo S-3100H. Este microscopio permite obtener imágenes de catodoluminiscencia (CL) que ayudan a caracterizar los zircones para su posterior fechamiento. Estas imágenes son complementadas con imágenes de microscopía óptica de luz transmitida y reflejada y, en conjunto, nos permiten observar la estructura interna del zircón para evaluar la presencia de zoneamientos en los cristales e incluso la presencia de zircones heredados (semillas).


CONCLUSIONES

La separación de zircones de una veintena de granitoides cretácicos con esta metodología convencional empleada en el CarMINLab permitió obtener una separación de minerales de gran calidad, de modo que de cada muestra se han obtenido diferentes minerales magnéticos, para-magnéticos y no magnéticos. Debido a la gran densidad del zircón, se logró la separación de casi todas las especies minerales contenidas en el material no magnético, inmersas en ioduro de metileno (MEI), diferenciando dos o más poblaciones de zircones y centenares de estos. El montaje se convierte en un proceso totalmente selectivo, eligiendo las poblaciones de zircones más representativas de cada muestra. Por lo tanto, se obtiene una probeta con una buena representación de zircones y con un desbaste relativamente homogéneo, y en consecuencia, y por el gran número de zircones montados, se aumenta la probabilidad de encontrar zircones heredaros (semillas). La caracterización de zircones con catodoluminiscencia (CL) permitió observar las fases de cristalización de cada zircón montado, y se observaron discordancias en los crecimientos en algunos de ellos, relacionando estas discordancias a semillas (zircones heredados). Por último, con las imágenes de catodoluminiscencia y microscopía óptica se eligieron los lugares donde se aplicaría la ablación láser para su futuro fechamiento por el método U-Pb para que podamos evaluar las ideas sobre el incremento de asimilación cortical según avanza el proceso de subducción de la placa Farallón en el Cretácico Tardío y el Cenozoico Temprano.
Neri Mina Verónica, Universidad Autónoma del Estado de México
Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche

EVALUACIóN DE PELIGROS HIDROMETEOROLóGICOS "HURACANES 1954-2016, LAGUNA DE TéRMINOS, CIUDAD DEL CARMEN, CAMPECHE"


EVALUACIóN DE PELIGROS HIDROMETEOROLóGICOS "HURACANES 1954-2016, LAGUNA DE TéRMINOS, CIUDAD DEL CARMEN, CAMPECHE"

Neri Mina Verónica, Universidad Autónoma del Estado de México. Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

En los años 1995 y 2002 el Estado de Campeche recibió el impacto de los huracanes Opal, Roxanne e Isidore, el peligro por incremento del nivel medio del mar, la intensidad del nivel de precipitaciones y los efectos del paso de un evento meteorológico extremo como los mencionados anteriormente. Con el presente trabajo se pretende realizar una recopilación de información de los diferentes huracanes que han impactado en la zona de estudio desde el año 1954 al 2016, del mismo modo actualizar el análisis de peligro por inundación por marea de tormenta a través de gráficas que expliquen la dinámica de estos huracanes, el tiempo total que permanecieron en área de estudio.



METODOLOGÍA

Se definió un área donde se ve afectada la Laguna de Términos por los diferentes huracanes de 20 cm por 25 cm en Arc gis. La base de datos que se obtuvo de la NOAA contiene datos de 28 huracanes de los cuales solo 24 impactaron en la zona de estudio. Para depurar la base de datos principal, se elaboraron tablas en Excel,  de los huracanes, los datos más representativos, como son el ID de este evento, año en que se presentó el fenómeno, nombre del huracán, la fecha y hora de cada registro (estos registros se realizan cada seis horas), la clasificación que la NOAA les da dependiendo de su intensidad, sus coordenadas (latitud y longitud), la velocidad del viento en millas por hora, la presión en milibares, la distancia al punto más cercano al que se encuentra dentro del área, y la última columna que se refiere a la distancia que tienen los puntos al área.  Para procesar la base de datos se usó el programa ArcGis, con el cual se crearon shapefiles que representan la trayectoria que siguieron los huracanes, los registros fueron representados por puntos los cuales se digitalizaron para poder hacer un mejor análisis. Con la información se realizará la estadística de estos huracanes, posteriormente se ejecutará el programa HD23, para conocer la marea de tormenta producida por cada huracán.


CONCLUSIONES

Como resultados se tiene la base de datos depurada de la NOAA, en la cual se identifican los registros que tienen mayor influencia en la zona de estudio y las horas que estuvieron presentes en la zona definida, al paso de cada fenómeno hidrometeorológico, de 24 huracanes. El Huracán con mayor tiempo en la zona fue el Hanna en el 2014, donde se clasifico como Tormenta Tropical, con una velocidad de viento máxima de 30 mph y una presión de 1002 mb. El Huracán Roxanne 1995 con una duración de 24 horas, una velocidad de viento de 65 mph y un presión de 990 mb, por último el Huracán Brenda 1973, con 24 horas, una velocidad de viento de 80 mph y una presión de 977 mb aproximadamente. Definir la trayectoria de estos fenómenos meteorológicos resulta importante para los tomadores de decisiones, ya que existen diversos programas para el proceso de datos que generan modelos para la predicción, es importante apoyar en cambiar la gestión reactiva con la que México, por una cultura preventiva, reduciendo daños y la vulnerabilidad de la población. Como resultado del procesamiento de datos de la NOAA es posible contar con el conocimiento para la elaboración de modelos espaciotemporales de los peligros naturales y comprender la necesidad de realizar una caracterización de los espacios con mayor riesgo por ciclones tropicales tomando en cuenta que el cambio climático global vendrá a acrecentar la magnitud de estos. 
Nieto Marín Pedro Antonio, Universidad Autónoma de Sinaloa
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

ESTUDIO DE LA SIMULACIóN DEL DETECTOR BEBE Y MINIBEBE PARA EL EXPERIMENTO MPD EN NICA


ESTUDIO DE LA SIMULACIóN DEL DETECTOR BEBE Y MINIBEBE PARA EL EXPERIMENTO MPD EN NICA

Nieto Marín Pedro Antonio, Universidad Autónoma de Sinaloa. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El detector multiusos (MPD, por sus siglas en inglés) es un experimento capaz de detectar hadrones cargados, electrones y fotones en colisiones de iones pesados que estará ubicado en la Instalación del Nuclotron Colisionador de Iones (NICA) del Instituto Conjunto de Investigación Nuclear (JINR). El principal propósito del MPD es estudiar las propiedades de la materia nuclear en la región de la máxima densidad bariónica. Para alcanzar este propósito es necesario crear detectores capaces de crear un sistema de seguimiento tridimensional y un sistema de identificación de partículas. México participa en la instalación de dos detectores de monitoreo de haz-haz (BEBE y miniBEBE) en el grupo mexicano MEXnICA para proveer un disparador con un tiempo de resolución temporal suficientemente corto (30 ps y 20 ps respectivamente). Esto con la finalidad de mejorar la determinación del plano de reacción en el experimento MPD y estudiar las etapas tempranas de las colisiones de iones pesados. Es importante conocer el comportamiento de ambos detectores, por lo que en este proyecto se hizo uso de los simuladores Geant4 y MpdRoot para conocer el comportamiento de partículas cargadas al interaccionar con un tipo de plástico centellador en especifico.



METODOLOGÍA

Para hacer uso de los programas necesarios para la simulación y análisis de datos se instaló el sistema operativo Ubuntu 18.04 LTS en el laboratorio de computación en el edificio VAL 4 de energías renovables ubicado en el Ecocampus Valsequillo de la Benemérita Universidad Autónoma de Puebla (BUAP). Para simular la interacción de partículas cargadas con el plástico centellador Bc422 y Bc404 se instaló la paquetería Geant4, en el cual se creó un archivo en el lenguaje C++ para construir un detector de 2 cm por lado y 3 mm de ancho. Se creó un sistema de coordenadas en el detector para hacer incidir 20 partículas cargadas a diferentes energías en cada punto del cuadro, en nuestro caso piones y muones negativos. Cada partícula incidente crea fotones al interactuar con el plástico centellador, por lo que se hizo un estudio de la resolución temporal comparando el detector con cuatro, tres, dos y un scorer. Por lo que es de nuestro interés saber el fotón que llegue más rápido al llegar a cada scorer, entonces por cada evento se hizo un ajuste con la distribución Landau y se tomó el promedio mínimo del conjunto de todos los scorers. Para cada coordenada se repitió el proceso, hasta llenar un solo conjunto de datos. Se llenó una gráfica del número de entradas por cada tiempo mínimo que se registró. Se pudo observar que se crean dos gaussianas debido a procesos de reflexión de los fotones dentro del plástico centellador, sin embargo se tomó en cuenta solo la desviación estándar de la primera distribución, la cual se define como la resolución temporal para cada detector. Se instaló la paquetería de MpdRoot para simular la interacción de las partículas en el detector BE-BE para 5000 eventos de colisiones de iones de oro a una energía de 9 GeV y un parámetro de impacto de 0 a 16 fm. El objetivo fue determinar el promedio de partículas incidentes para cualquiera de los hexágonos con plástico centellador de los que están conformados cada anillo del detector BEBE así como el promedio de la energía depositada en cada uno. Finalmente, se construyó el detector miniBEBE en Geant4 con 8 anillos con 40 centelladores cada uno con el propósito de compararlo con la versión de 16 tiras con 20 centelladores cada una, con el uso del tiempo de vuelo de la primera partícula incidente cargada. Se quiere obtener una gráfica del número de anillos y tiras con la eficiencia del disparador para cada versión del miniBEBE y seleccionar la mejor.


CONCLUSIONES

Durante la estancia de verano se logró obtener conocimientos sólidos en el área experimental y fenomenológica de física de altas energías y ponerlos en práctica en simulación en el experimento MPD. Se espera implementar el detector miniBEBE al MpdRoot en el futuro, por lo que no ha sido posible realizar simulaciones en el tiempo del verano científico para este detector en específico, sin embargo, se obtuvieron datos satisfactorios para cada tipo de plástico centellador y se pudo simular con éxito el detector BEBE.
Noguera Rodríguez Felipe, Universidad de Colima
Asesor: Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)

CONJETURA DE SCHMID SOBRE P-GRUPOS.


CONJETURA DE SCHMID SOBRE P-GRUPOS.

Noguera Rodríguez Felipe, Universidad de Colima. Asesor: Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Sea Q un grupo finito y A un Q-módulo, decimos que A es cohomológicamente trivial sobre Q si sus grupos de Cohomología de Tate Hn(S,A) es trivial para todo entero n y todo subgrupo S de Q. En el año 1980 Schmid publicó el artículo "A Cohomological Property of Regular p-Groups" en el cual demostró que si G es un p-grupo no regular, N un subgrupo normal no trivial y el cociente Q=G/N no es cíclico, entonces Hn(Q,Z(N)) era distinto de 0 para todo entero n, a partir de esto, el conjeturó lo siguiente: Conjetura: Sea G un p-grupo finito no-abeliano, entonces Z(Ø(G)) no es cohomológicamente trivial sobre el cociente G/Ø(G). Donde Z(G) representa el centro de G y Ø(G) su subgrupo de Frattini. En 2011 Alireza Abdollahi publicó un artículo llamado "Cohomologically trivial modules over finite groups of prime power order" en el cual demostró que la conjetura es falsa, sin embargo, aún quedan muchas preguntas sin resolver, una de ellas es cuando un grupo cumple (o no) la conjetura.



METODOLOGÍA

Se utilizaron los siguientes libros Cohomology of Groups de Kenneth Brown y A Course in Homological Algebra de Peter Hilton y Urs Stammbach, así como diversass fuentes para conocimientos de homología y cohomología necesarios para comprender la conjetura. Se leyó el artículo de Schmid previamente mencionado y se realizó un análisis de las pruebas utilizadas para buscar inspiración en cuanto al problema. Se utilizó un resultado Gaschutz-Uchida que nos dice que si A y Q son p-grupos finitos entonces A es cohomológicamente trivial sobre Q si y sólo si existe un entero n tal que Hn(Q,A)=0, junto con un programa llamado GAP, el cual es un sistema de algebra discreta computacional, para obtener contraejemplos a la conjetura mediante el siguiente código: f:=function(G) local H0,ZP,P,i,j,L1,L2; P:=FrattiniSubgroup(G); ZP:=Center(P); L1:=List(RightCosets(G,P),i->Representative(i)); L2:=List(ZP,i->Product(L1,j->iˆj)); H0:=FactorGroup(Centralizer(ZP,G),Group(L2)); return Size(H0); end; El cual utiliza el resultado de Gaschutz-Uchida para decir si el grupo G cumple la conjetura. Mediante este código se confirmó que para grupos de orden 27, 37 y 57 y potencias menores, la conjetura es cierta. En el artículo [Abdollahi, Alireza; Guedri, María;  Guerboussa, Yassine; "Non-triviality of Tate cohomology for certain classes of finite p-groups"] se demostrad que si G es un grupo con clase de nilpotencia igual o menor a 3, entonces G cumple la conjetura, además, se sabe que hay exactamente 10 grupos de orden 28 que no cumplen la conjetura y que los 10 son de clase de nilpotencia igual a 4, por lo que inspirados utilizamos consideramos el cociente Z(Ø(G))/Z(G) en GAP.


CONCLUSIONES

Finalmente obtuvimos la siguiente conclusión mediante GAP: Teorema: Sea G un grupo de orden 28, G no cumplé la conjetura si y sólo si su clase de nilpotencia es 4 y el cociente Z(Ø(G))/Z(G) es isomorfo a C2 x C2 x C2, donde C2 es el grupo cíclico de orden 2. Se espera poder dar una prueba analítica al teorema previamente mencionado, asi como trabajar también en grupos de orden 29. Finalmente, se está redactando un artículo de divulgación sobre la conjetura de Schmid.
Obeso Soberanes Andrea, Universidad Autónoma de Occidente
Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente

REMEDIACIóN DE SUELO Y AGUA CONTAMINADOS POR HIDROCARBUROS


REMEDIACIóN DE SUELO Y AGUA CONTAMINADOS POR HIDROCARBUROS

Obeso Soberanes Andrea, Universidad Autónoma de Occidente. Zúñiga Mercado Diana Laura, Universidad Autónoma de Occidente. Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Los derivados de hidrocarburos (gasolina, queroseno, aceites, combustibles, parafinas, y el asfalto, entre muchos otros), no solo impactan la capa superficial del suelo, también corren el riesgo de ser movilizados hasta aguas subterráneas generando así su contaminación, o incluso pueden ser transportados por escorrentía incrementado aún más el daño ambiental. Dicha contaminación afecta las condiciones fisicoquímicas de agua al presentarse una disminución de oxígeno disuelto debido a la reducción de la transferencia de oxígeno entre la fase atmósfera – agua, al igual que la entrada de luz al medio, lo que inhibe el crecimiento de ciertas especies y disminuye la fijación de nutrientes (Jiménez. 2006). Uno de los efectos adicionales tanto en agua como suelos es que el petróleo consume oxígeno, aumenta la demanda bioquímica del agua y puede generar condiciones anóxicas. Los cuerpos de agua como lagos, ríos y humedales ofrecen una variedad de recursos y comunidades acuáticas que pueden ser amenazadas por derrames de hidrocarburos. Los hidrocarburos tienden a flotar debido a la diferencia de densidad que presentan con respecto al agua, bloqueando de esta manera la penetración de la luz y el intercambio de gases. El tipo de suelo (arena, limo y arcilla) y la cantidad de materia orgánica existente determinan el destino de los hidrocarburos del petróleo y la extensión del daño a las plantasreportan que "la contaminación por hidrocarburos de petróleo”ejerce efectos adversos sobre las plantas indirectamente, generando minerales tóxicos en el suelo disponible para ser absorbidos, además, conduce a un deterioro de la estructura del suelo; pérdida del contenido de materia orgánica; y pérdida de nutrientes minerales del suelo, tales como potasio, sodio, sulfato, fosfato, y nitrato” de igual forma, el suelo se expone a la lixiviación y erosión. La presencia de estos contaminantes, ha dado lugar a la pérdida de la fertilidad del suelo, bajo rendimiento de cosechas, y posibles consecuencias perjudiciales para los seres humanos y el ecosistema entero.



METODOLOGÍA

Primeramente se toman las muestras de tres tipos de suelos distintos (arenoso, arcilloso y mimoso). A los cuales pasan por análisis de caracterización tales como, textura, pH, conductividad eléctrica, sales solubles, cationes y a iones. Esto con el fin de saber con que tipo de suelos se va a trabajar y finalmente ayudar a la hora de interpretar resultados. Teniendo ya las muestras de suelo, sé contamina el suelo por cada kilo de suelo son 60 gr de aceite. Una vez contaminado el suelo realizar el primer lavado con un tiempo de 30 min a 1500 rpm colocando 200 gr de muestra de suelo en una solución surfactante de 600 mL (597 mL de agua destilada y 3 mL de detergente). Pasando los 30 min de lavado de cada muestra de suelo pasar a dejarlos sedimentar por 24 hrs. Realizar el primer lavado de 2 hrs. Siguiendo el mismo procedimiento del lavado de 30 min. Pasando las 24 hrs de sedimentar decantar las muestras y pasarlas al horno a 105 °C por 24 hrs. Continuar con el segundo lavado de ambos tiempos, siguiendo el mismo procedimiento de lavado, sedimentación de la muestra y secado. Para pronto iniciar con la extracción de grasas con la ayuda del equipo sohxlet. Después de haber realizado el segundo lavado se deja la solución en sedimentación por 24 horas, posteriormente se procede a decantar la solución para dejar únicamente el suelo en el vaso de precipitado, y dicho suelo se lleva a secar por 24 horas en el horno a 105°C. Al terminar el secado de todas la muestras se toman 10 gr. de cada tipo de suelo, para posteriormente llevar cada muestra a la extracción de grasas con el método de soxhlet. La muestra sólida se coloca en un cartucho de material poroso y se sitúa en la cámara del extractor soxhlet, se calienta el disolvente extractante, que en este caso son 200 ml de Hexano que se encuentran en el matraz, se condensan los vapores que después caen gota a gota sobre el cartucho que contiene la muestra y al llegar a un cierto límite, el disolvente con las grasas disueltas, retorna al matraz en ebullición. Este proceso (ciclo) se repite 6 veces hasta que se completa la extracción de grasas de la muestra y se concentran en el disolvente. Se realiza la extracción a los tres tipos de suelos que fueron lavados a dos diferentes tiempos, en total se hacen 6 extracciones con soxhlet. Una vez terminada cada extracción se realiza el secado del extracto, se deja el matraz en la plancha con una temperatura alta, hasta que se logra evaporar todo el Hexano, y en el matraz solo quedan las grasas que fueron extraídas, se pone a secar el extracto durante 20 minutos en el horno y posteriormente se procede a pesar cada uno de los extractos. Al obtener el peso de cada extracto realizamos una resta del peso que tenemos del matraz a masa constante y del peso del matraz con el extracto, el resultado es la cantidad exacta de grasas que se removieron de la muestra. Se aplica el mismo procedimiento pero utilizando agua en lugar de suelo, se contaminan 200 ml de agua con 6.4 gr de aceite y se realizan los lavados de 30 minutos y de 2 horas correspondientemente. Esto para verificar si el proceso de lavado funciona igual con el agua que con el suelo. Se dejan sedimentar los extractos durante 24 horas y posteriormente se llevan a filtrar utilizando tierra de diatomeas ya que el decantar con las muestras de agua no funciona. El extracto de aceite que queda en los filtros se coloca en un cartucho de material poroso y se procede a realizar la extracción con soxhlet y a pesar el extracto de grasas y aceites, igual que con las muestras de suelo.


CONCLUSIONES

Durante la estancia de verano se obtuvo lo siguiente: El mayor porcentaje de remoción de grasas y aceites se dio en el suelo Arcillo limoso con un tiempo de lavado de 2 horas, aunque se presentó mayor remoción en los lavados de 2 horas no resultó ser tan relevante el tiempo de lavado. El hecho de que en este tipo de suelo se haya presentado un mayor porcentaje de remoción se debe a las características de estos tipos de suelos. Se puede concluir que la metodología empleada para el lavado de los suelos contaminados también es viable para utilizarse con aguas contaminadas por hidrocarburos, ya que presenta la misma efectividad.
Ochoa Alcalá Dulce Adilene, Universidad de Sonora
Asesor: Dr. Luis Manuel Alva Valdivia, Universidad Nacional Autónoma de México

PALEOMAGNETISMO


PALEOMAGNETISMO

Ochoa Alcalá Dulce Adilene, Universidad de Sonora. Asesor: Dr. Luis Manuel Alva Valdivia, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La Región Costera Sur del Estado de Sonora está caracterizada por un amplio magmatismo de gran variedad petrogenética, comenzando con el emplazamiento de rocas intrusivas relacionados al Basamento Laramídico (90-40 M.A) las cuales se encuentran cubiertas por un volcanismo de tipo calcoalcalino de edad Mioceno, productorde la subducción de la Placa Farallón debajo de la Placa Norteamérica. Al término de la  subducción (~12.5 M.A), comenzó un proceso de extensión oblicua, llamado Proto-Golfo que se identifica por un extenso volcanismo anorogénico con composiciones que van desde félsico hasta máfico. En trabajos previos se ha identificado que parte de la secuencia magmática (12.5 - 10 M.A) en la región costera presenta una importante deformación transtensional caracterizada por la rotación y el basculamiento de bloques rocosos. Sin embargo y particularmente, se ha identificado por medio de una cartografía, flujos magmáticos máficos que forman mesetas subhorizontales sin aparente basculamiento y que presentan una amplia extensión en la región y que, además, representan la unidad más joven, sobreyaciendo al volcanismo félsico-intermedio (12.5 - 10 M.A=Así, con este trabajo, se propone que esta secuencia magmática máfica representa una etapa en el tiempo sin deformación y que es importante para contribuir con el conocimiento geológico de la evolución de la Geodinámica del Proto-Golfo.



METODOLOGÍA

Se trabajaron 13 muestras de roca ígnea de composición máfica (basaltos), las cuales representan diferentes sitios paleomagnéticos en la región de estudio (Guaymas, Son.- Empalme, Son.) .  En cada sitio se obtuvo entre 9 y 12 núcleos de roca aprox. de 2.4 cm de diámetro, los cuales fueron cortados en rodajas (especímenes) de 2.2 cm de largo. De cada núcleo se seleccionó un especimen para ser utilizado como muestra piloto para seleccionar el método de desmagnetización adecuado (desmagnetización por campos alternos AFD o desmagnetización térmica THD)ç. Con las muestras piloto, se pudo determinar que el método de campo alterno, es el más efectivo para desmagnetizar. Se desmagnetizaron un total de 117 especímenes por el método de campo alterno, en un desmagnetizador MOLSPIN LIMITED medidos en un magnetómetro (dual speed spinner magnetometer) JR-6 de la marca AGICO.    Ademas, de cada sitio se tomó aproximadamente 20 mg de roca, con lo cual serealizó un análisis de histéresis con lo cual se puede estimar la mineralogía magnética presente en la roca. Con los datos adquiridos a partir del análisis de histéresis, se realizaron las gráficas correspondientes (momento magnético (Am) / Campo (T)) de cada sitio para porteriormente dar paso a su interpretación.   También se realizó un experimento de susceptibilidad/ temperatura alta y baja (K-T). La metodología para este experimento, consistió en obtener, a partir de los remanentes obtenidos después de cortar los núcleos, 100 g aprox. de roca de cada sitio, los cuales, fueron molidos en un mortero de ágata. Para la realización del experimento de susceptibilidad vs temperatura (alta y baja) se tomó cada contenido de muestra previamente molida y se colocó en un tubo de ensayo limpio para ser analizada en un equipo MFK1-FA (multi-function KAPABRIGE), primeramente a baja temperatura. Estó consistió, primeramente enintroducir un tubo de ensayo en el cilindro porta muestra, despues se vertió nitrógeno líquido (cuando el programa lo indicó) para bajar la temperatura en el tubo porta-muestra a la temperatura deseada y posteriormente se añadió gas Argón para eliminar el exceso de nitrógeno y evitar que la temperatura descendiera más de lo requerido por el equipo.D, espués de estar a la temperatura adecuada (-193 °C) se comenzó la medición en el equipo. El tiempo de medición por cada muestra en baja temperatura fue de una hora aprox., seguido de esto, la muestra (en el tubo de ensayo) se midio en alta temperatura, por un lapso de dos horas aprox.terminada la medición, la muestra es desechada. Este procedimiento se realizó con las 13 muestras de cada sitio.  


CONCLUSIONES

A partir de la estancia de verano se adquirieron conocimientos teóricos acerca del Paleomagnetismo: el estudio de la evolución del campo magnético terrestre que a ocurrido a lo largo de las  eras geológicas.  , También se desarrollaron habilidades para el manejo y manipulación de equipos utilizados en este tipo de análisis.  
Olmos Velderrain Daniela, Universidad de Sonora
Asesor: Dr. Gerardo Gutiérrez Juárez, Universidad de Guanajuato

ENFOCAMIENTO DE ULTRASONIDO INDUCIDO CON LáSER CON APLICACIONES BIOMéDICAS.


ENFOCAMIENTO DE ULTRASONIDO INDUCIDO CON LáSER CON APLICACIONES BIOMéDICAS.

Olmos Velderrain Daniela, Universidad de Sonora. Asesor: Dr. Gerardo Gutiérrez Juárez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El ultrasonido inducido por láser (USIL) ha sido utilizado ampliamente en diversas áreas de la ciencia. En el área médica, una de sus aplicaciones consiste en destruir tejidos dentro del cuerpo de manera precisa al enfocar las ondas de USIL. Se buscó caracterizar distintas lentes fotoacústicas construidas en el laboratorio y usarlas para enfocar ondas de USIL, las cuales serán empleadas para estimular tejido ex vivo y ver su respuesta fisiológica.  



METODOLOGÍA

Se construyeron y probaron distintos sensores a base películas de polímero de PVDF que registran la intensidad USIL. Se montó un experimento donde se utilizó un dispositivo controlado por medio de arduino para desplazar un sensor a lo largo del eje focal de las lentes acústicas a fin de caracterizarlas.      Se realizó un análisis de los resultados obtenidos para determinar experimentalmente el foco de las lentes acústicas. Se fabricó un fantasma que mimetiza un trombo en una arteria para posteriormente estudiar los efectos del USIL.


CONCLUSIONES

Se presentaron problemas en la implementación de los sensores, ya que no presentaban un funcionamiento adecuado al sumergirse en líquidos. El dispositivo diseñado para desplazar los sensores fue construido con éxito y ayudo a facilitar la caracterización de las lentes acústicas.   Fue posible localizar el foco en una de las lentes metálicas construidas, a la cual además se le depositó una capa de cinta eléctrica líquida en su parte plana. Fue fabricado el fantasma y se continuará trabajando con él para demostrar si es posible observar una respuesta fisiológica.
Olvera Reyes Vanesa Rosire, Universidad Autónoma de Guerrero
Asesor: Dr. Néstor García Chan, Universidad de Guadalajara

SIMULACIóN NUMéRICA DE TRáFICO VEHICULAR PARA DIFERENTES PERFILES VIALES.


SIMULACIóN NUMéRICA DE TRáFICO VEHICULAR PARA DIFERENTES PERFILES VIALES.

Olvera Reyes Vanesa Rosire, Universidad Autónoma de Guerrero. Asesor: Dr. Néstor García Chan, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Analizaremos la eficiencia de un tramo de carretera en el Área Metropolitana de Guadalajara, México, realizando una comparativa entre diversos escenarios (estados) de este dominio. Con el afán de hacer un modelo de tráfico vehicular más realista, hemos aplicado a la simulación numérica diferentes perfiles viales, tales como, cambio en el número de carriles, semáforos y rampas de acceso.



METODOLOGÍA

Primeramente, se analizará el problema mediante un modelo matemático continuo, tomando como base un modelo anterior para un tramo de carretera homogénea con un solo carril, agregando a este las expresiones que indican cada uno de los perfiles viales. Utilizando un modelo para el flujo de tráfico de tipo LWR (Lighthill-Whitham-Richards), determinaremos el programa que realizara la simulación numérica, en la cual, se analizarán cada uno de los escenarios de la carretera y con los datos resultantes se harán las comparaciones. 


CONCLUSIONES

Se compararon las gráficas y los datos que arroja la simulación numérica como la cola de tráfico, el flujo, el tiempo estimado de estancia del auto, entre otros. Obteniendo datos diversos de cada uno de los escenarios, logrando así los resultados esperados. Siendo las gráficas la mejor forma de notar las diferencias.
Orozco Alvarez José Carlos, Universidad de Guadalajara
Asesor: Dr. María Eugenia Castro Sánchez, Benemérita Universidad Autónoma de Puebla

ESTUDIO COMPUTACIONAL DE NANOMATERIALES CON FULLERENOS FUNCIONALIZADOS CON POSIBLES APLICACIONES EN NANOMEDICINA


ESTUDIO COMPUTACIONAL DE NANOMATERIALES CON FULLERENOS FUNCIONALIZADOS CON POSIBLES APLICACIONES EN NANOMEDICINA

Orozco Alvarez José Carlos, Universidad de Guadalajara. Asesor: Dr. María Eugenia Castro Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La estabilidad de los fullerenos vacíos depende principalmente de la energía de tensión. Sin embargo, la estabilidad de los Endofullerenos o Fullerenos endoédricos, con clústeres metálicos depende de la transferencia de carga del clúster a la caja, las propiedades electrónicas de la caja vacía y la coordinación entre el metal y el esqueleto de la caja [1]. El estudio de los Endofullerenos es complejo por la dificultad de su síntesis y caracterización, así el estudio teórico-computacional de estos sistemas es una alternativa para analizar sus propiedades fisicoquímicas. En particular, es de gran interés predecir cuáles son los fullerenos más favorables para encapsular clústeres metálicos para su posible aplicación en nanomedicina.



METODOLOGÍA

Se propone un análisis computacional para conocer el comportamiento de distintos iones metálicos en el interior de fullereno C60 y comparar las energías de estabilización del sistema que cumpla con características favorables para su aplicación en nanomedicina y nanotecnología.  Se estudiaron los siguientes compuestos: V@C60, V+4@C60, V+5@C60,VO+2@C60, VO3-1@C60, Cu@C60, Cu+2@C60, CuO@C60, Zn@C60, Zn+2 @C60, ZnO@C60, Fe@C60, Fe+2@C60, Fe+3 @ C60, y FeO@C60. Estos elementos se eligieron por sus propiedades médicas y su posible afinidad con la estructura de fullereno. Las energías electrónicas de los Endofullerenos se calcularon usando el método Hartree-Fock (HF), con un conjunto base LanL2DZ, utilizando el programa Gaussian16 [2]. La estabilidad del sistema se determinó mediante la energía de interacción Eint, la cual es la contribución a la energía del endofullereno debida a la interacción entre el fullereno vacío y el clúster metálico: Eint =Eendofull -(Efull +Eion ). Además, se analizaron los orbitales moleculares frontera HOMO y LUMO y el potencial electrostático molecular (MEP). Finalmente, las interacciones no covalentes de los iones metálicos y sus óxidos con el fullereno se analizarán mediante la teoría cuántica de átomos en moléculas (QTAIM) utilizando el programa AIMAll [3].


CONCLUSIONES

Los resultados mostraron que la energía de interacción aumenta conforme el número de electrones es mayor, es decir la Eint del V<Fe<Cu<;Zn. Específicamente, la Eint del V+5 (859.54 u.a.)<V+4  (860.94 u.a.) < V0(862.29 u.a). La misma tendencia se observó para el Fe, Cu, Zn. Por otro lado, el MEP indica las regiones en donde la molécula presenta una carga parcial. Para los átomos metálicos neutros, las zonas positivas de mayor intensidad están en el centro de los anillos aromáticos y las zonas negativas se ubican hacia los dobles enlaces de los hexágonos.. En algunos sistemas, los clústeres se orientaron hacia los pentágonos, como en el caso del vanadato, en donde sus 3 átomos de oxígeno presentan una alineación con el centro de algún pentágono, además para estos casos se observa una transferencia de carga negativa hacia el fullereno. Algunos metales en forma iónica se orientaron hacia los hexágonos, brindando una carga parcial positiva hacia el fullereno. Los compuestos con V y V+4 son los únicos que se desplazaron del centro de la caja, alineándose con alguno de los hexágonos, pero manteniéndose siempre dentro del fullereno. Los orbitales moleculares HOMO se localizaron en la superficie exterior del fullereno, con una densidad mayor cerca del hexágono al cual se alineo el átomo de vanadio, por otra parte el compuesto con V+5  no se desplazó del centro y  el orbital HOMO se localizó dentro de la caja. Los orbitales LUMO de estos compuestos presentaron una mayor densidad al lado opuesto del vanadio a excepción de V0 . Para los compuestos con Cu y Cu+2  se presentaron interacciones no covalentes entre el átomo central y uno de los hexágonos. Los orbitales HOMO se observan alrededor del Cu y Cu+2  con forma simétrica. Los orbitales LUMO de estos sistemas se orientaron del lado opuesto al anillo con el que se llevaba a cabo la interacción. Para los átomos del Zn y Zn+2  de la misma forma que para los compuestos con Cu, se alinearon con uno de los hexágonos centrales teniendo una interacción no covalente. Los orbitales HOMO y LUMO son totalmente simétricos rodeando toda la superficie esférica del fullereno. Para los óxidos    VO3-1, ZnO, CuO y FeO, se observó una mayor densidad del orbital HOMO hacia la parte negativa del clúster (átomo de O), indicando que la interacción no covalente entre el clúster y la caja se lleva a cabo a través de los átomos de oxígeno, alineándose con el centro algún pentágono (VO3-1  y ZnO)  o  con la intersección de un pentágono o un hexágono del fullereno (CuO y FeO). Finalmente, se calcularon los puntos críticos de anillo (RCP) para los pentágonos y hexágonos de los endofullerenos obteniendo valores de 0.0214-0.0218 para el pentágono y 0.0375-0.0385 para el hexágono. Como perspectivas del proyecto, se calcularán los puntos críticos de jaula (CCP) para estudiar la estabilidad de los fullerenos cuando interactúan con los diferentes iones metálicos. Referencias:  [1] Alegret, N.; Rodríguez-Fortea, A.; Poblet, J.M. An. Quim. 2014, 110:2, 121-130. [2] Gaussian 16, Revision B.01, Frisch, M.J.; Trucks, G.W.; et al. Gaussian, Inc.Wallingford CT, 2016. [3] AIMAll (Version 19.02.13), Keith T.A., TK Gristmill Software, Overland Park KS, USA, 2019.
Ortiz García Nahomi Giovanna, Universidad de Guadalajara
Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla

EL PIANO CóSMICO; DETECTOR DE PARTíCULAS A TRAVéS DE UNA MELODíA.


EL PIANO CóSMICO; DETECTOR DE PARTíCULAS A TRAVéS DE UNA MELODíA.

Ortiz García Nahomi Giovanna, Universidad de Guadalajara. Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los rayos cósmicos son partículas que llegan del espacio exterior y bombardean constantemente a la Tierra en todas las direcciones. Cuando llegan, chocan con los núcleos de los átomos en la atmósfera, creando más partículas, principalmente piones. Los piones cargados pueden descomponerse rápidamente, emitiendo partículas llamadas muones, para de esta manera desencadenar una cascada de partículas. Actualmente existen diversos detectores y aceleradores de partículas en el mundo, los cuales tienen como objetivo conocer el origen de los rayos cósmicos ultra energéticos, así como el proceso que les permite alcanzar energías tan altas que ni siquiera el acelerador de partículas más potente ha logrado. Desde hace algunos años la física de partículas ha estado en constante crecimiento, provocando así la construcción y desarrollo de nuevas tecnologías que nos permitan comprender la naturaleza de estos fenómenos. Sin embargo, es un tema que la mayoría de las personas no conciben, es por ello que se pensó en algún mecanismo atractivo para que la gente se interese y comprenda cómo funciona un detector de rayos cósmicos. De esta forma surgió el piano cósmico; compuesto principalmente por plásticos centelladores, fibra óptica y electrónica. Cuando llegan partículas a los detectores estos emiten un sonido que depende de la energía y dirección con la que arriban. Este artefacto permite literalmente escuchar la música del universo.



METODOLOGÍA

Se utilizaron dos cuadrados de 15cm x 15cm de plástico centellador; un material que por sus propiedades físicas emite destellos cada vez que incide radiación de alta energía sobre él. Estos cuadros fueron lijados y pulidos múltiples veces hasta conseguir el distintivo color azulado que los caracteriza. Posteriormente, con una broca se les realizó un canal por el cual debe pasar una fibra óptica, por encima de esta se le aplicó un pegamento especial para lograr un sellado y así evitar burbujas de aire. Al final de cada canal se le conectaron dos APD’s, encargados de transformar la radiación electromagnética que recibe en una señal eléctrica. De igual manera se trabajó en la parte electrónica del piano. Se soldaron 2 tarjetas electrónicas con cautín; las cuales son las responsables del sonido y se le añadieron focos LEDs que emiten luces de colores; esto para hacerlo más atractivo visualmente. Funcionamiento Los detectores centelladores cuando son expuestos a radiación ionizante, emiten un pequeño destello de luz, es decir un centelleo. Este fenómeno ocurre cuando la radiación interactúa con la materia, excitando e ionizando un gran número de átomos y moléculas, las cuales al volver a su estado fundamental, se desexcitan emitiendo fotones con rango de energía en el espectro visible o en los alrededores de él.  La fibra óptica capta este destello de luz y con la ayuda de los APDs convierten el centelleo en una señal eléctrica, la cual con apoyo de la electrónica generará la música y las luces de colores.


CONCLUSIONES

Durante la estancia, se lograron adquirir conocimientos tanto teóricos como de instrumentación, debido a que se realizó la construcción del piano literalmente desde cero, lo cual permitió conocer un poco de todo lo que  esto conlleva; desde la física involucrada hasta la electrónica que es la encargada de hacerlo funcionar. Se espera que no sólo tenga un propósito divulgativo, si no que también se pueda utilizar para la recopilación y análisis de datos.
Ortiz Monfil Josafat, Universidad Veracruzana
Asesor: Dr. Rosa Maria Quispe Siccha, Hospital General de México

ESTUDIO DE LA VELOCIDAD DE DIFUSIóN DE DIFERENTES SUSTANCIAS EN UNA MEMBRANA DE ALCOHOL POLIVINíLICO MEDIANTE LA TéCNICA DE FOTOACúSTICA PULSADA


ESTUDIO DE LA VELOCIDAD DE DIFUSIóN DE DIFERENTES SUSTANCIAS EN UNA MEMBRANA DE ALCOHOL POLIVINíLICO MEDIANTE LA TéCNICA DE FOTOACúSTICA PULSADA

Ortiz Monfil Josafat, Universidad Veracruzana. Asesor: Dr. Rosa Maria Quispe Siccha, Hospital General de México



PLANTEAMIENTO DEL PROBLEMA

Dentro de la medicina, las heridas, como las quemaduras graves y úlceras necesitan atención médica inmediata porque pueden provocar muerte celular, lo que puede requerir hospitalización y causar la muerte. Por esta razón, se han desarrollado diferentes materiales para su tratamiento, en forma de esponjas o películas que contienen medicamentos, nutrientes y biomoléculas con diferentes grados de éxito (regeneración celular, disminución de inflamación y dolor). Estos materiales deben poseer propiedades similares a la piel normal. Dentro de los materiales ocupados están los biopolímeros, y los más utilizados para el tratamiento de quemaduras son quitosano y alcohol polivinílico (PVA) debido a su biocompatibilidad, biodegradabilidad y no toxicidad. Los medicamentos tienen diferente tensión superficial, densidad y viscosidad, por esta razón, es necesario conocer la velocidad de difusión de cada medicamento para el tratamiento de heridas. Por estos motivos, proponemos en este trabajo, utilizar la técnica de fotoacústica pulsada para calcular la velocidad de difusión mediante la propagación de la onda optoacústica. 



METODOLOGÍA

Para obtener la velocidad de difusión de las sustancias (azul de tripano, sangre, sangre con agua y sangre con agua y azul de tripano) en las membranas de PVA utilizamos la técnica fotoacústica pulsada. Preparación de la membrana de PVA Las membranas se prepararon utilizando polvo de PVA con peso molecular de 85,000 - 124,000 (99% hidrólisis, Sigma Aldrich) y agua ultrapura de grado MiliQ. Para obtener una membrana de PVA al 5%, se utilizó 2.5 gr de polvo de PVA en 50 ml de agua. En un vaso de precipitados se colocó 50 ml de agua, se sometió a calentamiento hasta alcanzar los 40 °C para agregar el polvo de PVA, y éste estuvo en constante agitación hasta alcanzar los 87 °C para terminar de diluir la mayoría de cristales contenidos en el polvo de PVA. Es importante mencionar que la mezcla no debe llegar al punto de ebullición porque el hidrogel no llegará a fraguar. El hidrogel se enfrió a temperatura ambiente (23°C) durante 20 minutos, luego se  vació 300 µl  en moldes de forma circular para someterlos a 4 ciclos de congelación (-80°C, 20 minutos)/descongelación (23°C, 15 minutos). Después de este proceso se obtuvieron las membranas de PVA, y para su preservación se colocaron en agua ultrapura MiliQ. Obtención de las señales fotoacústicas (optoacústicas) Antes de medir las señales fotoacústicas de las sustancias, primero se obtuvo el espectro de absorción para conocer en que longitud de onda absorben. El arreglo experimental de la técnica de fotoacústica pulsada (PA) consiste de un láser Nd:YAG (ʎ = 532 nm, F = 10Hz , τ = 5 ns, E = 1 mJ), un osciloscopio digital (2 GHz de ancho de banda, 10GS/s), un fotodiodo de Si para detectar el disparo del láser, un sensor piezoelélectrico de polifluoruro de vinilideno (PVDF) y arreglos ópticos. Antes de obtener las señales optoacústicas de las sustancias, primero se colocó una gota (25 µl) de cada sustancia sobre una membrana de PVA, y ésta membrana está en contacto directo con el sensor de ultrasonido. Luego se incidió luz láser sobre la membrana y parte de ésta energía fue absorbida por la sustancia y la otra parte se perdió por el esparcimiento óptico y/o reflexiones de la superficie de la muestra. La parte que absorbe sufre un calentamiento provocando un efecto termoelástico (expansión/compresión) generando ondas mecánicas que se propagan a través de la membrana y son detectadas por el sensor de ultrasonido, y registradas por el osciloscopio.   En total se midieron 12 membranas: 3 membranas de PVA con azul de tripano (PVA + AT), 3 membranas con sangre (PVA + S), 3 membranas con sangre y agua (PVA + S + A) y 3 membranas con sangre, agua y azul de tripano (PVA + S + A + AT). De cada membrana se obtuvo una señal optoacústica cada minuto hasta llegar a los 20 minutos.   Para obtener la velocidad de difusión de las sustancias en la membrana de PVA durante un intervalo de tiempo, se analizó el tiempo de retardo de las señales fotoacústicas utilizando el programa Origin 8.1.


CONCLUSIONES

Para todas las sustancias, la velocidad de difusión tuvo un comportamiento lineal, siendo diferente la velocidad para cada sustancia debido a la fuerza de tensión superficial, viscosidad y densidad. Para la sustancia con mayor fuerza de tensión superficial, la velocidad de difusión es mayor: (AT>S+A+AT>S+A>S), y si la viscosidad es mayor su velocidad de difusión es menor (S>S+A>S+A+AT>AT). La velocidad de difusión es dependiente de la estructura y las propiedades mecánicas de la membrana de PVA. Durante mi estancia de investigación, logré familiarizarme con equipos y materiales necesarios para desarrollar mi tema de investigación, así como también  integrarme con el grupo multidisciplinario de la Unidad de Investigación y Desarrollo Tecnológico (UIDT) del Hospital General de México. De acuerdo a los resultados obtenidos, las membranas de PVA pueden llegar a tener distintas aplicaciones dentro de la medicina (simuladores de tejido suave),  y gracias a la alta sensibilidad de la técnica de fotoacústica pusada, se puede calcular la velocidad de difusión de distintos medicamentos (liberación de fármacos o nutrientes). 
Ortiz Olivas Jesus Raul, Universidad Autónoma de Sinaloa
Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa

SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.


SIMULACIóN DE UN ELECTROLITO CON EFECTO DCE MEDIANTE EL MéTODO MONTE CARLO.

Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla. Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla. Jiménez Reyes Susana Berenice, Universidad Autónoma de Sinaloa. Ortiz Olivas Jesus Raul, Universidad Autónoma de Sinaloa. Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El método de Monte Carlo (MC) es un método estadístico que usa números aleatorios para aproximar expresiones matemáticas complejas y difíciles de evaluar con exactitud. Este método es muy útil en estudios de sistemas con un gran número de grados de libertad, por ello, se dio el interés de simular un electrolito. Por otra parte, para hacer que las configuraciones del sistema sean representativas del equilibrio se empleó el algoritmo de Metrópolis, cuya finalidad es realizar los desplazamientos de las partes del sistema modelo de manera similar a las partes de un sistema real. El algoritmo cambia la configuración del sistema modelo por otra de acuerdo con la variación de la energía total de éste. De este modo, se acepta o rechaza una configuración con cierta probabilidad dependiendo de la variación de la energía, respecto a la energía total de la configuración anterior.  Un electrolito o solución iónica es cualquier sustancia que contiene en su composición iones libres, que hacen que se comporte como un conductor eléctrico. La importancia en el estudio de estas sustancias recae en aplicaciones dentro de la electroquímica, física médica, fisiología, en bebidas deportivas, salud, etc. Por ello, comprenderlos podría suscitar futuramente un nuevo avance científico o bien, una mayor eficiencia de los mismos en contacto con otros agentes.



METODOLOGÍA

Inicialmente, se definió un sistema modelo, se escogió su configuración inicial a partir de las condiciones descritas; de ese modo, se desarrolló un algoritmo para manipular las partes del modelo de manera que las configuraciones de este, después de cierta cantidad de movimientos (termalización) sean similares a las condiciones de equilibrio del sistema real. Además, cabe mencionar que las simulaciones MC son atemporales y por otra parte, cada configuración del sistema es influida por la configuración anterior. Una vez termalizado el sistema, se procedió a almacenar la estadística de las distintas magnitudes físicas que nos interesó medir. Para el caso del modelo del electrolito, fueron la cantidad de cargas positivas y negativas, iteraciones, pasos, temperatura, concentración, actualización, distancias de desplazamiento, permitividad dieléctrica relativa del agua, diámetro de las partículas y densidad de carga. Todo lo mencionado anteriormente se almacenó en un archivo de salida, el cual era posible modificarlo posteriormente para electrolitos con sales 1:1, 2:1 y 3:1. Por otra parte, para cumplir la hipótesis ergódica, la cual dice que es necesario que cualquier punto accesible en el espacio de configuraciones del sistema pueda ser alcanzado en un número finito de pasos de simulación desde cualquier otro punto, se tuvo especial cuidado en que las configuraciones de los iones que se utilizaron para realizar cálculos fueran suficientes y representativas de un sistema en equilibrio. A continuación, se recabó toda la estadística para después calcular sus promedios. Se empleó entonces el algoritmo de Metrópolis, que como se ha mencionado, si la energía de la nueva configuración es menor a la de la anterior tiene mayor probabilidad de ser aceptada, mientras que si esta es mayor muy probablemente será rechazada, en analogía a un sistema real. Efectuado ello, se procedió a realizar correcciones al modelo, es decir, si se tratan esferas rígidas o no, la pared cargada con la que interaccionaron las partículas, el confinamiento de las mismas, la ecuación de la energía de interacción total entre los iones, la dirección en la distancia x, la ecuación de la interacción de los iones con la pared cargada ubicada en el plano "x, y" y el efecto de la Doble Capa Eléctrica (DCE). Finalmente, se visualizó el comportamiento del sistema en el programa GeoGebra y se realizó el análisis estadístico en el programa Origin.


CONCLUSIONES

Generados los archivos de salida, se visualizaron los resultados en GeoGebra, facilitando el estudio de la distribución de los iones en el electrolito. Del mismo modo, para una mayor comprensión y un análisis detallado de su comportamiento, se revisaron los datos de la simulación en Origin. Se aplicó la simulación para sales con una densidad superficial de carga de -24 µC/cm2 , -12 µC/cm2, y -4 µC/cm2, en presencia de una sal simétrica 1:1, con iones de 0.72 nm  de diámetro a una concentración salina 100 mM y 1M para cada una de ls densidades mencionadas.  También se obtuvieron los perfiles de concentración iónica para un sistema de un plano cargado con las mismas densidades superficiales de carga en presencia de sales simétricas 2:1 y 3:1, con iones de 0.84 nm de diámetro a una concentración salina 333 mM y 0.96 nm a 167mM, respectivamente. En general, se observó que el achatamiento de las curvas depende de la densidad superficial de carga, es decir, si esta es más negativa, será más angosta; la elevación de la curva en los perfiles se debe al efecto de la Doble Capa Eléctrica (DCE) y tiende a ser asintótica debido a que intenta alcanzar el equilibrio en el seno de la solución.
Osorio García Heidi Kimberly, Instituto Tecnológico del Valle de Morelia
Asesor: M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco

DEGRADACIóN DE SARGASSUM SP EN REACTOR ANAEROBIO BATCH A ESCALA PILOTO


DEGRADACIóN DE SARGASSUM SP EN REACTOR ANAEROBIO BATCH A ESCALA PILOTO

Osorio García Heidi Kimberly, Instituto Tecnológico del Valle de Morelia. Asesor: M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco



PLANTEAMIENTO DEL PROBLEMA

La problemática actual que se detona con el arribo de grandes volúmenes de sargazo, ha cautivado la atención de sectores económicos y ambientales.  El arribo excesivo de algas pardas marinas conocidas comúnmente como sargazo, han impactado gran parte del Caribe mexicano, alcanzando volúmenes de 2 m3 por metro lineal de playa (SEMAR, 2017). Estos arribazones han provocado grandes problemas en la zona costera, afectando los recursos acuáticos y diversas actividades económicas como el turismo, pesca y transporte marítimo. Hernández-Zanuy (2018) menciona que, la gran acumulación de este material y su descomposición natural provoca un aumento en la demanda química y bioquímica de oxígeno, anoxia, altera la calidad de la arena, afecta ecosistemas costeros y genera gases de efecto invernadero (GEI). Por su contenido elemental, brindan diversas posibilidades de aprovechamiento como, alimento pecuario, insumos para productos alimenticios, cosmetológicos y farmacológicos, y su posible aplicación como abono en cultivos tras ser compostable (Dreckmann y Sentíes, 2013). Sin embargo, por su alto contenido en carbohidratos (60%), la ruta más viable para obtener biocombustibles es a través de la digestión anaerobia, para la obtención de biogás (Costa et al., 2015; Hughes et al., 2018). Esta alternativa, además de reducir el impacto medioambiental y socioeconómico actual, proporcionaría al sector afectado una opción para satisfacer sus necesidades energéticas en forma de electricidad y calor, de manera sustentable (Akila et al., 2019). Por tanto, el presente trabajo tiene como objetivo determinar la degradación del Sargassum spp mediante su digestión anaerobia a escala piloto.



METODOLOGÍA

2.1 Caracterización lignocelulósica: Se determinó el contenido de extraíbles, celulosa y lignina presente en el sargazo. 2.2 Caracterización analítica de biomasa: Se determinó por medio de gravimetría, el contenido de humedad (H), sólidos totales (ST), sólidos volátiles totales (SVT), sólidos fijos (SF), cenizas (Cen), materia orgánica (MO) y carbono orgánico (CO), del sustrato (Sargassus sp). 2.3 Nitrógeno Total: Se determinó con base en el método descrito por Bremmer (1995). 2.4 Relación Carbono-Nitrógeno (C/N): Se determinó con base en la Norma NMX-AA-067-1995. La relación carbono/Nitrógeno (C/N) está en función del porcentaje de Carbono Orgánico (%CO) y el porcentaje de Nitrógeno Total (%N).  2.5 Diseño experimental y monitoreo  El sargazo utilizado fue extraído de la costa de Puerto Morelos, Quintana Roo. Se puso en marcha una unidad experimentas (UE) al aire libre en la Universidad Juárez Autónoma de Tabasco, en Villahermosa Tabasco; la UE que consta de un recipiente oscuro de fibra vidrio de 4 L, en la parte inferior cuenta con una válvula para extraer muestras del contenido y, en la parte superior se conecta a bolsas tipo Tedlar® de 2 L. El diseño experimental consta de una combinación de sargazo sucio, agua de grifo y 10% en volumen de inóculo  añadido el día 13 de operación. Se usaron 129.63 g se sargazo aforado a 3 L con agua de grifo, estas cantidades combinadas daban una cantidad de 100 g de SVT. La UE fue monitoreadas dos veces por semana, durante 28 días, los parámetros medidos fueron, pH, temperatura (°C), potencial óxido - reducción (mV), sólidos disueltos totales (g L-1) y conductividad eléctrica (μS cm-1).


CONCLUSIONES

Caracterización lignocelulósica y analítica: El contenido de extraíbles, celulosa y lignina presentes en el sargazo fue de 10.081±1.99, 2.1, 41.23±0.66 %, respectivamente. En la caracterización analítica los resultados para Humedad (H), Sólidos Volátiles Totales (SVT), Cenizas (Cen), Materia Orgánica (MO) y Carbono Orgánico fueron de 56.61±6.45, 79.42±0.39, 5.52±0.68, 15.06±0.31, 84.94±0.31 y 49.27±0.18, respectivamente. El porcentaje de Sólidos Volátiles Totales presentes sugiere que la fracción orgánica de esta especie es altamente biodegradable. Nitrógeno Total y Relación Carbono-Nitrógeno (C/N): El porcentaje de nitrógeno fue de 0.87% ±0.02. La relación C/N para Sargassum sp fue de 35:1. Akila et al. (2019) reportó que una relación C/N 18:1 produce niveles de CH4 de 132 L kg-1TS. Monitoreo: Durante los 28 días de monitoreo, los valores de pH fueron muy cercanos a la neutralidad con un valor promedio de 7.4970 ±0.33. Es notorio el decaimiento de esta variable durante los primeros cinco monitoreos, la elevación en el sexto monitoreo, recae en la adición de un inoculo. La temperatura se mantuvo relativamente constante durante los 28 días, con un valor promedio de 29.31 ±1.84 °C. Los valores de CE son relativamente similares durante el proceso de digestión, con un promedio de 6191.2 ±603.11. Los valores de ORP fueron muy cercanos a -150 mV, indicando condiciones anaerobias, durante casi todo el periodo. Los monitoreos 5 y 6 pertenecen al periodo en el cual fue añadido el inoculo, esto se ve reflejado en la elevación cercana al 0 del medio, lo que puede significar una condición menos reductora en el inoculo y posiblemente entradas de aire al ingreso. Existe una remoción del 59.74% en los primero 10 días, previa a la adición del inoculo. La relación FOS/TAC para el día 6 de operación fue de 0.41 reflejando que, hasta ése punto, la carga en el reactor era excesiva. En el día 16, éste valor aumentó a 0.63 debido a la adición del inóculo. Finalmente, en el día 22 esta variable disminuyó a 0.11. Durante el tiempo de operación se obtuvieron 4 L de biogás compuesto por 33.58% de CH4, 169 ppm H2S, 13.8% CO2, 4.5% de O2 con un calor neto de 11.2  MJ/kg. Las condiciones de operación fueron propicias para la digestión anaerobia del Sargassum sp. A pesar de que se sabe que el sodio es un componente inhibitorio en el proceso anaeróbico, no es una limitante para crear las condiciones adecuadas para degradar y producir biogás. Los resultados sugieren que el periodo de operación no fue suficiente para observar resultados finales de degradación y de producción de biogás.
Osuna Zamarripa Jesus Manuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Joan Albert Sánchez Cabeza, Universidad Nacional Autónoma de México

EVALUACIóN DE NIVELES DE ACTIVIDAD DE EMISORES GAMMA EN MUESTRAS MARINAS


EVALUACIóN DE NIVELES DE ACTIVIDAD DE EMISORES GAMMA EN MUESTRAS MARINAS

Osuna Zamarripa Jesus Manuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Joan Albert Sánchez Cabeza, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Durante las últimas décadas se han producido numerosos impactos antropogénicos sobre el ambiente marino, que han causado daños a la flora y fauna marina, e incluso a la industria pesquera. El conocimiento de la concentración de radionúclidos naturales y artificiales en el medio marino proporciona información útil para su monitoreo y para evaluar los riesgos por radiación que podrían existir. En este trabajo, nos centramos sobre el contenido de emisores gamma en especies vegetales del Caribe mexicano.



METODOLOGÍA

Se analizaron 2 muestras, una de sargazo (Sargassum spp) de Puerto Morelos y otra de pasto (Thalassia testudinum) de Punta Caracol, en Quintana Roo. Las muestras se prepararon mediante un proceso de tamizado, lavado, sonicación, secado y molienda. Las muestras molidas se introdujeron en geometrías calibradas, donde se comprimieron manualmente, sellaron y etiquetaron. Fueron dejadas en reposo durante 21 días para garantizar el equilibrio secular entre los radionúclidos descendientes del 226Ra. Finalmente, los tubos se introdujeron en detectores de germanio hiper-puro con configuración de pozo, donde fueron contadas durante 3 o 4 días. Para el análisis de las muestras se usó el ruido de fondo del detector, su calibración en energías (perfectamente lineal) y su calibración en eficiencias. El análisis de los espectros medidos se realizó mediante el software GammaVision.


CONCLUSIONES

Las actividades de los radionúclidos obtenidas para sargazo (S. spp) de Puerto Morelos, Quintana Roo fueron: 1462±17 Bq kg-1 (40K), 21.8±4.1 Bq kg-1 (210Pb) y 19.6±5.4 Bq kg-1 (234Th) y para la muestra T. testudinum: 592±34 Bq kg-1(40K), 26±13 Bq kg-1 (210Pb) y 197±13 Bq kg-1 (234Th). El 234Th se encuentra en equilibrio con el 238U, por lo que es una técnica adecuada para determinar la cantidad de uranio natural en las muestras. Los radionúclidos detectados son los mismos para cada muestra, pero, se presentan diferencias considerables en las actividades de 40K y 238U. Los niveles de actividad de 210Pb en ambas muestras tienen valores similares, lo que indica que la concentración de 210Pb en estas especies es similar. Por otra parte, los niveles de 40K son mayores en S. spp y los de 238U son mayores en T. testudinum. En comparación con la limitada información existente en la literatura internacional, se observa que en el caso de pastos marinos, las actividades en muestras de H. stipulacea del Golfo de Aqaba, en Jordania (Al-Absi, 2016) son: 40K (300 - 862 Bq kg-1), 234Th (51 - 253 Bq kg-1), 210Pb (<363 Bq kg-1), las cuales son comparables con las de la muestra T. testudinum en el caso de 40K y 234Th. Al observar datos de S. vulgare de Costa Canaria, en España (Tejera, 2019), con 1310 - 3920 Bq kg-1(40K), 40.9 - 120 Bq kg-1(210Pb) y 5.4-12.8 Bq kg-1(234Th) el único radionúclido con actividad comparable a la de S. spp es el 40K. Las mediciones son mayores en el caso de 210Pb y para 234Th son menores. La espectrometría gamma demuestra que es un método útil, pues permite la preparación de muestras de manera más simple, permite detectar muchos radionúclidos en un solo análisis y su medida es no destructiva.
Oviedo Aguilar Fryda Susana, Universidad de Sonora
Asesor: Dr. Luis Arturo Ureña Lopez, Universidad de Guanajuato

ESTUDIO DEL MODELO COSMOLóGICO DE ENERGíA OSCURA CONSIDERANDO LA ECUACIóN DE ESTADO CONSTANTE.


ESTUDIO DEL MODELO COSMOLóGICO DE ENERGíA OSCURA CONSIDERANDO LA ECUACIóN DE ESTADO CONSTANTE.

Oviedo Aguilar Fryda Susana, Universidad de Sonora. Asesor: Dr. Luis Arturo Ureña Lopez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El modelo estándar de la cosmología, más conocido como Lambda-CDM, es una teoría cosmológica que describe la estructura a gran escala del universo, así como su evolución. Explica las observaciones de la radiación de fondo de microondas, y la abundancia de hidrógeno, helio y litio. Además es consistente con la relatividad general, y actualmente es el más acorde con las observaciones astronómicas al incluir las hipotéticas materia oscura y energía oscura. Es interesante porque con el modelo Lambda-CDM se puede encontrar explicación a la aceleración de la expansión del universo que se observa. El modelo Lambda-CDM se puede ampliar añadiendo o variando elementos del mismo, por ejemplo, haciendo que la ecuación de estado de la energía oscura tome valores constantes y cercanos a -1 a lo largo de toda la evolución del universo en vez de que sea dependiente del tiempo.



METODOLOGÍA

A manera de introducción se consultó el capitulo 1, 2, 3 y 4 del libro An Introduction to Modern Cosmology de Adrew Liddle para familiarizar con los conceptos cosmológicos, posteriormente se comenzó a trabajar con el código CLASS (Cosmic Linear Anisotropy Solving System), el cual está diseñado para ofrecer a los cosmólogos poder simular la evolución del universo a gran escala, también es posible calcular la radiación de fondo de microondas y estructuras observables a gran escala. Se continuó con la lectura de los capítulos posteriores de An Introduction to Modern Cosmology de Adrew Liddle hasta cubrir los tópicos avanzados 1 y 2. Por otra parte, se introdujo al uso del lenguaje de programación python y a la par se trabajó con la datos de CLASS para reproducir conocimiento acerca de la evolución del universo, generando gráficas donde explícitamente se observó el comportamiento de los parámetros de densidad de radiación y materia en función del corrimiento al rojo o el factor de escala. Se consultó el capitulo 7 de Introduction to Cosmology de Barbara Ryden para profundizar en teoría de distancias luminosas y angulares para medir parámetros cosmológicos, y a continuación se trabajó con datos observacionales del SCP (Supernova Cosmology Project) con los cuales se corroboró el modelo Lambda-CDM. El estadístico ji-cuadrado es una medida de la divergencia entre la distribución de los datos y una distribución esperada. Haciendo uso del ji-cuadrado entre los datos observacionales de SCP y los teóricos variando el valor de CDM (materia oscura fría) desde 0.1 a 0.9 se generó una gráfica donde el eje X toma los valores de CDM y el eje Y su correspondiente ji-cuadrado, de la cual se pudo inferir que la materia oscura fría representa aproximadamente un 26% de la densidad de energía del universo. Finalmente, se trabajó con Monte Python, un código que contiene probabilidad de los experimentos más recientes e interactúa con el código CLASS para realizar cálculos de cosmología. Con el código se puede calcular lo mencionado en el párrafo anterior, así como otros parámetros de densidad de manera muy eficiente. Además Monte Python cuenta con la ventaja de que genera gráficas considerando hasta 6 parámetros cosmológicos, haciendo visualmente muy practico identificar las regiones de interés.


CONCLUSIONES

Durante la estancia de verano de logró adquirir conocimiento teórico en cosmología, así como habilidades de trabajo profesionales, fortaleciendo la intuición científica y la interpretación de la información. Satisfactoriamente se llegó a reproducir el calculo de la cantidad de materia oscura en el universo a partir de una serie de datos de supernovas, que básicamente fue base para el descubrimiento de la expansión acelerada del universo, hecho que fue considerado el Premio Nobel de Física del 2011. La limitación que se presentó principalmente fue la falta de tiempo para cubrir con todo el plan de trabajo que se consideró realizar al inicio de la estancia, por otra parte, la falta de conocimiento con respecto a las ecuaciones de Einstein que describen la relatividad general por parte de los estudiantes contribuyó a no profundizar en algunos aspectos teóricos. Se espera que durante la ultima semana de la estancia se trabaje con Monte Python, y así mismo se estima profundizar en modelos extendidos de Lambda-CDM.
Pacheco Castro Santiago, Instituto Tecnológico de Los Mochis
Asesor: Dr. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)

CARACTERIZACIóN DE GUíAS DE ONDA óPTICAS.


CARACTERIZACIóN DE GUíAS DE ONDA óPTICAS.

Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara. Pacheco Castro Santiago, Instituto Tecnológico de Los Mochis. Asesor: Dr. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La óptica integrada consiste en la generación de componentes de tamaños muy reducidos los cuales permiten transmitir información por medio de señales luminosas. Esta rama brinda una alternativa para los componentes electrónicos comunmente usados hasta el día de hoy; con la óptica integrada se transporta información a través de fotones mediante un haz de luz en lugar de electrones como es el caso de los circuitos electrónicos. Uno de los métodos que la óptica ha desarrollado para manipular haces de luz es la creación de pequeños canales dentro de vidrios y cristales los cuales emplean distintos índices de refracción en su interior para así poder llevar una onda electromagnética de un punto a otro a según sea requerido. El proyecto de investigación consiste en hacer una caracterización de guías de onda ópticas en diferentes tipos de materiales, algunos de ellos dopados con tierras raras. El objetivo principal es observar la forma en que las ondas electromagnéticas se propagan a través de los sustratos, analizando a su vez los tipos de pérdidas que pudieran presentarse y cómo influyen los materiales o las técnicas con las que las guías de onda fueron generadas.



METODOLOGÍA

Para llevar a cabo el proyecto de investigación fue necesario hacer mediciones de las diferentes propiedades de las guías de onda encontradas en diversos sustratos que fueron proporcionados por el asesor. Cada medición requirió de un procedimiento específico y un arreglo experimental distinto. Durante el desarrollo de la investigación se hicieron mediciones de los modos de propagación de las guías de onda, así como sus pérdidas de intensidad, su relación con los cambios de índices de refracción y las diferencias generadas según las propiedades del sustrato en el cual fueron fabricadas. Todas las mediciones fueron llevadas a cabo con equipos especiales de medición dentro de los laboratorios del Centro de Investigaciones en Óptica, y los resultados fueron procesados y analizados para posteriormente obtener las conclusiones correspondientes.


CONCLUSIONES

Durante el proceso de investigación fue posible observar de cerca el comportamiento de los diferentes componentes ópticos que conforman la óptica integrada, específicamente con el uso de las guías de onda ópticas. Con la información recabada a través de los experimentos realizados fue posible lograr la caracterización de las guías de onda con las que se trabajó durante el proyecto. Se pudo hacer una valoración de sus diferentes características y funcionalidades para poder comprender su comportamiento. Algunos resultados relevantes obtenidos de este proyecto fueron los tamaños de los modos de las guías de onda, los cuales fueron en promedio de 11, 14 y 21 micrómetros, lo cual corresponde con los tamaños de fabricación prestablecidos para los tres diferentes tipos de guías grabadas en las muestras utilizadas. Además, se obtuvo que al incidir el haz de luz en las guías de onda es posible observar pérdidas de alrededor de 22.06 dB/cm. Finalmente, con ayuda de equipo especializado y una simulación de software se vio que dentro de las guía de onda ópticas existen pequeños cambios de índice de refracción, cerca de 2.18E-03 en su mejor aproximación, los cuales son la razón por la cual las guías de onda funcionan como canales de paso para los haces de luz incidentes. Con este proyecto de investigación se observó la importancia de las diferentes funcionalidades y posibles aplicaciones de las guías de onda ópticas y de la óptica integrada en general.
Paredes Ramírez Jesús, Instituto Tecnológico de Matamoros
Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN DE SUELOS DE ALTA PLASTICIDAD Y SONDEOS DE ROCA IGNIMBRITICA


CARACTERIZACIÓN DE SUELOS DE ALTA PLASTICIDAD Y SONDEOS DE ROCA IGNIMBRITICA

Paredes Ramírez Jesús, Instituto Tecnológico de Matamoros. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Durante mi estancia en la Universidad Michoacana de San Nicolás de Hidalgo participé en dos proyectos de tesis de jóvenes que están cursando la Maestría en Vías Terrestres. El primer proyecto en el que fui activamente participe fue en el desarrollo de la tesis titulada Caracterización geológica-geotécnica de taludes inestables. El objetivo de este proyecto es el estudiar un deslizamiento en suelo y activo que ocurre desde hace aproximadamente 50 años y está ubicado en la Sierra de Mil Cumbres en el tramo de la carretera El Temazcal-Tzitizo. Esta carretera es muy transitada para la zona de Tierra Caliente por lo cual tiene importancia, específicamente se ubicada en el municipio de TziTzio, Michoacán. Durante esta investigación se hicieron estudios geotécnicos para identificar todas sus propiedades y de esta forma proponer mecanismos para la mitigación de esta problemática, ya que año con año se le debe dar mantenimiento por lo menos dos veces. En el segundo proyecto que participé fue en el área de mecánica de rocas, donde se me explicó las pruebas que se deben realizar en laboratorio para poder obtener su caracterización. Este tema de tesis se titula Análisis geomecánico de núcleos de roca ignimbritica material obtenido de sondeos geotécnicos del tipo rotacional que se hicieron en una zona de la ciudad de Morelia como parte de la construcción de un túnel carretero. Con este material disponible se me enseñaron conceptos y principios de la mecánica de rocas, así como pruebas de laboratorio que se realizan para conocer las propiedades físicas y mecánicas de las mismas. Cabe mencionar que también apoye en la realización de pruebas al estudiante de maestría que ocupaba este material; el tema era en torno a la desintegración de rocas a través del tiempo.



METODOLOGÍA

Para el apartado del estudio del deslizamiento en masa se realizó una visita al sitio y se realización pozos a cielo abierto para la obtención de muestras alteradas que posteriormente se comenzaron a caracterizan en laboratorio. Se seleccionaron 3 zonas donde se realizaron excavaciones a aproximadamente 0.70 metros de profundidad, dentro de las cuales se obtuvieron tres muestras de cada sitio elegido. En laboratorio se sacó un poco de cada estrato para determinar su contenido de humedad inicial (humedad de campo). Luego de esto se secaron las muestras al sol con el objetivo de poder hacerle granulometría y obtener material para la determinación de los límites de consistencia conforme a la norma M-MMP-1-07/07 en la cual describe el uso de la copa de Casagrande y en BS 1377 que habla del método para determinación de limite liquido con penetrómetro con el cual se utilizaron dos tipos de conos, el Inglés y el Sueco para la comparación de resultados. Para este caso se emplearon dos técnicas  de secado; una utilizando el horno convencional y otra utilizando un horno de microondas. La técnica de secado con horno de microondas se ha utilizado en otros países para la obtención rápida de resultados combinándolo con el uso del penetrómetro. Para que esto sea efectivo debe de haber un control de humedad dentro del horno de microondas; se utilizaron taparroscas de plástico con agua para que el ambiente del horno se mantuviera constante y los resultados no se vieran comprometidos por la falta de humedad. Asimismo se realizó granulometría para cada muestra siguiendo los procedimientos de la norma M-MMP-1-06/03. De acuerdo a los resultados obtenidos hasta el momento y de acuerdo al Sistema Unificado de Clasificación de Suelos (SUCS), se determinó que el material analizado corresponde a  suelos blandos de alta plasticidad. En correspondencia a la mecánica de rocas se hicieron algunas pruebas finales para determinar el envejecimiento de la roca y establecer mecanismos para poder saber en qué momento la roca llegaría a su punto de vejez (alteración). Se realizaron pruebas de laboratorio para determinación de velocidad de pulso y resistencia a tensión indirecta o mejor conocida como prueba brasileña de acuerdo a las normas ASTM-C579-99 y ASTM-D597-02. Estas se hicieron a especímenes procedentes de 2 sondeos a rotación de 100 metros de roca ignimbritica; dentro de la profundidad del sondeo se encontraron alteraciones de esta y otras rocas que se incrustaron dentro de la matriz rocosa, tales como: toba, escoria y brecha volcánica. A la par de esto trabajé en la caracterización en laboratorio de estos dos sondeos para reforzar el conocimiento adquirido. Las pruebas en las que trabajé fueron para conocer la densidad, absorción y porosidad de la roca de acuerdo a la norma ASTM C127-15; el ensayo de sequedad-humedad-desmoronamiento (slake durability test, SDT) siguiendo la norma ASTM D4644-16; la prueba del plano inclinado para la determinación del ángulo de fricción básico en muestras de roca o en la discontinuidad, de acuerdo al método sugerido por la Sociedad Internacional de Mecánica de Rocas e Ingeniería de Rocas (ISRM, 2018) y la prueba de carga puntual, denominado también como PLT (Point Load Test) o ensayo Franklin con base en la norma ASTM D5731-16.


CONCLUSIONES

La investigación en torno al envejecimiento de la roca fue finalizada durante de mi estancia, se obtuvieron resultados satisfactorios que harán un aporte interesante al ámbito del estudio. Por otro lado mi análisis de los sondeos de roca ignimbritica se concretó abriendo un mayor panorama para el entendimiento de la mecánica con rocas.  El estudio del deslizamiento en activo requiere tiempo y el proyecto sigue en desarrollo. Hasta el momento se ha trabajado con monitoreo del deslizamiento, con la geofísica que sirve para identificar la estratigrafía y el comportamiento del deslizamiento; los resultados del primer monitoreo se compararán con los resultados obtenidos con dos lecturas más que se harán, lo que evidenciará cuanto se mueve en un determinado periodo; también se complementará con las pruebas de laboratorio que aún están en desarrollo. En el periodo cuando no sea temporada de lluvias se hará una nueva visita para realizar más sondeos y poder así comparar los resultados y obtener conclusiones que ayuden a resolver la problemática sobre la que gira esta tesis.
Pascual Domínguez Fabián Augusto, Instituto Politécnico Nacional
Asesor: Dr. Luis Javier Alvarez Noguera, Universidad Nacional Autónoma de México

INTRODUCCIóN A LOS SISTEMAS DINáMICOS, SERIES DE TIEMPO NO LINEALES Y APLICACIóN DEL TEOREMA DE TAKENS A SERIES DE TIEMPO DE EVENTOS ERUPTIVOS DEL VOLCáN DE COLIMA.


INTRODUCCIóN A LOS SISTEMAS DINáMICOS, SERIES DE TIEMPO NO LINEALES Y APLICACIóN DEL TEOREMA DE TAKENS A SERIES DE TIEMPO DE EVENTOS ERUPTIVOS DEL VOLCáN DE COLIMA.

Pascual Domínguez Fabián Augusto, Instituto Politécnico Nacional. Asesor: Dr. Luis Javier Alvarez Noguera, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Los volcanes pueden ser considerados sistemas dinámicos, ya que su estado evoluciona con el tiempo. Llevar un registro de la actividad sísmica de los volcanes puede servir como acercamiento para entender la evolución de su estado a través del tiempo. Uno de los usos más habituales de las series de tiempo es su análisis para predicción y pronóstico, tal es el caso de los datos recopilados de los sismógrafos que monitorean la actividad de los volcanes. El objetivo de este trabajo es reconstruir el estado fase de los eventos volcánicos del volcán de Colima de los que se tiene registro en el laboratorio del Dr. Álvarez, a partir de las series de tiempo con datos de sismógrafos. Supongamos que tenemos una serie de tiempo con mediciones: (t,y(t)), y=1,…,n. Supongamos que los valores de la serie de tiempo provienen de un espacio fase que describa una variedad M de dimensión m con puntos x=(p0(t),p1(t),...,pm-1(t)) y además supongamos y(t) que es una función cuantificable (mediciones). Por el teorema de Takens, esa variedad M de dimensión m, puede ser encajada en un espacio de dimensión d=2m+1. F(x)=(y(t),y(t+T),...,y(t+(d-1)T) es un encaje. Para nuestro propósito, la importancia de los encajes radica en que nos permiten identificar un subconjunto de Rd que es difeomorfo al espacio fase del sistema que estamos estudiando. Identificando este subconjunto, podemos obtener mucha información del sistema mismo.



METODOLOGÍA

Cálculo del parámetro T, método 1: Este método utiliza la función de correlación. Para cada T entre 0 y Tmax calculemos la correlación entre la serie truncada y(t) con t=1,…,n-T y la serie retardada y(t+T) con t=1,…,n-T. El tiempo de retardo óptimo será el primer valor de T para el cual la autocorrelación es cero. Justificación del método: Cuando trabajamos con coordenadas cartesianas siempre buscamos que los ejes coordenados sean ortogonales, pues esto garantiza la independencia lineal de los ejes. Al seleccionar T de esa manera se asegura que los datos y(t) y y(t+T) son completamente independientes. Método 2: El segundo método involucra el cálculo de una función de autocorrelación no lineal de los datos, llamada Información Mutua Promedio, I. El primer tiempo donde se tiene un mínimo en la función I es considerado el mejor para elegir como T.  Justificación del método 2: La información mutua responde a la pregunta: dado un valor y(t) cuánta información podemos inferir de otro valor y(t+T) de la serie de tiempo. Al seleccionar T de esa manera se asegura que el dato y(t) aporta la mínima información sobre y(t+T). Este método proporciona cierta independencia entre las coordenadas del encaje y(t) y y(t+T).   Cálculo de la dimensión d: Idea general del método de los falsos vecinos: cuando vemos una fotografía, hay varios puntos que parecen estar cerca debido a la proyección de un espacio de dimensión 3 (la escena de la fotografía) sobre un espacio de dimensión 2 (la fotografía). A esos puntos se les llama falsos vecinos. Este método está basado en las siguientes propiedades de los atractores caóticos: Si surge una intersección o sobrelape cuando un atractor es encajado, entonces la dimensión del encaje no es la adecuada. En una reconstrucción óptima las propiedades topológicas se preservan y los vecinos de un punto siguen siendo vecinos en el nuevo espacio. Si la reconstrucción tiene una dimensión menor a la requerida, entonces puntos que parecen ser vecinos ya no lo serán al aumentar la dimensión. Supongamos que dos puntos xa y xb están cerca el uno del otro en el espacio fase. Esto puede deberse a: La dinámica de la evolución de sus órbitas los juntó Como resultado del encaje del atractor en un espacio de dimensión menor a la requerida Comparando la distancia euclideana de los dos puntos |xa- xb| en dos dimensiones consecutivas de encaje, d y d+1, es posible saber cuál de las posibilidades es cierta. Obtenemos la distancia relativa entre los dos puntos en dimensión d y d+1: Si la distancia relativa es mayor que cierto valor predefinido s, entonces los puntos xa y xb son catalogados como falsos vecinos. Abarbanel (1996) encontró que para varios sistemas no lineales s se aproxima a 15. Este proceso es repetido para todos los pares de puntos para dimensiones cada vez más grandes, hasta que el porcentaje de falsos vecinos se vuelve cero.   Estimación del máximo exponente de Lyapunov Supongamos que en un espacio fase de dimensión d la velocidad de expansión y contracción de las órbitas puede ser descrita en cada dirección por un exponente, a estos exponentes se les llama exponentes de Lyapunov. Lo cual resulta en d diferentes exponente de Lyapunov, de los cuales algunos son cero o negativos. Nuestro objetivo es calcular el más grande de esos exponentes. Sea xn0 un punto y consideremos a todos sus vecinos xn tales que la distancia entre xn0 y los xn sea menor que r. Posteriormente, calculemos la distancia promedio de esos puntos a xn0. Ese proceso lo repetimos para N número de puntos a lo largo de la órbita y calculemos el factor de contracción S. Una gráfica del número de puntos N contra el factor S mostrará una curva con un crecimiento lineal al inicio, seguida de una región casi plana. La primera parte de esta curva representa el incremento exponencial de S, mientras que la región casi plana representa la saturación del efecto de divergencia exponencial. Una aproximación a una línea por mínimos cuadrados de la parte casi lineal de la curva dará una estimación del exponente de Lyapunov más grande.    


CONCLUSIONES

Las señales sísmicas de los eventos volcánicos pueden ser utilizadas para encajar en un espacio euclidiano el espacio fase del volcán de Colima. La divergencia en las órbitas de los sistemas caóticos puede verse reflejada en los exponentes de Lyapunov. La metodología empleada con los datos sísmicos puede ser utilizada en otras áreas y con otro tipo de mediciones para reconstruir el espacio fase de diferentes sistemas dinámicos.  
Peña Cardenete Cinthia Yazmín, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)

VARIABILIDAD ANUAL DE LA TEMPERATURA DEL AGUA EN EL RíO HONDO Y BAHíA DE CHETUMAL, QUINTANA ROO


VARIABILIDAD ANUAL DE LA TEMPERATURA DEL AGUA EN EL RíO HONDO Y BAHíA DE CHETUMAL, QUINTANA ROO

Peña Cardenete Cinthia Yazmín, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La realización de monitoreos en sistemas acuáticos tales como ríos, mares y océanos brindan conocimiento sobre el comportamiento de los fenómenos físicos, químicos y biológicos a lo largo del tiempo y su interacción que influyen en la distribución de organismos. En Río Hondo y Bahía de Chetumal existen diversos estudios enfocados a aspectos biológicos, principalmente sobre la ictiofauna (Schmitter-Soto, 1998; López-Villa et al., 2014 y Vásquez-Yeomans, 2012), mamíferos acuáticos (Axis-Arroyo, 1998 y Pablo-Rodríguez, 2012), calidad  del agua (Navarrete, 2000; Ortíz-Hernández, 1999 y Sánchez et al., 2016) y el zooplancton (Gasca y Castellanos, 1993; Ruíz-Pineda et al., 2016 y Ruiz-Cauich, 2016). Sin embargo, existe escasa información en relación a la integración de los procesos físicos y biológicos. La toma de parámetros físicos tales como la temperatura en estos sitios puede contribuir al planteamiento de monitoreos dirigidos al desarrollo de planes de protección, restauración y conservación que conduzcan a acuerdos locales, estatales y gubernamentales con impactos nacionales e internacionales por el hecho de ser la frontera México-Belice.   Por lo tanto, en el Verano de Investigación Científica del Programa Delfín 2019 se realizó el procesamiento de datos de temperatura superficial y por columna para así conocer la variabilidad que tuvo en el año 2018, datos que puedan relacionarse con la interacción biológica y química (i.e. plancton, ictiofauna, mamíferos acuáticos y calidad del agua).



METODOLOGÍA

Se realizó la interpretación de una base de datos que incluía la temperatura superficial y por columna de un monitoreo que se llevó a cabo por parte del equipo del área de Oceanografía física perteneciente a El Colegio de la Frontera Sur (ECOSUR) sobre el Río Hondo y la Bahía de Chetumal. Los datos de temperatura superficial fueron obtenidos del instrumento de medición HANNA multiparamétrica, mientras que los perfiles de temperatura por medio del instrumento oceanográfico CTD CastAway para 13 estaciones, distribuidas a lo largo de 8 km, de las cuales nueve corresponden a Río Hondo y cuatro para  Bahía de Chetumal. Se digitalizaron las bitácoras de datos generadas de las mediciones de cada estación donde se realizaron los muestreos. Se graficaron los datos para poder observar con más detalle el comportamiento de la temperatura superficial y en la columna de agua. Gráficas mensuales de temperatura superficial del año 2018. Gráficas de temperatura superficial por temporada para el 2018 (i.e. secas, lluvias y nortes). Gráficas del perfil de temperatura de cada estación para el año 2018. Gráficas mensuales del perfil de temperatura para el año 2018. Se analizaron los datos y se obtuvieron los valores mínimos y máximos por estación, para obtener los límites de variabilidad de la temperatura durante 2018.


CONCLUSIONES

Durante mi estancia de verano científico adquirí nuevos conocimientos: a) Manejo, operación y mantenimiento de equipo oceanográfico; b) digitalización, procesamiento y generación de bitácoras de campo y base de datos correspondientes; c) medición e identificación de estructuras de protección costera, lo que me permitió entender la integración y relevancia de los procesos físicos y biológicos en estos dos cuerpos de agua. Como resultados principales, las gráficas mostraron la variabilidad espacio-temporal  de la temperatura correspondiente a 2018, al evidenciar que el comportamiento de la temperatura en Río Hondo es más estable que Bahía Chetumal. Por tanto, este trabajo me permitió llevar a cabo el desarrollo de una investigación que podría ser parte de una línea base sobre la importancia de la temperatura, su relación con procesos físicos, biológicos y químicos, así como su potencial incidencia en la distribución de mamíferos acuáticos.
Peral Altamirano Carlos Emmanuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)

SIMULACIóN NUMéRICA DE PROPAGACIóN DE ONDAS ACúSTICAS UTILIZANDO EL MéTODO DE ELEMENTOS FINITOS


SIMULACIóN NUMéRICA DE PROPAGACIóN DE ONDAS ACúSTICAS UTILIZANDO EL MéTODO DE ELEMENTOS FINITOS

Peral Altamirano Carlos Emmanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La Sismología es de gran importancia ya que es la responsable del estudio de los sismos y de la propagación de ondas sísmicas que se generan en el interior o en la superficie de la tierra, con ello se puede estudiar su estructura interna, las causas que dan origen a los sismos y como prevenir su impacto. El estudio de la propagación de las ondas sísmicas se puede complementar con simulaciones numéricas  debido a las dificultades técnicas que conlleva el estudio in situ, por lo que dentro de este campo.La ecuación de onda en medios acústicos nos ofrece un acercamiento simple al comportamiento de ondas sísmicas, por lo que se puede tratar como un punto de partida para modelos más complejos.



METODOLOGÍA

La solución numérica de la ecuación de onda en medios acústicos se implementó en FEniCS (Logg et al.,2012), plataforma de código libre desarrollada en Python y C++, que permite la resolución de ecuaciones diferenciales parciales basándose en el método de elemento finito (MEF). El problema se planteó en una malla unitaria bidimensional, la cual fue creada dentro de FeniCS con el comando UnitSquare(100,100), el número 100 indica que el cuadrado es dividido en 100x100 cuadrados y cada uno de ellos en dos triángulos, así se obtienen 10000 triángulos con un total de 10201 nodos.    Se plantearon condiciones de frontera donde en todo el contorno de la malla la presión tuviera un valor nulo, con el objetivo de poder observar una reflexión en la frontera. Se colocó una fuente puntual en el centro de la malla con una distribución normal. Se modeló 1 segundo de propagación de una onda con una velocidad de 1km/s, tiempo suficiente para poder apreciar los fenómenos de reflexión e interferencia.  Los datos fueron guardados en archivos tipo XDMF debido a su eficiencia tanto de velocidad como de almacenamiento y su compatibilidad con procesos paralelos. Los datos fueron visualizados con ParaView, aplicación de código abierto para la visualización y análisis de datos


CONCLUSIONES

Los conocimientos adquiridos durante el verano me permitieron obtener una solución numérica válida para la ecuación de onda con condiciones de frontera en medios acústicos homogéneos.  Con lo aprendido en FEniCS durante la estancia, se podrían resolver numéricamente otras ecuaciones. La representación gráfica de los resultados fue satisfactoria ya que se observan los fenómenos esperados durante la propagación.   Literatura citada Anders Logg, Kent-Andre Mardal, Garth N. Wells. 2012. Automated Solution of Differential Equations by the Finite Element Method, The FEniCS book. Springer Heidelberg Dordrecht London New York. 723.
Peralta Acosta Natalia, Universidad de la Costa (Colombia)
Asesor: Dr. Mario Alberto Quijano Abril, Universidad Católica de Oriente (Colombia)

PROPUESTA RESTAURACIóN ECOLóGICA ASOCIADA A LAS ESPECIES NATIVAS DEL BOSQUE DE OYAMEL EN EL NEVADO DE TOLUCA, ESTADO DE MéXICO.


PROPUESTA RESTAURACIóN ECOLóGICA ASOCIADA A LAS ESPECIES NATIVAS DEL BOSQUE DE OYAMEL EN EL NEVADO DE TOLUCA, ESTADO DE MéXICO.

Camacho Dávila Montserrat, Universidad Autónoma del Estado de México. Peralta Acosta Natalia, Universidad de la Costa (Colombia). Asesor: Dr. Mario Alberto Quijano Abril, Universidad Católica de Oriente (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El Área de Protección de Flora y Fauna Nevado de Toluca es una Área Natural Protegida ubicada en el Estado de México a más de 3 mil metros sobre el nivel del mar, que abarca una superficie de 53 mil 590 hectáreas (CONANP, 2016).  En esta zona los ecosistemas que predominan son los boscosos, albergando 4 especies forestales tales como: pino (Pinus hartwegii), oyamel (Abies religiosa), encino (Quercus laurina) y aile (Alnus jorullensis). Sin embargo, la cobertura forestal en estos ecosistemas ha sido disminuida debido a factores antropogénicos como: incendios inducidos para generar áreas aptas para el cultivo, la práctica de pastoreo en la zona, así como la extracción de madera de forma insostenible ya sea para consumo propio como leña o para su venta en el mercado, escogiendo en este proceso la madera de mejor calidad, lo que ha generado la pertenencia de árboles con enfermedades, provocando así un incremento en la superficie de plagas y plantas parásitas. (Villers, 1998). Cabe destacar que las zonas de bosque que aún se conservan en el Área de Protección Nevado de Toluca, están infestadas con muérdago verdadero (Phoradendron sp.). Mismo que se presenta tanto en las ramas como en el fuste en individuos adultos y renuevos, lo cual debilita y deteriora el arbolado, esto ha provocado poca regeneración y la disminución de la producción de semilla fértil, por lo que es necesaria la intervención humana, a fin de evitar la pérdida total del ecosistema. Es por ello que se formulan la siguiente pregunta: ¿Qué medidas de restauración ecologica son viables para recuperar la zona boscosa en el Área de Protección de Flora y Fauna Nevado de Toluca?



METODOLOGÍA

En la primera fase se establecerá como ecosistema de referencia el bosque de Oyamel del Parque Nacional el Chico en Hidalgo, México. Posteriormente se delimitará la zona de estudio con respecto a su nivel de viabilidad para el desarrollo del proyecto para más tarde identificar las especies de flora y fauna nativas e introducidas de la región con el fin de evaluar el estado actual del ecosistema, junto con los disturbios que puedan estar comprometiendo la calidad del mismo. De igual forma se busca la participación de las comunidades aledañas, mediante jornadas de sensibilización, educación ambiental y ecoturismo, para que estos sean parte activa como prestadores de servicios ambientales al contribuir con la conservación del bosque. Para la segunda fase se seleccionarán las especies más adecuadas con respecto a los datos obtenidos de la identificación y de esta forma se aplicarán protocolos de propagación ex situ de estas.Contribuir a la regeneración y conservación del bosque de Oyamel aumentando la cantidad de ejemplares de especies nativas en zonas degradadas en el área de estudio del Nevado de Toluca, por medio de la propagación ex situ.


CONCLUSIONES

Contribuir a la regeneración y conservación del bosque de Oyamel aumentando la cantidad de ejemplares de especies nativas en las zonas degradadas en el área de estudio del Nevado de Toluca, por medio de la propagación ex situ, asi como  jornadas de capacitacion a las comunidades aledañas sobre la implementacion y manejo de viveros para la conservacion y medidas de restauracion ecologica. 
Perez Eugenio Diana Lizeth, Universidad Autónoma de Guerrero
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

CAMBIO DE COBERTURA VEGETAL POR CAMBIOS ANTROPOGENICOS DEL MUNICIPIO DE CABO CORRIENTES DEL ESTADO DE JALISCO.


CAMBIO DE COBERTURA VEGETAL POR CAMBIOS ANTROPOGENICOS DEL MUNICIPIO DE CABO CORRIENTES DEL ESTADO DE JALISCO.

Perez Eugenio Diana Lizeth, Universidad Autónoma de Guerrero. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los estudios que se relacionan en los cambios progresivos en la cobertura vegetal y de uso de suelo ha cobrado importancia en la presente investigación se analizó el cambio de cobertura vegetal  en el periodo 2013-2017 en el municipio de Cabo Corrientes. La humanidad se enfrenta a enormes cambios por lo que busca diversos mecanismos para adaptarse a ciertos factores que están generando deterioro y degradación ambiental, de tal manera que esta investigación se enfocara en determinar cuáles han sido la dinámica de estos cambios en la cobertura vegetal, así como el impacto que la población ejerce en ella. La presente investigación se analizará el cambio que han ocurrido en los años que han transcurrido del periodo de 2013-2017 que se ha generado sobre la cobertura vegetal del municipio. Es necesario analizar los principales procesos de cambio en el uso del terreno Comprender, identificar y analizar.



METODOLOGÍA

La metodología se llevó en cuatro etapas: primeramente, se realizó una investigación bibliográfica sobre el tema de interés, posteriormente se realizaron los puntos de muestreo sobre la cobertura vegetal del municipio, a continuación, se obtuvieron dos imágenes landsat una imagen del 2013 y otra del 2017, para procesarlas posteriormente. Finalmente se realizó una clasificación supervisada con la cual se obtuvieron dos mapas para su análisis, con el apoyo de la cobertura vegetal de Inegi serie VI, a esto le agrego un análisis de confiabilidad mediante el método kappa. Finalmente, se evalúa y se observa la calidad de los resultados a través de métodos de verificación en el campo.


CONCLUSIONES

Como resultados de evaluación en el municipio de cabo corrientes a través de los SIG y además del trabajo de campo. Se pudo identificar los cambios de cobertura del periodo 2013-2017, los principales cambios generados por las actividades humana en el cual la agricultura aumento. Esta información es importante ya que puede apoyar en la conservación de los recursos naturales de uso de suelo, es muy importante de seguir con esta tendencia la conversión de cobertura en los próximos años puede ser más drástica por los cambios antropogénicos.
Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
Pérez López Ingrid, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México

MEDIDAS DE TERMOLUMINISCENCIA DE AL2O3:EU+3 EXPUESTO A RADIACIóN IONIZANTE BETA


MEDIDAS DE TERMOLUMINISCENCIA DE AL2O3:EU+3 EXPUESTO A RADIACIóN IONIZANTE BETA

Pérez López Ingrid, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Epifanio Cruz Zaragoza, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La termoluminiscencia (Tl) es la emisión de luz de un material que emite al ser calentado y que fue previamente ionizado, gracias a la recombinación de pares electrón-hueco. Se aplica en todo el mundo para la dosimetría de radiación ionizante. Las principales características de los diversos materiales Tl utilizados en las mediciones de la radiación son: sencilla curva de Tl, la estabilidad de la señal en el tiempo después de la irradiación, es decir el decaimiento, la respuesta lineal en función con la dosis, y la influencia de la energía de la radiación o fuente. Existen distintos métodos para sintetizar materiales, en este proyecto se empleó el método SOL GEL (hidrolisis, condensación, gelación y secado), siendo uno de los más importantes para la producción de materiales sólidos a partir de pequeñas moléculas. El proceso sol-gel consiste básicamente en construir redes compuestas por materiales inorgánicos partiendo de una solución homogénea de alcóxido, solvente, agua y catalizador de hidrolisis. Esta solución se conoce como SOL. Una característica importante es que, en el sol se forman micelas suspendidas en líquido que, con el transcurso del tiempo crecerán hasta formar el GEL, obteniendo monolitos. Durante la estancia se sintetizó Al2O3 y Al2O3:Eu+3 al 0.3%, 0.6% y 1% mol para analizar su respuesta Tl en función con la dosis.



METODOLOGÍA

Las sustancias que intervienen en el proceso sol-gel son los precursores y reactivos, siendo el primero para nuestros fines el alcóxido: isopropoxido de aluminio (C9H21O3Al). El segundo se conforma por los solventes y el catalizador: H2O, C2H6O (alcohol etílico) y C2H4O2 (ácido acético glacial), respectivamente. El proceso consiste en verter dentro del vaso A el alcóxido y la mitad de la cantidad total de ácido y etanol. Dentro del vaso B se agregó agua, el dopante (Eu3+) al 0.3%, 0.6% y 1% mol y el sobrante de ácido y etanol. Primero se preparó el vaso B y luego el A para después vaciar el contenido de B dentro del A. Se mezclaron los reactivos con ayuda de una espátula hasta formar una mezcla homogénea, la cual se dejó cuatro días en reposo para después evaporar los solventes en la plancha a 80°C por dos días. Finalmente se procedió a dar un tratamiento térmico para formar el óxido de aluminio mediante una rampa a 900°C por 11 h. Antes de realizar alguna medición de termoluminiscencia se requirió conocer las reglas de seguridad que se deben seguir en el laboratorio, el funcionamiento de los dosímetros e irradiadores, además de comprender algunos conceptos básicos de estado sólido y radiación, tales como termoluminiscencia, teoría de bandas, propiedades de los cristales, radiación alfa, beta y gamma, parámetros cinéticos como energía de activación y factor de frecuencia. Teniendo conocimiento de los conceptos mencionados se procedió a medir los fondos de las cuatro muestras. Para tener una mejor idea del comportamiento de termoluminiscencia del material se irradia con radiación no ionizante la muestra a 1% mol de dopante con una lámpara de mercurio tipo lápiz de 556nm y de 450nm por 5 y 10 min., con luz blanca por 2 min., con luz UV por 5, 15 y 30 min. Después de cada vez que se irradia el material se mide su curva de brillo TL en el dosímetro Harshaw TLD Model 3500. La muestra de Al2O3 con rampa, la de Al2O3:Eu+3 a 1% mol sin rampa y con rampa se irradian con radiación ionizante beta en el equipo TLexsyg TL-OSL a las siguientes dosis:  0.1, 0.5, 1, 2, 5, 10, 20, 40, 50 y 100 Gy. Se grafican los datos y su respuesta de termoluminiscencia contra dosis. Analizando los datos obtenidos, se decide tener un control sobre el tamaño de partícula, por lo que se tamizan las cuatro muestras a diferentes dosis de dopante con tratamiento térmico de rampa para obtener un tamaño de 74mm. Estas se irradian a 50 Gy, de esta forma, en base a su respuesta TL se eligen las muestras a 0% mol, 0.3% mol y 1% mol para darles un tratamiento térmico de annealing a 900°C por dos horas e irradiarlas a 0.1, 0.5, 1, 2, 5, 10, 20, 40, 50 y 100 Gy con radiación ionizante beta.


CONCLUSIONES

Las curvas de brillo de Al2O3:Eu+3 a 1% mol irradiadas con radiación no ionizante, muestran curvas muy parecidas a las obtenidas al medir su fondo. Sin embargo, las curvas de brillo de la muestra a 1% mol de dopante irradiadas con radiación beta, presentan curvas muy anchas, siendo la intensidad mayor correspondiente a la mayor dosis. Además, la tendencia lineal de respuesta TL contra dosis mejora en la muestra con tratamiento térmico de rampa. Se comparan los datos obtenidos de las muestras con tamaño de partícula especifico (74mm) con las que no y se observar una mejor respuesta de termoluminiscencia, por lo que concluimos que tener un control sobre el tamaño de partícula nos ayuda a obtener mejores respuesta TL.
Pérez Lozada Sofía, Instituto Politécnico Nacional
Asesor: Mtro. Juan Francisco Carranco Lozada, Instituto Politécnico Nacional

EVALUACIóN HIDROGEOQUíMICA EN LA COSTA DEL ÁREA NATURAL PROTEGIDA YUM BALAM EN LA ALCALDíA DE HOLBOX, PARA DIAGNOSTICAR LOS IMPACTOS AMBIENTALES POR CONTAMINACIóN ANTRóPICA


EVALUACIóN HIDROGEOQUíMICA EN LA COSTA DEL ÁREA NATURAL PROTEGIDA YUM BALAM EN LA ALCALDíA DE HOLBOX, PARA DIAGNOSTICAR LOS IMPACTOS AMBIENTALES POR CONTAMINACIóN ANTRóPICA

Galicia Palencia Sandra Yael, Consejo Quintanarroense de Ciencia y Tecnología. Pérez Lozada Sofía, Instituto Politécnico Nacional. Asesor: Mtro. Juan Francisco Carranco Lozada, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las principales actividades económicas en la isla de Holbox son el turismo, agricultura, ganadería y la pesca, entre otros. Por esta razón, la presencia de contaminación afectaría directamente las actividades del lugar, la salud humana y la alteración a largo plazo de la calidad del agua de las costas del ANP Yum Balam. En México, el turismo es el tercer generador de divisas del país; de acuerdo con la Cuenta Satélite del Turismo de México de 2004, aporta 7.8% del producto interno bruto (PIB) del total nacional. ( Magaña,2018.). Debido a la afluencia de visitantes y pobladores a la Isla de Holbox y su importancia económica a nivel nacional, es necesario realizar evaluaciones de la calidad del agua. La utilidad de esta investigación radica en identificar contaminantes presentes en la isla de Holbox a fin de demostrar la polución antropogénica, mediante el análisis hidrogeológico de la región, así como comparar las concentraciones de dichos residuos con la norma oficial mexicana NOM-001-SEMARNAT-1996 que establece los límites máximos permisibles de contaminantes en las descargas de aguas residuales y bienes nacionales. 



METODOLOGÍA

La metodología de trabajo consistió en la recopilación bibliográfica del área de estudio y análisis de la estratigrafía, topografía y geología de la Isla Holbox. El lugar de estudio se encuentra en el extremo norte del estado de Quintana Roo, en  las coordenadas 21° 31’ Latitud Norte y 87°23’ Longitud Oeste, perteneciente al municipio de Lázaro Cárdenas. Tiene una extensión de 40 km de largo y 2 km de ancho y unos 34 km de playa hacia el norte. El área de interés se ubica en la zona 16 de acuerdo con las coordenadas UTM, con las que se trabajaron en los diferentes programas. Para la investigación se estudiaron datos relativos de la zona acerca de su geología,que servirán para entender el posible movimiento de contaminantes a través de la realización de un muestreo para el análisis de la calidad de agua de las costas de la isla. A través del programa  ArcMap, se generó el recorte de la topografía de la zona de Isla de Holbox  en el cual puede visualizarse un mayor detalle en elevaciones y que se empleó como referencia para la comparación de la geología del lugar. La CARTA GEOLÓGICO-MINERA CANCÚN F16-8, indicó la geología predominante en cada parte de la Isla de Holbox, en el que encontramos Suelo Palustre y Litoral. La formación  acuífera está formada por depósitos de arenas con gravas y limos y se encuentra confinada por depósitos arcillas limosas. En condiciones naturales el acuífero se comporta prácticamente como un acuífero libre puesto que el nivel  freático se sitúa muy próximo al techo de las arenas.( Molinero,J. 2005) Por medio del programa ArcMap, se adaptaron ambos gráficos en coordenadas UTM y de esta manera se pudo obtener más precisión en la caracterización del lugar. A partir de ello se creó el mapa de la geología del lugar, incluyendo su georeferencia a través de la topografía. El mapa creado fue utilizado en el programa Surfer para generar los vectores que servirán  para referenciar los cortes de la geología de la zona. Se definieron dos cortes, el corte longitudinal A’ -A’1 que atraviesa la mayor parte del ANP Yum Balam y el corte transversal B- B’1 que corresponde a  la punta de la Isla de Holbox, donde se encuentra la zona urbana y parte de la Península de Yucatán. Teniendo en cuenta los vectores generados, se utilizaron la longitud del vector y la elevación de cada punto de intersección con la geología del lugar para caracterizar el tipo de suelo predominante,todo ello con ayuda del programa Grapher. En el corte longitudinal A’ - A’1, inicia en la punta de la Isla de Holbox, de la longitud  0-1,500 pertenece al inicio de la alcaldía de Isla de Holbox, mientras que de los 9,000-10,500 m a la zona más cercana a la reserva Yum Balam. Este corte atraviesa la mayor parte de la isla, indicándonos que  aproximadamente en la parte media de la isla y la más cercana a la Reserva Yum Balam, encontramos depósitos de Litoral, que en su mayoría está compuesta por arena blanca. Mientras que en el inicio de la isla, podemos encontrar mayor suelo palustre. De la misma forma con el corte transversal B’-B’1, siendo la elevación máxima 6 metros, se observa suelo palustre en  gran parte de la costa, de composición de limo y arcilla, mezclado con materia orgánica. Al final del corte se puede distinguir el inicio de la piedra caliza, que es el tipo de suelo que caracteriza a la Península de Yucatán y que comprende a un tipo de rocas carbonatadas. A través del muestreo se espera caracterizar el tipo de agua conforme el Diagrama de Pipper, diagramas triangulares que se utilizan para representar la proporción de tres componentes en la composición de un conjunto o de una sustancia. La suma de los tres componentes debe representar el 100% de la composición de lo que se considera. Con ello, se espera llegar a una caracterización adecuada del lugar, así como demostrar el estado de la calidad del agua en el momento de las costas del Área Natural Protegida Yum Balam.


CONCLUSIONES

La estancia de investigación del Programa Delfín permitió la adquisición de nuevos conocimientos teóricos sobre la interacción del agua con los diferentes tipos de suelo y roca presentes en la Isla Holbox, así como su correlación con la contaminación. De igual forma, el conocimiento en campo que adquirimos acerca de la interacción hidrogeoquímica y la adaptación de vegetación y fauna, nos hace comprender la importancia del estudio del suelo, las actividades que se llevan a cabo en ellas y el aprovechamiento que puede darse a partir de sus características. Finalmente, la investigación busca obtener un diagnóstico fidedigno de las concentraciones de contaminantes antropogénicos.
Pérez Salvador Cinthya Paola, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))


SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))

García Bon Miguel Ángel, Universidad de Guadalajara. Pérez Salvador Cinthya Paola, Tecnológico de Estudios Superiores de Tianguistenco. Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México. Sánchez Duarte Soraida, Universidad Estatal de Sonora. Schmerbitz Valdés David, Universidad de Guadalajara. Talamantes Herrera Ana Bertha, Universidad de Guadalajara. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cromo es un elemento metálico inodoro e insípido que forma parte de la corteza terrestre. También se encuentra en grandes cantidades en el aire, el agua, la tierra y los alimentos. Los compuestos de cromo hexavalente son un grupo de sustancias químicas que tiene propiedades beneficiosas, como resistencia a la corrosión, durabilidad y dureza. Estos compuestos se han usado en amplia medida como anticorrosivos y para fabricación de pigmentos, acabado de metales y cromados, producción de acero inoxidable, curtido de cueros y conservantes para madera. También se han usado en procesos de teñido en la industria textil, tintas de impresión, lodos de perforación, fuegos artificiales y síntesis de sustancias químicas. Los desechos, a su vez, son vertidos en cuerpos de agua, muchas veces los mismos sin un tratamiento adecuado para su liberación. El cromo es un contaminante ambiental de fácil dispersión y de gran importancia debido a su toxicidad. El cromo hexavalente está clasificado en el grupo 1 de cancerígenos con múltiples mecanismos complejos por los cuales la enfermedad puede ser desarrollada en diferentes zonas del cuerpo. En este verano de investigación se plantea la implementación de los HDLs como absorbentes de este contaminante, experimentando con variaciones en la síntesis de estos; añadiendo estructuras diversas y/o modificando las proporciones utilizadas en su reacción.



METODOLOGÍA

Se comenzó inicialmente con la síntesis de los HDLs. El primer día se procedía a hacer los cálculos prudentes para el pesado de las muestras para obtener al final HDLs con una masa aproximada de 5 g, para esto se utilizaron  y  en una proporción molar que variaba de muestra en muestra pero siempre manteniéndose en el rango de 1:2 - 1:3, siendo el compuesto de zinc el que siempre existía en mayor proporción. Si se daba el caso en el que se requiriera adicionarle además una estructura distinta para evaluar después su repercusión en la adsorción, se procedía a pesar también una cantidad significativa del reactivo, añadiendo también las sustancias necesarias para su buena dispersión; por ejemplo, en el caso de las nanofibras de carbono, se requería funcionalizarlas primero o adicionarle   algún surfactante (SDS), además de unas horas en sonicación. Todo era mezclado en agitación, una vez el reactivo anterior se percibía completamente disuelto, se agregaba el siguiente. Esto en un volumen de agua destilada no mayor a 300 mL. Una vez se alcanzaba la homogeneidad se procedía a adicionarle , el mismo era gradualmente añadido con ayuda de una probeta, como si de una titulación se tratase. El pH de la mezcla era monitorizado con ayuda de un potenciómetro, se buscaba idealmente obtener un pH final de 9, conseguido esto se dejaba en agitación constante por un periodo aproximado de 24 h. Para el segundo día, el objetivo cambiaba a, mediante lavados en centrifugación (10,000 rpm, por 5 min), disminuir el pH de la muestra hasta neutralizarlo. A su vez, el número de lavados variaba de muestra en muestra, algunos requiriendo simplemente 3 y otros más de 6. La manera en la que se realizaban era mediante la adición de agua destilada a los tubos de centrifugación conteniendo el volumen de la muestra y el posterior desecho del sobrenadante para la repetición del proceso. Una vez el objetivo era conseguido, los HDLs limpios y húmedos eran depositados en capsulas de porcelana para someterlos a un proceso de secado en una estufa, esto también durante aproximadamente 24 h. En el tercer día de la síntesis se retiraba del secado y se procedía a moler en un fino polvo con ayuda de un mortero. Para finalmente guardar en bolsitas de plástico. Realizando este procedimiento, y haciendo más de una muestra por día, se lograron obtener más de 20, las mismas siendo casi todas distintas. Para los análisis de adsorción se utilizó la técnica de la espectrofotometría Uv-visible, previamente se habían dejado individualmente en tubos por dos días cada una de las muestras (50 mg), cada tubo tenía un volumen de 20 mL de una disolución aproximada de 300 ppm de . Esto en un estado constante de agitación. Se retiraron, y se dejaron reposar para que el HDL precipitara. Cuando esto sucedió, se siguió el método estandarizado para la colorimetría en el análisis del cromo. Se realizaron otros análisis tales como la difracción de rayos x, el XPS y el SEM para la caracterización de las muestras, revelando información muy interesante, como que el procedimiento fue el adecuado por la limpieza de las muestras. Se realizó la misma experimentación con  revelando una presunta adsorción, la misma no siendo concluyente por la necesidad de darle mantenimiento al equipo.


CONCLUSIONES

De las muestras sintetizadas, las que contenían nanofibras de carbono sin SDS fueron las que adsorbieron en mayor medida. Gracias al análisis del XPS se pudo confirmar que debido a alguna interacción con el aluminio en su composición la adsorción podría llevarse a cabo, entre otras cosas. En este verano de investigación el aprendizaje fue muy grande y variado, nos familiarizamos con todos esos métodos de análisis, su fundamento y el cómo funcionaban. Desarrollamos más destreza en el laboratorio y en el trabajo en equipo, sin mencionar todo el conocimiento teórico detrás de una quizás síntesis sencilla. Aprendimos algunas otras metodologías, como es el caso de la funcionalización de estructuras de carbono, la colorimetría del cromo, del Flúor además de cómo funciona la investigación de manera generalizada. El proyecto deja muchas cosas y datos con los cuales se podría trabajar, análisis que extras que podrían revelar información muy valiosa. Y una pregunta al aire, por la cual esta idea surgió. ¿Podrán adsorber PCBs?   https://www.sciencedirect.com/science/article/pii/S2468202019300294 https://www.sciencedirect.com/science/article/pii/B9780444594532000330 https://www.cancer.gov/espanol/cancer/causas-prevencion/riesgo/sustancias/cromo  
Ponce Ferral Brandon Alfonso, Instituto Politécnico Nacional
Asesor: Dr. Plácido Zaca M, Benemérita Universidad Autónoma de Puebla

SENSOR DE FIBRA óPTICA


SENSOR DE FIBRA óPTICA

Ponce Ferral Brandon Alfonso, Instituto Politécnico Nacional. Asesor: Dr. Plácido Zaca M, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La presencia de nuevos métodos de censado aplicados en la industria, la medicina y en diversos aspectos de la ciencia siempre han sido requeridos, la continua evolución del ser humano ha permitido que se generen técnicas innovadoras que nos ha llevado más allá de una simple regla de madera que nos permite medir centímetros, a poder medir distancias enormes a través de cámaras satelitales, desde un estetoscopio para escuchar latidos del corazón hasta poder caracterizar distintos tipos de señales eléctricas generadas por el mismo pulso cardiaco, el progreso es totalmente inminente. Hasta el día de hoy se siguen teniendo problemas de salud debido a patologías relacionadas con un alto consumo de azúcar, según un estudio de la Oficina de Información Científica y Tecnológica para el Congreso de la Unión (INCyTU) el 85% de la población mexicana tiende a sobrepasar el consumo recomendado por la OMS, la ingesta sin moderación tiende a alterar la funcionalidad de nuestro torrente sanguíneo ante las altas concentraciones presentes en él, una visión más amplia de esto nos permite observar que este problema viene también de la calidad en las líneas de producción de bebidas en masa, por ejemplo, en las cantidades de azúcar presentes en un jugo, estos incidentes introducen al cliente a un posible consumo excesivo de algún tipo de endulzante así como generar gastos al alterar los tiempos del proceso de la industria alimenticia. La principal problemática que se presenta es el generar un sensor óptimo, que a la vez sea económico y adaptable a todo proceso, que tenga la capacidad de detectar algún elemento especifico, por ejemplo, la sacarosa en un medio acuoso, por lo que en esta estancia de investigación se buscó la introducción de un nuevo tipo de sensor basado en fibra óptica y en los principios físicos, químicos y de otras ramas de la ciencia necesarios para su aplicación.



METODOLOGÍA

Se utilizó una fibra óptica SM300 de Thorlabs, el diámetro del núcleo era de 7.5 micras y el del recubrimiento de 125 micras, esta fibra se trató en una sección específica mediante un proceso químico usando ácido fluorhídrico durante un lapso de 35 minutos aproximadamente a una velocidad de reducción de 3.27 micras por minuto hasta lograr un diámetro de 7.3 micras muy cercano al tamaño del núcleo, todo esto fue para poder aprovechar el fenómeno de la onda evanescente el cual permite que las alteraciones generadas en el medio externo de la fibra óptica reducida cambien la potencia interna del núcleo dando así variaciones a la salida del sensor. Ya con la fibra reducida se procedió a estructurarla adecuadamente sobre un soporte plástico dejando 2 extremos libres para su utilización como sensor, éste se posicionó adecuadamente con el uso de diversas herramientas sobre un espacio donde posteriormente se acomodaron los recipientes con distintas concentraciones de sacarosa, es importante que la zona reducida del sensor sea la que entre en contacto con el medio en el que se va a detectar una alteración, para llevar a cabo el experimento se incidió un láser sobre un extremo de la fibra óptica, el láser tenía una longitud de onda de 975nm y se utilizó a una corriente de 350mA, de esta manera se pudo medir la potencia obtenida a la salida mediante un sensor de fotodiodo esférico integrado S145C conectado a un medidor PM100D ambos de Thorlabs. Para la fase experimental final se prepararon 10 soluciones con distintas concentraciones desde 5% hasta 50% de sacarosa en agua con incrementos de 5%, además de preparar también 10 recipientes con una concentración de 20% de Dextran para la limpieza de la fibra óptica reducida entre cada proceso de censado, cabe resaltar que los recipientes tenían un diámetro y alturas adecuados a nuestro sensor. El proceso consistió en ir cambiando las soluciones con distintas concentraciones de sacarosa en orden ascendente, colocándolas adecuadamente sobre la fibra óptica reducida y entre cada medición realizar una limpieza durante 15 segundos en la solución con Dextran para eliminar cualquier posible residuo que hubiese quedado sobre el sensor, entre cada medición se tomaron registros de potencia a la salida para notar qué era lo que sucedía.  


CONCLUSIONES

  Durante la estancia de investigación que realicé se buscó crear una innovadora manera de censar biomoléculas con una herramienta que se planteaba exclusiva para ser usada en telecomunicaciones, la fibra óptica, mediante el conocimiento de parámetros físicos relacionados a la luz tales como la ley de Snell, la onda evanescente, y entendiendo las ventajas que otros principios sumados podrían otorgarnos, se manipuló la forma, la estructura y el espesor de este elemento para ser utilizado a nuestra conveniencia, con el objetivo en común de poder optimizar el sensor para detectar cambios ante diferentes concentraciones de sacarosa sobre un medio acuoso, esto con el fin de poder ser utilizado como una herramienta para solucionar una gran gama de problemas en distintas áreas. En realidad en la aplicación no existen límites ya que se han realizado de manera internacional múltiples procedimientos para utilizar dispositivos de esta índole, dependiendo del problema se pueden utilizar leyes de cualquier dominio de las ciencias, para alterar la fibra óptica de una forma más allá de su funcionalidad principal, así logrando el correcto censado de algún elemento que pueda tender al cambio en el entorno en particular en donde sea introducido el biosensor.
Ponce Peña Cinthya Alejandra, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas

ESTUDIO DE LAS PROPIEDADES óPTICAS DE UN SISTEMA MULTICAPAS GRAFENO Y METAMATERIAL IZQUIERDO.


ESTUDIO DE LAS PROPIEDADES óPTICAS DE UN SISTEMA MULTICAPAS GRAFENO Y METAMATERIAL IZQUIERDO.

Ponce Peña Cinthya Alejandra, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

El metamaterial izquierdo (LHM, por sus siglas en ingles) tiene una estructura conformada por anillos partidos y cables resonadores, los cuales crean permitividad eléctrica y permeabilidad magnética negativas de manera simultanea, lo que permite que el material obtenga un índice de refracción negativo. Los LHM han sido de gran interés en el ámbito científico por las grandes aplicaciones que se le pueden atribuir como son los lentes perfectos, ya que no necesitan ser curvos para hacer converger la luz incidente; o las capas de transparencia, en donde se aprovecha la reflexión negativa para tener la capacidad de hacer invisibles los objetos que cubren o rodean; y algunas otras aplicaciones. Por otra parte, el grafeno es un material nanométrico bidimensional conformado por átomos de carbono perfectamente ordenados, que a bajas energías su relación de dispersión es lineal con gap de energía cero, cuenta con grandes características que han hecho que el mundo científico se interese mucho en dicho material, por mencionar solo algunas, es su flexibilidad, gran resistencia, transparencia, buena conductividad térmica y eléctrica, entre otras. A cada uno de estos materiales por separado se le atribuyen grandes propiedades y a la vez aplicaciones prometedoras, por lo que estudiar un sistema multicapas compuesto por estos 2 materiales, busca amplificar y aprovechar las ventajas que tiene cada uno por separado, y obtener mejores propiedades ópticas de estos materiales funcionando en un mismo sistema.



METODOLOGÍA

Se utiliza el método de matriz de transferencia en el esquema de Pochi-Yeh, el cual permite obtener información sobre la propagación de las ondas electromagnéticas, así como la absorción, reflexión y transmisión que presentan en el sistema multicapas a desarrollar; este método facilita los cálculos necesarios para estudiar las propiedades de estos materiales con ayuda de las matrices y matrices inversas, en las cuales vienen integradas las ecuaciones que rigen el comportamiento óptico de los materiales. Se emplean las matrices dinámicas las cuales representan el paso de la onda electromagnética entre 2 materiales, las matrices de propagación, en las que contiene información del paso de la onda dentro de un material, y la matriz de conductividad, donde viene incorporada en la matriz la conductividad que tiene el grafeno. El modelo de conductividad usada para describir la respuesta óptica del grafeno es la utilizada por Falkovsky y que considera contribuciones de las transiciones intra e interbanda.


CONCLUSIONES

Se desarrollo una simulación computacional para el estudio óptico de un sistema multicapas grafeno metamaterial. Se observo que la absorción, transmisión y reflexión de la onda dentro del sistema no presentan ninguna modificación al cambiar los espesores del medio 1 y 2, cuando el medio de separación es aire. En cambio, al variar el espesor del LHM se observa que la absorción va creciendo alrededor de ω0, y se ensancha más el pico que se presenta en ese valor mientras crece el valor del espesor del LHM; la reflexión aumenta en los valores cercanos a ω0 ademas genera la formación de un pico y aumenta su amplitud en los valores de frecuencia de ω0 a ωp; en cambio, la transmisión tiene un comportamiento contrario. Ahora estudiamos la influencia del factor de llenado (F=0.25, 0.5 y 0.75) de los anillos resonadores en los espectros; para ω0=0.115, la absorción crece de manera más notoria alrededor de ω0, contrario a lo que sucede para ω0=0.2; la reflexión decrece entre las frecuencias ω0 y ωp. La transmisión decrece en frecuencias menores a ω0 , se extiende la forma de línea ω0 y aumenta la amplitud en el otro rango de frecuencias. Es importante mencionar que la respuesta magnética del LHM se vuelve más importante al aumentar F por lo que se modifican los espectros de manera importante alrededor de la frecuencia ω0 . La transmisión al variar 2 valores de ωp (0.46 y 0.69) decrece alrededor de ω0; la reflexión crece en valores cercanos a ω0, y la forma de línea se extiende; en la absorción el cambio más notorio es en el valor exacto de ω0 donde se observa un fuerte incremento. Además de lo mencionado anteriormente, es importante resaltar que al aumentar el valor de ωp aparece un escalón en la absorción y un desdoblamiento en el mínimo de la reflectividad alrededor de la frecuencia ω0. Para ω0 se utilizaron los valores 0.115 y 0.2, donde la absorción para dLHM=50 nm crece alrededor de ω0, mientras que para 100 y 500 nm, su valor decrece; la transmisión baja en torno a ω0 para dLHM=50 y 100 nm, mientras que suben para 500 nm. Y la reflexión muestra un pico agudo exactamente en ω0. A varíar los ángulos de incidencia, para polarización TE la reflexión crece en todo el rango de frecuencia; para la transmisión pasa lo contrario, y en la absorción se observa un decremento. Por otro lado, para polarización TM, la reflexión decrece en ω0 pero va aumentando en valores alrededor de ωp; en cambio en la transmisión ocurre lo contrario en las frecuencias correspondientes; en la absorción los picos en ω0 y ωp decrecen al aumentar el ángulo. Es importante resaltar que la luz con polarización TE interactúa fuertemente con el LHM alrededor de ω0 , mientras que para polarización TM lo hace alrededor de la frecuencia ωp. Ahora al repetir el sistema n veces, se observa que los espectros varían muy poco respecto a la distancia de separación de los sistemas para cualquier ángulo. La influencia del grafeno se vuelve importante en los sistemas multicapas ya que modifica fuertemente la forma de la línea de los espectros y en particular aumenta la absorción para frecuencias mayores a 2µg.
Porcayo Loza Jazmin, Universidad Autónoma de Guerrero
Asesor: Dr. Alberto Sánchez González, Centro Interdisciplinario de Ciencias Marinas (IPN)

DISTRIBUCIóN DE MATERIA ORGáNICA Y CARBONATO DE CALCIO EN SEDIMENTOS SUPERFICIALES DE LA BAHíA DE LA PAZ


DISTRIBUCIóN DE MATERIA ORGáNICA Y CARBONATO DE CALCIO EN SEDIMENTOS SUPERFICIALES DE LA BAHíA DE LA PAZ

Porcayo Loza Jazmin, Universidad Autónoma de Guerrero. Asesor: Dr. Alberto Sánchez González, Centro Interdisciplinario de Ciencias Marinas (IPN)



PLANTEAMIENTO DEL PROBLEMA

Los océanos ocupan el 71% de la superficie del planeta, las aguas oceánicas superficiales, hasta unos cientos de metros de profundidad, están sobresaturadas con CaCO3 y a mayor profundidad el mismo CaCO3 es más soluble. La química de los océanos tiene consecuencias en los organismos que los habitan, actualmente, la contaminación ambiental es un punto de preocupación, ya que se ha convertido en uno de los problemas más críticos, debido a la actividades humanas que pueden tener efecto directo sobre los ciclos químicos del medio oceánico. La investigación de los océanos es la clave fundamental para conservar a la Tierra y a los seres humanos, en caso de que ocurriera un cambio en el mar ya sea por temperatura, nutrientes, etc, desencadenaría un rompimiento de ciclos naturales de la Tierra. La Bahía de la Paz, tanto como el Mar de Cortés debería ser uno de los lugares más estudiados debido a su diversidad de organismos en el océano y la riqueza de sus aguas.



METODOLOGÍA

Se utilizaron 102 muestras de sedimento de la Bahía de La Paz que anteriormente fueron recolectadas, muestras que posteriormente se maceraron con el fin de que las muestras fueran procesadas correctamente, debido a que de esta forma el material se carboniza más fácilmente, también se etiquetaron y pesaron. Con los cuidados y normas requeridas por el Laboratorio de Química Marina del CICIMAR estas muestras fueron puestas a carbonizar en una mufla a 550° y 1050° por una periodo de una hora respectivamente para cada temperatura, después de dejar enfriarlas por al menos 8 horas, se obtuvieron pesos, creando una base de datos con la información obtenida con todos los datos arrojados, por medio de ecuaciones se calcularon los porcentajes de materia orgánica (a 550°) y Carbonato de Calcio (CaCO3 a 1050°). Con el Dr. Alberto Sánchez, se analizaron los valores obtenidos para llegar a la conclusión final de que tan similares se mostraban con los datos reales y correctos. Con los datos, se realizó un mapa con el software ArcGIS 10.3 de la materia orgánica y CaCO3 plasmado en un mapa de la Bahía de La Paz.


CONCLUSIONES

Los datos obtenidos de materia orgánica de 1.7% mínimo y 24.6% máximo fueron comparados con la profundidad de la bahía, resultando un mayor porcentaje de materia orgánica entre los 300 m y 400 m de profundidad. En los datos de CaCO3 se obtuvo 2.8% como mínimo y 44.8% como máximo, estos datos demuestran en el mapa que el CaCO3 está acumulándose en dirección de las zonas más someras de la bahía. Este comportamiento de acumulación de materia orgánica a mayor profundidad y de CaCO3 hacia zonas más someras de la bahía corresponde a estudios similares en diversas regiones del océano. La gran acumulación de materia orgánica en el interior de la bahía es muy similar a sistemas de surgencias de frontero oriental del océano, por ejemplo, la corriente de California o Humboldt.
Pozas Ramírez Asahel Enrique, Instituto Politécnico Nacional
Asesor: Dr. Andrés Pedroza, Universidad de Colima

GEOMETRíA Y TOPOLOGíA


GEOMETRíA Y TOPOLOGíA

Pozas Ramírez Asahel Enrique, Instituto Politécnico Nacional. Asesor: Dr. Andrés Pedroza, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Las ciencias matemáticas básicas (Álgebra, Geometría, Teoría de Números y Combinatoria) aunque están bien definidas y diferenciadas, muchas veces se vinculan entre sí para atender problemas teóricos y prácticos que surgen tanto en el mismo campo de las matemáticas como en otros campos científicos y técnicos, naturales y sociales. A lo largo de este verano de investigación científica conocí varios temas de ‘Topología Algebraica’, que es una rama de la Topología Matemática y me percaté de que sus herramientas principales forman parte del Álgebra básica y avanzada. Así mismo, reconocí que los ‘espacios topológicos’ subyacen literalmente al espacio físico que nos rodea y no dudo en pensar que probablemente puedan encontrarse en áreas económicas y sociales o inclusive en áreas abstractas del conocimiento humano. En general, el planteamiento del problema en este verano de investigación científica lo resumo en adquirir una visión cercana a las herramientas básicas de la Topología con la cual sea capaz de expandir mis ideas matemáticas acerca del mundo que me rodea.



METODOLOGÍA

Se estudiaron los temas sobre ‘inversión’, ‘espacios n-dimensionales’, ‘gradientes’, ‘característica de Euler’, ‘superficies orientables y no orientables’ y ‘fractales’. Los tópicos mencionados se estudiaron de manera teórica, pero apoyándonos en modelos lógico - prácticos, puesto que los modelos físicos reales no estaban disponibles en tiempo presente. Una ventaja de los modelos lógico - prácticos es que son fáciles de imaginar y predecir su comportamiento. En el caso de este proyecto de investigación se tuvo una ventaja adicional, que consistió en el apoyo visual por computadora de algunos objetos estudiados: sus formas, sus características y su análisis matemático mediante software de simulación. Inversión La inversión es una transformación entre puntos en un plano; esta transformación se realiza con la ayuda de una circunferencia C , con centro O en  y radio r , la que se conoce como ‘circunferencia de inversión’. Se dice que P' es el punto inverso a P respecto a C=(O,r) si: P' se encuentra sobre el rayo que parte de  en dirección a . OP*OP'=r*r Cabe destacar que esta transformación mostró varios patrones interesantes para determinados lugares geométricos: para una recta que pasa por O , su inverso está sobre ella misma; el inverso de una recta que no pasa por O , es una circunferencia que pasa por O ; el inverso de una circunferencia que pasa por O  es un a recta que no pasa por O ; el inverso de una circunferencia que no pasa por O , es una circunferencia que no pasa por O . Gradiente El gradiente  de un campo escalar f , es un campo vectorial e indica la dirección y rapidez de variación de f . Podemos decir que, el gradiente, es la forma de obtener una derivada definida en varias variables, con la diferencia de que el gradiente es una función vectorial y la derivada una función escalar. A continuación, un ejemplo para tener una mejor comprensión del gradiente: Fractales Un fractal es un objeto geométrico que, a pesar de su forma irregular, se repite de alguna forma matemática (función generadora) en diferentes escalas formando patrones y, además, cumple ciertas características que lo diferencian de otros objetos geométricos. A continuación, se describen las principales características: -Un fractal es ‘autosimilar’, es decir, al mirar una parte del fractal a mayor escala, el objeto parece igual y no se distingue este cambio de escala. -Su ‘dimensión fractal’ es mayor que su dimensión topológica, así, por ejemplo, una línea recta no es un fractal. -Los fractales no son diferenciables matemáticamente en ningún punto, es decir no podemos obtener la derivada de la función que lo genera. Característica de Euler La característica de Euler es una de las muchas fórmulas creadas por el matemático Leonard Euler; esta fórmula nos dice lo siguiente:             Para todo poliedro convexo, el número de vértices (V) menos el número de aristas (A) más el número de caras (C) es igual a 2 El uso de la fórmula de Euler en topología algebraica es bastante útil, pues podemos generalizar la fórmula para cualquier superficie, de tal forma que: Si x(S)=V-A+C y g es el género de la superficie, entonces x(S) =2-2g. Pienso que la característica de Euler, aunque como tal es una fórmula, es también una herramienta de observación para profundizar en estructuras topológicas superiores o complejas que requieren encontrar relaciones y efectuar análisis y síntesis. Superficies orientables y no orientables Una superficie se dice orientable si podemos diferenciar claramente cuál es el interior y el exterior de la figura o superficie. Aunque las superficies orientables y no orientables cumplen varias características, por falta de tiempo no nos fue posible estudiar sobre todas ellas; de cualquier forma, fue posible realizar algunos experimentos visuales y otros teóricos realizados con el fin de aprender a unir dos superficies orientables.


CONCLUSIONES

A lo largo de este verano de investigación científica aprendí sobre el ‘Espacio’ visto de una manera matemática. Y aunque el proceso de investigación solamente pudo alcanzar de momento la comprensión de un conocimiento básico (por el tiempo y el tipo de análisis requerido), creo que es un buen inicio para continuar motivado en un estudio más profundo. Además, creo que este inicio me induce a plantearme la idea de buscar nuevos problemas científicos y prácticos con los cuales las matemáticas topológicas sean las principales herramientas de solución. De esta manera es como se cumple en mi persona el objetivo del programa Delfín, que es fomentar el fortalecimiento de una cultura científico-tecnológica.
Pulido Hernández Alam Hayyim, Universidad Veracruzana
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE DOS CENTELLADORES BC404 ACOPLADOS A SIPM, PARA CALCULAR LA RESOLUCIóN TEMPORAL.


DESARROLLO DE DOS CENTELLADORES BC404 ACOPLADOS A SIPM, PARA CALCULAR LA RESOLUCIóN TEMPORAL.

García Saucedo Gisela Ivone, Universidad de Guadalajara. Pulido Hernández Alam Hayyim, Universidad Veracruzana. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El acelerador NICA (Nuclotron-based Ion Collider fAсility) en el JINR (Joint Institute for Nuclear Research) ubicado en Dubna, Rusia será inaugurado en 2020[1]. Uno de sus experimentos es el detector MPD capaz de detectar partículas como hadrones, electrones y fotones, dentro del funcionamiento del detector, se requiere de pequeños detectores de disparo los cuales se encargarán de activar los detectores más grandes en caso de la ocurrencia válida de un evento. Para el correcto funcionamiento del sistema, es necesario que los detectores de disparo cuenten con una resolución temporal alrededor de 10 picosegundos (10x) para ser capaz de observar todos los eventos ocurridos durante las colisiones, pues estos ocurren con una diferencia temporal media de este tiempo. Los plásticos centelladores son comúnmente utilizados para llevar a cabo esta tarea. El sistema de disparo es una parte fundamental de los detectores pues permiten discriminar los eventos válidos de los no válidos y evitar el desperdicio de medios en la recolección de información no necesaria. [1] http://nica.jinr.ru/



METODOLOGÍA

Contamos con plástico centellador BC404 cortado en trozos con dimensiones 2cm x 2cm x 0.3cm. Lo primero que se debe hacer es preparar el plástico ya que cuenta con algunas imperfecciones derivadas del proceso de fabricación. El proceso de pulido consta de tres fases, la primera es lijar las caras del plástico para que tenga una superficie uniforme, en la segunda se le aplica una pasta que lustra el plástico y finalmente se limpia con alcohol para eliminar los restos de la pasta y obtener un plástico completamente limpio. Una vez se cuenta con el plástico limpio se debe forrar con dos materiales, Tyvek y Mylar. El mylar funciona como un espejo, desviando los fotones hasta que se dirigen al fotodetector, el tyvek es un material obscuro que aísla al detector de la luz exterior. Lo primero que hicimos fue diseñar el molde que usaríamos como guía para cortar el material dejando una abertura de 0.6cm x 0.6cm en el centro de una de las caras grandes para acoplar el fotodetector ahí, después aplicamos una capa de mylar y dos capas de tyvek. Con los plásticos forrados, los acoplamos a las SiPM uniéndolos con cinta, el forrado debería ser suficiente para aislar el detector de la luz exterior pero en nuestro caso tuvimos fugas así que adaptamos una caja para colocar los detectores dentro. Para la toma de datos era necesario que los dos detectores sean colocados uno cerca del otro, esto lo hicimos con unas piezas de plástico que se encontraban en el laboratorio, permitiéndonos así acoplar ambos detectores. Se requiere que estén juntos para asegurar que el mismo rayo cósmico ha pasado por ambos. Hecho esto conectamos los detectores al osciloscopio y una vez que comprobamos que había señal en los detectores pasamos a la toma de datos, en donde obtuvimos 465 eventos con los cuales sacamos la resolución temporal con ayuda del programa mpdroot.


CONCLUSIONES

Durante todo el proceso concluimos que para construir un detector de partículas de rayos cósmicos con plástico centellador es de suma importancia realizarlo con las técnicas adecuadas, utilizar un material de forrado que sea altamente  reflejante (99%), así como aislar la luz completamente para que las señales sean lo más limpias posibles. Nuestro principal objetivo era calcular la resolución temporal de los centelladores BC404 acoplados a un SiPM cada uno. Se esperaba que el resultado fuera cerca de 10 picosegundos. En nuestro caso, con 465 eventos y un tiempo de 1.2 a 2 nanosegundos, obtuvimos una resolución temporal de 12 picosegundos, esto indica la frecuencia con la que nuestros detectores son capaces de captar la señal de una partícula de rayos cósmicos dentro de su misma área.
Quevedo Rodriguez Jaqueline Cristell, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ramón Sosa Avalos, Universidad de Colima

PARáMETROS DEL SISTEMA DEL DIóXIDO DE CARBONO EN LA LAGUNA DE CUYUTLáN, COLIMA


PARáMETROS DEL SISTEMA DEL DIóXIDO DE CARBONO EN LA LAGUNA DE CUYUTLáN, COLIMA

Quevedo Rodriguez Jaqueline Cristell, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ramón Sosa Avalos, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Actualmente, se ha registrado la mayor cantidad de CO2 en la atmósfera, lo que en su mayoría se debe a la influencia antrópica. Esto provoca un descenso en el pH del agua que, a su vez, desestabiliza la composición química de organismos calcáreos. La relación entre el pH y el carbono inorgánico disuelto (CID) es inversa en el agua, variando éste último por procesos físicos (temperatura, salinidad, interacción con la atmósfera y velocidad del viento) y, procesos biológicos como fotosíntesis, respiración y remineralización de la materia orgánica.



METODOLOGÍA

Se realizaron 2 muestreos; en abril y junio del 2019 en 3 estaciones localizadas en la Laguna de Cuyutlán. En las estaciones E-1 y E-3 se colectaron muestras de agua superficial con botella Niskin, debido a la batimetría de la estación 2 se colectó agua de superficie y 10 m de profundidad.  En cada estación se realizaron mediciones de temperatura, salinidad y oxígeno disuelto con un sensor multiparámetros. Adicionalmente, se hicieron lances con un CTD, para medir la temperatura y salinidad en la columna de agua. Así como la medición del pH in situ. El sensor para medir el pH fue previamente calibrado con un estándar certificado proporcionado por Andrew Dickson. Para la alcalinidad total (AT), se recolectaron 225 ml de agua en botellas de borosilicato previamente lavadas con HCl (10%), a cada muestra se agregaron 100 ml de cloruro mercúrico sobresaturado para detener la actividad bacteriana. Posteriormente se sellaron las botellas con grasa de silicón en el tapón esmerilado para evitar la evaporación del agua. Se utilizó el método SOP 3b descrito por Dickson et al. (2007) el cual consiste en una titulación potenciométrica en una celda abierta. Se titularon las muestras con una mezcla de solución de ácido clorhídrico (0.1 N) y cloruro de sodio (0.6 N). En cada adición de la solución se midió el pH y voltaje. Finalmente, la AT se calculó de acuerdo a la ecuación descrita por Dickson et al. (2007).  Por medio del programa CO2 SYS (Lewis y Wallace, 1997) se calculó el carbono inorgánico disuelto (CID), así como la presión parcial del CO2 (pCO2) en el agua, mientras que la pCO2 del aire fue obtenida de la estación Mauna Loa, Hawaii. La delta pCO2 se calculó como la diferencia entre la pCO2 de la superficie del agua de la laguna y la pCO2 atmosférica. En la concentración de Clorofila se recolectó agua de la zona eufótica con una botella muestreadora. El agua fue filtrada a través de filtros GF/F (Whatman). Los filtros fueron colocados en 10 ml de acetona al 90%, posteriormente la concentración de clorofila fue medida por medio de un fluorimetro.


CONCLUSIONES

En el transcurso se logró realizar el objetivo planteado, generado por el análisis de resultados obtenidos. Se observó un aumento de salinidad en el mes de junio debido a una mayor tasa de evaporación, la temperatura tuvo un comportamiento similar, es decir que también aumentó en junio. Para los parámetros del sistema CO2; pH, AT, CID, pCO2 no se observaron diferencias significativas entre ambos meses. Debido a que la pCO2 de la atmósfera es mayor a la pCO2 del agua obtenida, tanto en los muestreos de abril y junio, se concluye que la Laguna de Cuyutlán actúa como sumidero de CO2.
Quintero Lizárraga Oscar Luis, Instituto Tecnológico de Los Mochis
Asesor: Dr. Ana Carolina Ruiz Fernandez, Universidad Nacional Autónoma de México

CONTAMINACIóN POR MICROPLáSTICOS EN ECOSISTEMAS DE MéXICO


CONTAMINACIóN POR MICROPLáSTICOS EN ECOSISTEMAS DE MéXICO

Quintero Lizárraga Oscar Luis, Instituto Tecnológico de Los Mochis. Asesor: Dr. Ana Carolina Ruiz Fernandez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Debido a la proliferación del consumo del plástico desde 1950 hasta la actualidad y al incorrecto manejo de los residuos, el océano es contaminado anualmente con 8 Mt de plásticos (UNEP, 2019). La intemperización fracciona el plástico en partículas minúsculas que pueden llegar a ser menores a 5 mm, denominadas microplásticos. El principal problema de la contaminación por microplásticos es que, desde el proceso de producción, los plásticos contienen diferentes aditivos que son considerados disruptores endócrinos, por tanto, la ingestión de microplásticos por la biota puede provocar interferencias en los sistemas hormonales y afectaciones al desarrollo y reproducción de especies (Oehlmann et al., 2009), lo cual también puede ocurrir al ser humano a través del consumo directo de microplásticos o de productos marinos contaminados por microplásticos. Adicionalmente, los microplásticos pueden tener adheridos a su superficie compuestos orgánicos persistentes causantes de carcinogénesis y alteraciones hormonales (Endo et al., 2005); y microorganismos exógenos que pueden afectar a las especies endógenas (Masó et al., 2012). En seres humanos, el consumo de microplásticos puede llegar a ser alto (5 g/semana; Senathirajah & Palanisami, 2019). En 2015 México generó 5.79 Mt diarias de residuos plásticos (SEMARNAT, 2015), de los cuales es incierta la cantidad que llega al mar, por lo cual es necesario cuantificar y caracterizar los microplásticos presentes en nuestras costas, a fin de proveer de información útil para la toma de decisiones que ayuden a mitigar este problema global. El presente estudio es una revisión de los estudios realizados con este propósito en el país.



METODOLOGÍA

En los estudios publicados en México, el tratamiento previo de muestras de sedimento ha consistido en secado en horno (40-60 °C) y tamizado (1 mm de tamaño de malla), seguido por una digestión con solución de peróxido de hidrógeno (30% V/V) utilizada para la remoción de materia orgánica. Los microplásticos se extrajeron mediante separación por densidades (flotación) en una solución de ZnCl2 (1.58 g/cm3) o NaCl (1.2 g/cm3) y filtrado del líquido sobrenadante en membrana de fibra de vidrio (tamaño de poro de 0.4-1.2 mm). Las partículas de microplásticos se contaron en microscopio y se clasificaron de acuerdo con el tipo de polímero, morfología, color y tamaño. Se reportan el promedio y la desviación estándar de las concentraciones de partículas obtenidas para su comparación con los resultados publicados en otros estudios.


CONCLUSIONES

Entre los estudios realizados en México en arenas de playas se encuentran los realizados por Retama et al. (2016) en Huatulco, Oaxaca, donde se hallaron concentraciones de 0-1600 (temporada baja) y 2-2300 (temporada alta) partículas·kg-1; y por Piñón-Colin et al. (2018) en la península de Baja California, donde se reportaron concentraciones de 16-230 partículas·kg-1 para la costa del Golfo de California y 37-312 partículas·kg-1 para la costa del Océano Pacífico. Los niveles observados son comparables con los valores reportados en las costas de Estados Unidos (21-221 partículas·kg-1). Por otro lado, el único estudio publicado sobre microplásticos en sedimentos de agua dulce, de Shruti et al. (2019), reportó un promedio de 4500 partículas·kg-1en el río de Atoyac, Puebla. Este sólo es comparable con las concentraciones obtenidas en Inglaterra (2812-6350 partículas·kg-1). La contaminación por microplásticos observada en los 3 sitios mencionados en México está asociada a altas densidades poblacionales. Para hacer frente a una población que va en crecimiento, diferentes reformas políticas deberán llevarse a cabo en la brevedad. Fuentes de consulta: UNEP. (2019). Dimensions of pollution. Retrieved July 29, 2019, de Marine | UN Environment Assembly sitio web: https://web.unep.org/environmentassembly/marine Oehlmann, J., Schulte-Oehlmann, U., Kloas, W., Jagnytsch, O., Lutz, I., Kusk, K. O., … Tyler, C. R. (2009). https://doi.org/10.1098/rstb.2008.0242 Endo, S., Takizawa, R., Okuda, K., Takada, H., Chiba, K., Kanehiro, H., … Date, T. (2005). https://doi.org/10.1016/j.marpolbul.2005.04.030 Masó, M., Garces, E., Pages, F., & Camp, J. (2012). Drifting plastic debris as a potential vector for dispersing Harmful Algal Bloom (HAB) species. 67(1), 107-111. Sitio web: https://thinkmissionexcellence.maine.edu/wp-content/uploads/2013/06/hr-optimization-public-sector.pdf Senathirajah, K., Palanisami, T. (2019) How Much Microplastics Are We Ingesting?: Estimation of the Mass of Microplastics Ingested. Consultado el 29 de Julio, 2019. De University News sitio web: https://www.newcastle.edu.au/newsroom/featured/plastic-ingestion-by-people-could-be-equating-to-a-credit-card-a-week/how-much-microplastics-are-we-ingesting-estimation-of-the-mass-of microplastics-ingested. SEMARNAT. (2015). https://doi.org/10.1001/jama.1978.03280340064027 Retama, I., Jonathan, M. P., Shruti, V. C., Velumani, S., Sarkar, S. K., Roy, P. D., & Rodríguez-Espinosa, P. F. (2016). https://doi.org/10.1016/j.marpolbul.2016.08.053 Piñon-Colin, T. de J., Rodriguez-Jimenez, R., Pastrana-Corral, M. A., Rogel-Hernandez, E., & Wakida, F. T. (2018). https://doi.org/10.1016/j.marpolbul.2018.03.055 Shruti, V. C., Jonathan, M. P., Rodriguez-Espinosa, P. F., & Rodríguez-González, F. (2019). https://doi.org/10.1016/j.scitotenv.2018.11.054
Quirino Olvera Leonardo, Universidad Veracruzana
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

CONTROL DE CALIDAD DE LOS DATOS REGISTRADOS POR LA RED DE MONITOREO ATMOSFéRICO DE LA REGIṕN BAHíA DE BANDERAS (REMABB) UTILIZANDO SUBRUTINAS GENERADAS EN EL LENGUAJE DE PROGRAMACIóN PYTHON


CONTROL DE CALIDAD DE LOS DATOS REGISTRADOS POR LA RED DE MONITOREO ATMOSFéRICO DE LA REGIṕN BAHíA DE BANDERAS (REMABB) UTILIZANDO SUBRUTINAS GENERADAS EN EL LENGUAJE DE PROGRAMACIóN PYTHON

Quirino Olvera Leonardo, Universidad Veracruzana. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La información original viene de la Red de Monitoreo Atmosférico de Bahía de Banderas de CEMCO (Centro de Estudios Meteorológicos de la Costa) de la Universidad de Guadalajara, empezó en el 2009 con el objetivo de estudiar y prever lo concerniente en fenómenos Hidrometeorologicos, información para autoridades y comunidad en general para una mejor plantación, previsión y estrategias, en especial ante el risgo de fenómenos intensos que representen riesgo socioeconómico y ambiental en la región. A partir de la información registrada por la REMABB, se planteo extraer las variables de interés de las múltiples que ofrece una estación tipo Davis como las que pertenecen a la red, organizarlas en un formato amigables par sus uso en diferentes programas de hojas de cálculo como Excel u otros diseñados para el manejo de bases de datos extensas como R. Después del reacomodo de las variables se procedió con un proceso de control de calidad somero anticipando el estudio posterior de la misma con los diversos fines que el/la investigador(a) pudiese tener en mente.



METODOLOGÍA

La información pasó por un filtro de calidad de acuerdo a las características físicas de cada variable meteorológica. Lo criterios son: - Radiación Solar Horizontal (SR), entendiendo que la irradiación global incidente debe ser  igual o mayor a cero y debe ser menor que la constante solar. 0 < SR  < 1400 W/m2. Evitar valores por encima de los teóricamente estimados. - Temperatura Ambiente (Ta) se hicieron las siguientes consideraciones, tomando en cuenta las máximas y mínimas climatológicas de la región de estudio se fijo un rango de 4 < Ta < 40 °C. - Humedad Relativa (RH) no se realizó un mayor control que acotar los datos entre 4 < RH < 101% - Precipitación Pluvial (PP) designa una caída de hidrometeoros que alcanzan la superficie, y existen diversas formas de precipitación. Como filtro se realizó el siguiente criterio: 0 <= PP < 96 mm/hr. - Velocidad de Viento (WS) el umbral de velocidad de viento se acoo de 0<= WS < 16 m/s. Enseguida de la aplicación de este criterio se verificaron el porcentaje de datos que cumplieron dicho criterio. Cada estación comenzaba en un periodo distinto por lo cual individualmente para estimar el procentaje de datos se tomaba en cuenta la fecha de inicio y final.


CONCLUSIONES

Se creó un código fuente en PYTHON con el fin que automáticamente trabajará odas las estaciones pertenecientes a la Red de Monitoreo Atmosférico de Bahía Banderas se extrajo las variables de interés y se acomodó en un formato tal que facilitara su procesamiento posterior.  De las 19 bases de datos diferentes (cabe mencionar que algunas pueden ser la misma estación únicamente interrumpida en tiempo) tuvieron un comportamiento esperado donde la gran mayotía de los datos pasaron este filtro inicial con valores cercanos al 100% de los datos. Destacar que la base bomberos2 fueron filtrados una cantidad tal que representa por debajo del 80% de la información sobreviviente, y huanacaxtle1  permanece con un porcentaje por encima pero cercano al 80% lo que da a pie de investigar individualmente la causa a esta anomalía.  Es necesario recalcar que este control de calidad es necesario pero insuficiente, ya que puede existir comportamiento irregular dentro de los umbrales antes establecidos.
Quiroz Rodriguez J. Jesus, Universidad de Guadalajara
Asesor: Dr. Juan Martín Gómez González, Universidad Nacional Autónoma de México

ANáLISIS DE SISMICIDAD DE LA REGIóN DE SIERRA GORDA, QUERéTARO


ANáLISIS DE SISMICIDAD DE LA REGIóN DE SIERRA GORDA, QUERéTARO

Quiroz Rodriguez J. Jesus, Universidad de Guadalajara. Asesor: Dr. Juan Martín Gómez González, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Uno efecto de la liberación de estrés y por ende de energía en la corteza terrestre son los sismos tectónicos, los cuales son estudiados y analizados para conocer los tipos de mecanismos focales que crean estos eventos mediante soluciones de tensor de momento centrado. Y con esto es posible proporcionar información sobre las magnitudes relativas de las tensiones principales que provocaron un evento en particular. El proyecto consiste principalmente en analizar la sismicidad de la Sierra Gorda, Querétaro mediante la recaudación, revisión, análisis y tratado de registros sísmicos provenientes de estaciones sísmicas temporales y de casetas fijas en dicha zona, y con ayuda de la información del Servicio Sismológico Mexicano para hacer comparaciones de información recaudada entre dicha institución y la información de las estaciones trabajadas por el investigador Dr. Juan Martin Gómez González para corroborar datos de eventos e incluso distinguir eventos sísmicos que el SSN no haya registrado y que han afectado a las comunidades de la región. Con la información recabada de las estaciones se pretende llegar a la inversión del tensor de momento en el cual se usa el patrón de radiación de ondas de cuerpo y superficiales, para dar a conocer la fuente sísmica mediante nueve parejas de fuerzas equivalentes puestos en una matriz, y con la simetría que se logra tener se garantiza que el momento angular se conserve.



METODOLOGÍA

Para entender estos procesos y conceptos referentes al esfuerzo y acumulación de energía en la corteza e ir conociendo el proceso que se hace para el tratamiento de los datos que se obtendrían de la Sierra Gorda, durante las primeras semanas se estuvo trabajando manualmente con mecanismos focales para entender los efectos del movimiento en fallas  y como es que se relacionan con la polaridad de ondas P que a su vez se ponen en una falsilla de esfera focal y así construir los planos nodales y algunos parámetros relacionados con estos, como los ejes de presión y tensión y el vector de desplazamiento de los eventos registrados. Las soluciones del plano de falla mediante mecanismos focales que se sacan de sismogramas que pueden ser diferentes por el tiempo según sean eventos locales, regionales o telesísmicos  debido a las diferencias de propagación (directo, reflejado, refractado, difractado), aunque también se considera que interviene la profundidad focal que incluye en la forma general de un sismograma, fases de profundidad y ondas superficiales. Los programas computacionales son fundamentales para el desarrollo de la sismología, son una herramienta útil y más rápida para procesar grandes bases de datos de eventos sísmicos. Es por esto que se utilizan softwares como Seisan, Sac, entre otros más que agilizan y mejoran los procesos. Con el programa de Seisan  es posible manejar grandes bases de datos para poder manipularlos como mejor convenga al usuario. Se trabajó la cuestión de generar mapas epicentrales con una base de datos y clasificarlos con criterios de selección como, localización, magnitud entre otros más, para así limitar la extracción de datos.  También en mapas epicentrales se pueden graficar datos digitales, usados para hacer picking de fases sísmicas, corregir la respuesta del instrumento y así dar sismogramas corregidos para determinar las distintas magnitudes, así como conocer el acimut después de la llegada para estaciones de tres componentes, analizar el movimiento de partículas (influenciado por la reflexión en superficie, topografía y anisotropía del medio), hacer análisis espectrales y otras cosas más. Al hacer el picking es posible poner varios eventos en display para hacer comparaciones entre un grupo de eventos que pueda resultar de interés respecto a magnitud por ejemplo. Después estos datos quedan en la base de datos para poder seguir usándolas. Al igual que hacer picking, también se puede calcular magnitudes de eventos en Seisan y en otros softwares haciendo correcciones en las trazas. Mediante la inversión de tensor de momento (uno de los objetivos del trabajo) se puede lograr recuperar el tensor de momento y la función de fuente robusta. En la inversión los datos de la forma de onda completa se invierten para ajustarse a formas de onda calculadas usando nueve parejas de fuerzas en una matriz, donde los elementos que están fuera de la diagonal principal son fuerzas opuestas que están fuera de la dirección normal a su orientación, y los elementos en la diagonal son fuerzas dipolares que actúan a través de los ejes de coordenadas.


CONCLUSIONES

  En la región de Sierra Gorda ha habido eventos sísmicos que han alertado a la población que ahí reside, y durante años se ha intentado detectar movimientos provocados por la sismicidad de la zona para que los habitantes de ahí estén informados y alertados de la posible periodicidad de estos eventos y así dar un comunicado a las autoridades correspondientes para manejar la situación. Los datos recaudados de las estaciones han detectado movimientos de eventos de baja magnitud que algunas veces el Servicio Sismológico Nacional no da a conocer al público, pero que sin duda es importante tomarlos en cuenta para tener un registro y analizar más a fondo la sismicidad de la zona y de sus alrededores. La inversión de tensor de momento tiene como objetivo caracterizar las fallas de los eventos que han estado ocurriendo en la Sierra Gorda, analizar el comportamiento y dirección de la propagación de fracturas, así como identificar que fracturas están contribuyendo a que se generen más fracturas, también se da información para entender el campo de tensiones, deformaciones y orientaciones de las fracturas.
Ramirez Alvarez Cesar Omar, Universidad de Sonora
Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla

DISEñO, CONSTRUCCIóN Y CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CLASE RPC “RESISTIVE PLATE CHAMBER”


DISEñO, CONSTRUCCIóN Y CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS DE CLASE RPC “RESISTIVE PLATE CHAMBER”

Ramirez Alvarez Cesar Omar, Universidad de Sonora. Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La Física Nuclear y de Partículas tratan de conocer la estructura de la materia mediante el estudio de sus componentes más elementales. También se le conoce como Física de Altas Energías, debido a que muchas de las partículas únicamente se pueden detectar en grandes colisiones provocadas en los aceleradores y se incluyen las Astropartículas que son partículas elementales de origen astrofísico. Esta área es tanto teórica como experimental y debido a los grandes avances ha sido responsable de la creación de centros de investigación y laboratorios como CERN (Organización Europea para la Investigación Nuclear), que realiza experimentos con el fin de estudiar regímenes de energía nunca explorados y donde constantemente se genera información experimental para contrarrestar o afirmar las teorías propuestas. Específicamente, la Física Experimental de Altas Energías utiliza detectores de partículas que son dispositivos usados para rastrear e identificar partículas de alta energía, como pueden ser las producidas por desintegración radioactiva, la radiación cósmica o las reacciones en un acelerador. El objetivo de esta estancia de verano está encaminado con miras a iniciar investigación en este campo, aportando la primera etapa que es la fabricación y caracterización de un detector RPC (Cámaras de Placas Resistivas). Los RPCs juegan un papel fundamental en el avance científico, debido a sus propiedades, la capacidad de adaptación y la posibilidad de construirlos de diferentes tamaños con buenas características y a bajo costo.



METODOLOGÍA

En un principio, se asistió al seminario organizado por el grupo de Altas Energías FCFM-BUAP, en el que se trataron temas de importancia, como son: El modelo estándar de la física de partículas, física de los detectores de partículas, rayos cósmicos, electrónica de los detectores, proyectos ALICE-ACORDE-LHC-CERN y MPD-NICA-JINR, etc. Además, se visitó el lugar de trabajo, el laboratorio FCFM-CERN en el Eco-Campus BUAP. A la par, se analizaron lecturas en medios electrónicos y videos sobre los procesos físicos utilizados en los detectores, las detecciones, la electrónica y el computo relacionados. Posteriormente, se revisaron temas sobre el estudio de detectores de gas y el movimiento de una partícula cargada en un campo eléctrico. Además, se instalaron Geant4, MpdRoot y AliRoot en el entorno de una máquina virtual con Ubuntu. Se utilizó información rescatada de libros, artículos, tesis, etc. Bibliografía como: Griffiths, David. (2004) Introduction to Elementary Particles, 2da edición; Coy, Diana (2014) Construcción y Caracterización de un Detector de Partículas tipo Resistive Plate Chamber; Kumar, Sunil. (2012) Electricity and Magnetism, 1ra edición; Thomson, Mark. (2013) Modern Particle Physics, 1ra edición. Sitios: https://home.cern/, http://aliceinfo.cern.ch/, https://cms.web.cern.ch/ y http://mpd.jinr.ru/. Con el contexto necesario, se dio inicio a la construcción del detector RPC, para ello se hizo análisis y preparación de los materiales a utilizar después, en el área de manufactura se llevaron a cabo los cortes en los acrílicos, plásticos (tapas y marcos) y vidrios; luego en el área de pintura se colocó la pintura resistiva a base de grafito; posteriormente en las áreas de ensamble y clean room con apoyo de resina se pegaron las tapas, marcos, entrada y salida de gas, se colocaron los electrodos en los vidrios y se procedió a colocar los gaps y espaciadores, ahí mismo se hizo el ensamblado y sellado final con resina. En todo momento se hizo limpieza del arreglo con alcohol y aire comprimido. Por último, el RPC se conectó con gas Argón para su limpieza interna, mientras tanto con apoyo de una fuente de alto voltaje se tomaron las mediciones para observar su comportamiento y obtener su resistividad. Posteriormente, se desconectó del Argón y se le añadió una placa de cobre de 4 paths pegada encima, para evitar errores por ruido se encerró el RPC dentro de una caja de metal. Se conectó a gas Freón y con la fuente de alto voltaje, el osciloscopio y la contadora de partículas se observó la señal y se tomaron mediciones de partículas en cada path. Finalmente, en el área de electrónica con un arreglo de dos PMT (Tubo Fotomultiplicador), el RPC, la fuente de alto voltaje y la contadora de partículas se tomaron las mediciones de coincidencia detectadas para obtener su de eficiencia y resolución.


CONCLUSIONES

Se logró diseñar y construir un detector de partículas de tipo RPC Cámaras de Placas Resistivas de doble gap de 25cm × 25cm × 1cm. Además, se realizaron pruebas de caracterización para resistividad con Argón y con Freón para eficiencia y resolución. Con los datos obtenidos se construyeron gráficas y se analizaron las curvas obtenidas, las cuales indican que el detector RPC se encuentra dentro de los regímenes de operación. Se encontró que su resistividad se encuentra en un factor de ×1012, que era lo esperado. Por otro lado, se entendió la teoría sobre detectores de gas, le electrónica involucrada, los modos de operación y tipos, así como los muones cósmicos que detecta. Con lo anterior se realizó un documento a manera de reporte científico incluyendo detalladamente los pasos de construcción, la teoría, los datos obtenidos sobre la caracterización y la comparación con la literatura y simulaciones ya realizadas. Aunque este tipo de detectores han sido implementados con gran éxito en varios experimentos y en aplicaciones de física médica por sus ventajas de bajo costo, fácil construcción, alta eficiencia y tiempos de resolución, el campo de investigación sigue abierto a discusión en pro de su optimización. Se puede concluir que gracias a esta Estancia de Investigación se exploró con énfasis la parte experimental que implica la física de altas energías y los procesos en el desarrollo de detectores de partículas. 
Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA


DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA

Cach Alonzo Armando Ivan, Consejo Quintanarroense de Ciencia y Tecnología. Gómez Poot Francisco Israel, Consejo Quintanarroense de Ciencia y Tecnología. Hernandez Emily Stephany, Consejo Quintanarroense de Ciencia y Tecnología. Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla. Tolentino Vazquez Erick, Universidad Autónoma de Guerrero. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua es un vital líquido utilizado no únicamente por el ser humano sino para todo el planeta. El 70% de la superficie de la tierra está cubierto de agua, sin embargo, del 30% de agua dulce tan solo el 1 % es adecuado para su uso humano. Más allá del impacto del crecimiento mismo de la población por causa del mal uso que se ha dado hay muchos países que tienen menos del agua que necesitan, hoy en día este recurso a tenido ciertas dificultades perdiendo el equilibrio entre la cantidad utilizada y la demanda. La escasez afectará a un tercio de la población y un impacto enorme en diferentes sectores económicos como son la producción de alimentos. Los sistemas de aprovechamiento de agua de lluvia son el resultado de las necesidades (demanda), recursos disponibles (precipitación, dinero para invertir y materiales de construcción), y las condiciones ambientales en cada región. Sólo cuando no existe red de agua potable, el suministro es deficiente o el agua tiene un costo muy alto, se piensa en buscar sistemas alternativos de abastecimiento, por ello la documentación sobre sistemas de aprovechamiento de aguas lluvias, se limita a las acciones realizadas en las últimas décadas en zonas del planeta con las deficiencias mencionadas anteriormente. (José Alejandro Ballén Suárez, 2006) La ciudad de Heroica Puebla de Zaragoza es la cuarta ciudad más poblada de México, está ubicada al centro del país y cuenta con una población de aproximadamente 1,576,259 millones de habitante (INEGI censo 2015) que cubren una superficie de 206 km2. Donde la precipitación media es de 827 mm por año siendo el mes de junio quien presenta una mayor precipitación de 158 milímetros. Esto es considerado una buena cantidad de líquido que puede ser empleado como un extra de recurso, toda la ciudad cuenta con los servicios básicos tales como energía eléctrica, alcantarillado y agua potable, sin embargo la ciudad presenta ciertas dificultades con la distribución de la misma y no permite abastecer en su totalidad, esta problemática va de la mano con las fuertes temperaturas de verano que generalmente varía de 6°C a 42°C  ante tal situación las personas  necesitan de un mayor consumo de agua.



METODOLOGÍA

En primer lugar, se investigó sobre los antecedentes a la propuesta de solución que se iba a crear, contemplando modelos antiguos de hace más de 4 mil años, como los del Desierto de Negev hasta implementaciones recientes, por ejemplo, el proyecto Belss-Luedecke-Strasse Building State en Berlín de 2006. Más adelante se realizó la investigación sobre la falta de agua potable en la ciudad de Puebla, Puebla, así como las propiedades que contiene el agua de lluvia, considerando los factores geográficos causantes de la lluvia característica de Puebla capital. Se investigó sobre las normas correspondientes de agua potable para consumo humano, asi mismo se realizó un primer acercamiento sobre una solución para utilizar el agua pluvial y transformarla en agua potable. Más adelante tomo lugar la búsqueda de los materiales y equipos seleccionados para elaborar un dispositivo de recolección de agua pluvial. Una vez teniendo la idea clara sobre la construcción del dispositivo dio paso a la cotización de materiales, cuales cubrían las necesidades, poniendo en la balanza costo-beneficio, puesto que se trata de un proyecto enfocado al sector popular en casa-habitación de 4 personas aproximadamente. Además, se visitaron casas de barrios populares en la ciudad de Puebla, encontrando retos particulares, como el espacio demasiado reducido entre casa y casa o las distribuciones de las pendientes para cada domicilio, por mencionar algunos. Por último, se implementó de manera digital el dispositivo en una casa modelo que se ajustaba perfectamente a nuestras condiciones iniciales y cumplía con tener una estructura común de un barrio popular. En esta se trabajó la implementación y cotización de materiales, así como su mano de obra, será generándola en 2 aspectos, la primera por un plomero o albañil, y la segunda tomando en cuenta que nosotros montaríamos el dispositivo de manera gratuita.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos sobre el agua pluvial, su utilidad y los problemas que enfrenta en la ciudad de Puebla, puesto que, a diferencia de otros estados o países, en esta ciudad se encuentran particularidades que representan un problema y una adecuación a cada vivienda, por otro lado, la presencia de un volcán activo cercano a la ciudad. Por último, tomando en cuenta que esto es únicamente teórico no se tiene la posibilidad de corroborar todos los análisis y resultados esperados, o si deben realizarse correcciones con el pasar del tiempo. Hubiera sido conveniente tener el capital necesario y tiempo para considerar los ajustes, pero, aunque no es posible, en base a las deducciones, se puede apostar por resultados exitosos.
Ramirez Diaz Jose Luis Aramis, Instituto Tecnológico de Tepic
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

TDOA DE DESCARGAS ELéCTRICAS


TDOA DE DESCARGAS ELéCTRICAS

Ramirez Diaz Jose Luis Aramis, Instituto Tecnológico de Tepic. Valenzuela Terán Jonás, Universidad de Sonora. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las estaciones meteorológicas monitorean y registran constantemente el comportamiento del clima en una región para obtener información sobre qué riesgos se presentan, su frecuencia y como mitigarlo.     En esta ocasión, el objetivo es detectar la posición y el tiempo de descargas eléctricas en una ciudad, y así conocer la inversión necesaria para protegerse de estas. Esto haciendo uso de sensores y placas SBC de bajo costo.



METODOLOGÍA

El sensor utilizado fue el AS3935 Franklin Lightning Sensor, que funciona a base de un resonador LC paralelo, con una frecuencia de resonancia de 500 kHz, esto para evitar ruido ocasionado por señales de radio. Este se coloca en 3 ubicaciones diferentes en la ciudad, y las coordenadas de la descarga eléctrica son calculadas con la diferencia de tiempo de llegada de la señal (TDOA).     La placa SBC utilizada fue la Raspberry Pi 3 Model B V1.2, donde se controla y obtiene datos de el sensor con programación en lenguaje Python 3.7 bajo el protocolo I2C.     Se creó un programa en el lenguaje de programación Python para procesar los datos obtenidos que cumple con las siguientes funciones: - Seleccionar datos tomados dentro de un intervalo de tiempo especificado - Detección de eventos registrados por las 3 ubicaciones - Cálculo de coordenadas de eventos por TDOA     Para obtener un entorno visual más cómodo para el usuario se realizo la programación de una página web por medio del lenguaje de programación Php 7.2.18 y JavaScript y para la gestión de base de datos se utilizó MySQL 5.7.26 - Registro y gestión de datos por medio de Base de datos  - Visualización de eventos vía web con formato adecuado para visualización en Google Maps.     Se implementó además una alternativa de sincronización automática de datos en la nube, utilizando un repositorio github, y comandos shell dentro de crontabs, scripts que se ejecutan periódicamente en el sistema operativo linux.     Se creó un programa html, como alternativa para la visualización de datos en Google Maps, utilizando el lenguaje de programación JavaScript.


CONCLUSIONES

Debido a la eficiencia del sensor para detectar una descarga eléctrica (30% para una distancia de 15 km y ruido típico), la eficiencia de que un sistema de 3 ubicaciones con n sensores en cada una, se calcula con la probabilidad que al menos 1 sensor de cada ubicación detecte la descarga, es decir, con distribución binomial. Se obtiene que para un sensor en cada ubicación la eficiencia es de 2.7%, para pares es de 7.41% y para ternas 8.58%.     Esto no brinda la suficiente información útil para una estación meteorológica, sin embargo, si se cambia sensor con uno de mayor eficiencia de detección, el sistema de sincronización, procesamiento, y visualización de datos que fue desarrollado puede seguir siendo utilizado y queda abierto a la comunidad científica bajo el repositorio Github: https://github.com/24jonas/TDOA-de-Descargas-Electricas para crear estaciones meteorológicas de monitoreo y localización de descargas eléctricas en distintas ciudades.
Ramírez Espinoza Jesús Roberto, Universidad de Sonora
Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)

CALCULO PARA EL TENSOR DE MASA INVERSA EN CRISTALES SEMICONDUCTORES


CALCULO PARA EL TENSOR DE MASA INVERSA EN CRISTALES SEMICONDUCTORES

Lopez Fernandez Jesus Victor, Universidad de Sonora. Ramírez Espinoza Jesús Roberto, Universidad de Sonora. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Para encontrar el tensor de masa inversa se utilizan dos métodos, el modelo de Drude y la segunda derivada de la energía, la energía encontrada es en cristales semiconductores. Por medio de dos programas computacionales Abinit y TINIBA se calculan los parámetros que se modificaran mediante los dos métodos anteriormente mencionados. Se requiere tomar los datos resultantes de Abinit y TINIBA para aplicar una regresión polinómica por la cual suavizara las gráficas resultantes de la segunda derivada de la energía, así como construir graficas resultantes del traslape de varias bandas de energía en una sola gráfica.   



METODOLOGÍA

1.- Instalación de sistema operativo Linux e instalación de librerías que serán necesarias en la elaboración de los programas que derivaran y suavizaran los datos. 2.- Creación de una cuenta en los equipos del laboratorio. 3.- Creación de un script en lenguaje de Python. 4.- El script pide un archivo que contiene las energía de las bandas atreves de cristales semiconductores, después se aplica una doble derivada a cada banda de energía y se aplica una regresión polinómica la cual suavizara el ruido en las gráficas. 5.- El script compara las bandas de energía para localizar discontinuidades y poder a completar una gráfica con los datos de otra gráfica y generar una tercera banda.


CONCLUSIONES

Se comprobó el script con distintos materiales, como el diamante, silicio y arseniuro de galio. Lo cual, nos dio los resultados esperados, las bandas se suavizaron gracias a la regresión, pero al aplicarle la segunda derivada, tenía un notable error, el cual disminuye conforme se incrementa el grado de la regresión polinómica. Se espera realizar un script general el cual compare y genere bandas sin discontinuidades, sin importar el numero de bandas que se calcularon o el material del que se obtuvieron los datos.
Ramos Franco Míriam, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Valeria Ojeda Castillo, Centro Universitario UTEG

PM10 EN EL AMG: OCURRENCIA Y EVALUACIóN DE RIESGO A LA SALUD EN NIñOS DURANTE EL PERIODO 2011-2016


PM10 EN EL AMG: OCURRENCIA Y EVALUACIóN DE RIESGO A LA SALUD EN NIñOS DURANTE EL PERIODO 2011-2016

Cantillo Pérez Raúl Andrés, Universidad de la Costa (Colombia). Ramos Franco Míriam, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Valeria Ojeda Castillo, Centro Universitario UTEG



PLANTEAMIENTO DEL PROBLEMA

La contaminación ambiental representa un problema de salud pública en la que se ven afectadas todos los individuos de una sociedad, en especial aquellos más vulnerables como niños, y adultos de la tercera edad. Según la OMS la contaminación del aire fue responsable de 4.2 millones de muertes prematuras en todo el mundo en el año 2018, debido a la exposición y altas concentraciones de material particulado, PM10 y PM2.5. Este contaminante en su fracción de 10 micras puede alojarse en los pulmones causando afectaciones a la salud, y por consecuencia disminución de la calidad de vida de las personas. Según una nota publicada en el portal de noticias Proceso, la contaminación del aire en México causó en 2016, que las muertes de niños entre cero y cuatro años representaran 53.4% del total de fallecimientos por asma en menores de edad. Además, en ese año se registraron 1902 defunciones por infección respiratoria aguda de niños y adolescentes.



METODOLOGÍA

Se obtuvieron datos de concentraciones de contaminantes atmosféricos colectadas por las estaciones de monitoreo de la red de calidad de aire de la ciudad de Guadalajara, Jalisco, del año 2011 a 2016. Una vez conseguidos, se procedió a realizar la validación de los datos de manera que fuesen valederos y representativos. Posteriormente se realizó una revisión bibliográfica de antecedentes para el cálculo del riesgo a la salud y la obtención de características fisiológicas de niños de 0 a 10 años. Al contar con todos los datos necesarios se realizó el cálculo del riesgo dividiendo a los infantes por grupos, de la siguiente manera: niños recién nacidos, de 1 año, de 2 años, de 3 a 5 años, y de 6 a 10 años, cada grupo con su respectivo peso promedio, y tasa de inhalación. Las fórmulas utilizadas fueron las siguientes: DDP=(CC×TI×FE)/P Donde: DDP=Dosis diaria promedio (µg/Kg × d) CC=Concentración del contaminante (µg/m3) TI=Tasa de inhalación (m3/d) FE=Factor de exposición P=Peso corporal (Kg) FE=(HE×DE×AE)/Tx Donde: HE=Horas de exposición DE=Días de exposición AE=Años de exposición Tx=24×365×AE Tx=Tiempo promedio (h×d×a) R=DDP/DRf Donde: R=Riesgo DDP=Dosis diaria promedio DRf=Dosis de referencia En caso de que el resultado final sea un valor menor o igual a 1, el riesgo a padecer afectaciones a la salud es bajo. Si es mayor a 1, el riesgo es alto. Y entre mayor sea el valor, más riesgo existe.


CONCLUSIONES

De la investigación realizada durante el verano se pudo evidenciar que el área metropolitana de Guadalajara sobrepasa constantemente el límite permisible de PM10 establecido por la Norma Oficial Mexicana, y más el límite recomendado por la OMS. Por ende, se pudo ver que existe un riesgo marcado para la población infantil, ya que entre más pequeño sea el niño, más vulnerable y susceptible se encuentra a sufrir afecciones respiratorias durante su vida. Se puede mencionar también que es en la época invernal en la que más altas concentraciones de material particulado se dan, y en la época húmeda, en los meses de junio, julio, y agosto, es cuando las concentraciones son más bajas. Es pertinente mencionar también, que en el día los momentos en los que hay más concentración de material particulado es de 6 a 10am, y de 6 a 10pm.
Ramos Regino Liliana Michelle, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Luis Carlos Padierna García, Universidad de Guanajuato

PROCESAMIENTO DE IMáGENES TERMOGRáFICAS EN GRANOS DE MAíZ


PROCESAMIENTO DE IMáGENES TERMOGRáFICAS EN GRANOS DE MAíZ

Ramos Regino Liliana Michelle, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Luis Carlos Padierna García, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La cuna del maíz se encuentra en México, más exactamente en Tehuacán, Puebla, la cosecha de este grano lleva más de 9 mil años y su manera de cosechar es diversa, tanto así que existe al menos un tipo de sistema agrícola para cada tipo de ecosistema. Las técnicas de cultivo de la milpa han variado y tienen tres etapas históricas importantes, la técnica utilizada en el México Prehispánico, las técnicas mexa-españolas integradas durante la Colonia, y las técnicas utilizadas durante la Revolución Verde que comenzó a mediados del siglo XX, que principalmente se trata de la implementación del maíz transgénico pero no se habla de una implementación de la tecnología a la hora de la cosecha con métodos no-invasivos como el que se presenta a continuación, la toma de fotografías térmicas para identificar el nivel de humedad de los granos para así tener asegurada una cosecha sana. Para entender la física del proceso y la relación entre humedad y temperatura, definamos a la primera como la cantidad de vapor de agua en el aire, hay una relación directa con la temperatura, ya que a mayor humedad mayor temperatura. Por otro lado Gay-Lussac encontró una relación lineal entre la presión y la temperatura expresada de la siguiente manera: P/T= k = 2.53 Hg/K Veamos la relación de mezcla que es la fracción de masa de vapor de agua entre la masa total: w = mH2O/mT La humedad relativa describe qué tan cerca está el aire de saturarse, donde se toma como la fracción entre la relación de la mezcla normal (w) y la saturada (ws), pero también como el porcentaje entre la presión de vapor normal (P) y la saturada (Ps): HR = w/ws = 100(P/Ps) Por otro lado tenemos la ecuación de Henderson expresada de la siguiente manera donde  son constantes de Henderson con valores específicos para el maíz: He = (1/100)[(ln(1-HR))/-c1(T+c2)]1/c3 Está definida por Chung-Pfost de la siguiente manera con , igualmente especificados para el maíz: HR= exp[(1/(T+d3))(d1exp(-d2He))] Los valores específicos son: c1 = 8.6541 c2​ = 49.810 c3​ = 1.8634 d1 = 312.30 d2​ = 16.058 d3​ = 30.205



METODOLOGÍA

Materiales: 30 maíces, 30 vasos, papel, agua, lámpara, Arduino, protoboard, cámara Gobi Xenics, placa peltier, base, computadora con programa Xeneth 64, fuente de voltaje Procedimiento: El circuito para calentar o enfriar ya está armado, por lo cual sólo se debe conectar a la placa peltier o a la lámpara y dura 15 segundos. Se conecta la cámara a la computadora y se abre el programa Xeneth 64 donde ponemos la distancia de la cámara a la base (0.1 m). Ponemos el maíz encima de la placa y se procede a tomar datos en un tiempo de 90 segundos, con 1 captura cada 50 milisegundos, justo después de especificar esto y comenzar a tomar fotografías se enciende el circuito ya sea para enfriar o calentar. Se toma una ronda de calentamiento completo de los 30 maíces, uno a uno, y después se procede a tomar la ronda de enfriamiento o viceversa. Calentamiento: La fuente de voltaje debe estar a 13.6 volts y los cables están conectados sin importar el orden. Enfriamiento: La fuente de voltaje debe estar a 12 volts y los cables del canal 1 deben estar conectados positivo con positivo y el negativo con el Arduino. Aproximadamente se toman 400 imágenes por medición. El día lunes 1 de julio de 2019 se tomaron 60 mediciones de 90 segundos, 2 por cada maíz, uno al aumentar la temperatura y otra al disminuirlas a partir de las 6 de la tarde. Se envolvieron los maíces en papel y se les regó con agua. Se taparon con bolsas negras. El martes 2 de julio de 2019 se tomaron 180 mediciones, repitiendo los procesos del lunes, se tomaron 60 a las 9 am, 60 a la 1 pm y otras 60 a las 5 pm. El miércoles 3 de julio de 2019 se tomaron 60 mediciones a las 10 de la mañana. Germinaron 27 granos. El lunes 8 de julio de 2019 se eligieron 30 maíces diferentes, se tomaron 60 mediciones a las 3 de la tarde. El martes 9 se tomaron otras 60 a las 10 am. Finalmente el miércoles 10 se tomaron las últimas 60 a las 8 am. En total 23 granos germinaron. Se utilizó el método de umbral de Otsu pero sólo encontraba el área del maíz en escala de grises si la intensidad de la imagen era constante, como es el caso de los maíces a los que se les bajó la temperatura, a los que se calentaba los etiquetaba con área diferentes debido a la inconstancia de la intensidad. Se desarrolló un algoritmo en Python con la librería Scikit para cambiar la imagen con mayor contraste de la ronda de imágenes a blanco y negro de tal manera que el contraste sea más notorio y se busca el centroide de esa imagen. Hecho esto se toman las mismas coordenadas de la imagen anterior para cada imagen en la ronda y se exportan estos valores de temperatura a un documento de Excel donde se grafican. Se repite para cada toma de cada maíz.


CONCLUSIONES

La estancia de verano Delfín rindió frutos en la utilización y comprensión del lenguaje Python para la automatización de procedimientos que como humanos no podríamos o nos llevaría mucho tiempo hacer, sin embargo es un método costoso que lleva cierto tiempo a la hora de obtener las imágenes más no al analizarlas. Así como el uso de tecnología en la agricultura y el campo es una herramienta extra que no todos los que se dedican a ello estaría dispuestos o tendrían la oportunidad de pagar. Se espera caracterizar la curva que expresa el cambio de temperatura en los granos de maíz a partir de sus imágenes termográficas, y a partir de esta curva generar un conjunto de datos que posteriormente será clasificado con máquinas de soporte vectorial para determinar la humedad del grano.
Reséndiz Marroquín Kevin Said, Universidad Autónoma de Guerrero
Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara

FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO


FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO

Castro Rojas Ricardo Antonio, Universidad de Guadalajara. Diaz Morfin Elidia, Instituto Tecnológico de Colima. Reséndiz Marroquín Kevin Said, Universidad Autónoma de Guerrero. Yepiz Mendez Gustavo Rafael, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente nos enfrentamos a una problemática ambiental mundial, la escasez de agua potable, que desencadena una serie de problemáticas sociales. Por lo que la Organización de las Naciones Unidas (ONU) lleva mucho tiempo abordando la crisis mundial derivada de un abastecimiento de agua insuficiente y la creciente demanda de agua para satisfacer las necesidades humanas, comerciales y agrícolas. La cantidad de agua se encuentra dividida en los siguientes porcentajes 96.5% salada y 3.5% dulce. De esta última el 69% de agua dulce se encuentra congelada, porcentaje que va disminuyendo con el paso de los años debido a cuestiones climáticas. En la actualidad, varios millones de personas viven en regiones que sufren una grave escasez de agua, incluyendo a comunidades y ciudades de México. La desalación supone una manera de incrementar la oferta de agua potable. Teniendo en cuenta que 42 ciudades de más de un millón de habitantes se encuentran en la costa y que la mayoría de la población mundial vive a menos de 50 km de las costas marítimas, algunos expertos prevén que el agua de mar desalada se convertirá en una importante fuente de agua en el siglo XXI. Debido a esto se han buscado alternativas para la desalación del agua, desafortunadamente la mayoría de los métodos son costosos, sobre todo el de osmosis inversa. Uno de materiales novedosos es el óxido de grafeno (GO) debido a sus propiedades fisicoquímicas, anti-bactericidas y es de bajo costo. Sin embargo, la estabilidad del GO en soluciones acuosas es un requisito previo para su aplicación, ya que estará en contacto con agua. A consecuencia de la dificultad de la elaboración de la membrana hecha a base de GO, es necesario usar otros compuestos para mejorar la estabilidad en ambientes acuosos y a la vez proporcionar resistencia mecánica. En experimentaciones anteriores han empleado Nafión que es un compuesto muy caro y contaminante. Por otro lado, los biopolímeros como el galactomanano que es un material amigable con el ambiente, económico y fácil acceso, ya que se encuentra en el fruto del mesquite. Este árbol es nativo de la región Norte del estado de Jalisco. Es por eso que, en esta estancia de verano de investigación, se experimentó con la fabricación de membranas de óxido de grafeno y biopolímeros. De esta manera se pretende proponer una membrana que pueda emplearse para filtrar agua o biorremediación de agua residuales e industriales.



METODOLOGÍA

La experimentación partió de materiales sintetizados en el laboratorio. El proceso de experimentación se dividió en 2 etapas: La fabricación de membranas de GO. Prueba de filtración en la que se incluye el diseño y elaboración del prototipo para colocación de membranas. Fabricación de membranas Para fabricar la membrana a base de GO obtenido por medio del método de Hummers modificado, se emplearon galactomananos (GA) y/o glutaraldehído(G), glicerol, ácido acético, y papel filtro Whatman No.4 y milipore de 0.45 µm. El proceso consistió en la filtración tintas de GO y biopolímeros por gravedad y de vacío, en esta última se utilizó una bomba. El procedimiento fue el siguiente: Se emplearon tres tintas a base de GO, la primera fue hecha con 30 mg de GO y 40 mL de agua, etiquetándola como Tinta 1 (T1). Para la preparación de la segunda Tinta (T2) se utilizaron 120 mg de GO y 40 mL de agua. La última Tinta (T3) se prepraró con 2.1 mg de GO y 50 mL de agua. Las tres tintas se sonicaron 9 ciclos de 30 minutos cada uno. A las tintas de GO se le agregaron sustancias químicas para la elaboraron de  diferentes membranas de las cuales  la 1 y 2, se sometieron a vortex para asegurar una correcta combinación, se vertieron en cajas Petri y se dejaron secar a temperatura ambiente. Mientras que para las  3, 4, 5 y 6, se usó una parrilla eléctrica a una temperatura de 80°C y agitación contante para mezclar las sustancias, hasta que se observaron cristalinas. Después se vertieron en una caja Petri para dejar secar a temperatura ambiente. A todas las membranas se les realizó una prueba mecánica antes de llevar a cabo la filtración. La prueba consistió en someter 1 cm2 de la membrana en H2O y después ultrasónicar durante 10 minutos. Fabricación del dispositivo para filtración La filtración se realizó mediante el fenómeno de gravedad. La fabricación del dispositivo consistió en cortar la parte inferior del vial y a su tapa, a la que se le realizó un orificio de 3 cm de diámetro aproximadamente, la cual fue pegada con silicón frío en la boca principal. Posteriormente, se selló el contorno externo de la tapa con silicón frío. La membrana se pegó en los bordes de la parte exterior de la tapa con el orificio, se recortó el sobrante y se selló por la parte exterior nuevamente con silicón frío. Se preparó una solución electrolítica acuosa con cloruro de sodio (NaCl) a una concentración de uno molar (1 M). A la cual se le midió y registro la conductividad eléctrica antes y después de ser filtrada. En cada filtración se utilizaron 50 mL del electrolito acuoso para probar la capacidad de desalación de las membranas a base de GO. Se realizaron varios experimentos de los cuales se obtuvierón buenos resultados con las membranas 8 y 9, obteniendo una desalación del 8% y 16% respectivamente.


CONCLUSIONES

El óxido de grafeno es inestable en el agua. Se fabricaron membranas a base de óxido de grafeno empleado materiales biopolímeros. Se obtuvo una desalación del 16% con la membrana 9. Estas membranas pueden tener mayor eficiencia, si se aumenta la concentración de óxido de grafeno, así como asegurar que este se encuentre bien disperso en la solución acuosa y ligado a un componente que le brinde estabilidad.
Reyes Ramírez Ernesto Antonio, Universidad de Guanajuato
Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas

APLICACIóN DE BASES DE GRöBNER PARA CALCULAR NúMEROS DE BETTI DE IDEALES DETERMINANTALES.


APLICACIóN DE BASES DE GRöBNER PARA CALCULAR NúMEROS DE BETTI DE IDEALES DETERMINANTALES.

Reyes Ramírez Ernesto Antonio, Universidad de Guanajuato. Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Sea K un campo y S el anillo de polinomios en n+1 indeterminadas sobre K, con n mayor o igual que dos. Sea M una matriz de 2 renglones y n columnas donde sus entradas se definen de la siguiente manera: la entrada (i,j) es igual a X_j si i = 1. Si i = 2 la entrada se define como X_(j+1), donde en ambos casos los X_k son indeterminadas.  Definimos el ideal determinantal de M, como el ideal de S generado por los menores de 2x2 de la matriz M. Dicho ideal se denota como I(M). Todo ideal finitamente generado (graduado) tiene una resolución libre minimal (graduada), es decir, existen sus números de Betti, los cuales son invarientes algebraicos que nos proporcionan información relevante sobre dicho ideal. Calcular estos invariantes para un ideal finitamente generado cualquiera es complicado, ya que se tiene que construir la resolución libre minimal, por lo que el estudio y creación de técnicas que faciliten el cálculo de dichos números es un área de investigación activa. El proyecto consiste en calcular los números de Betti del ideal I(M) utilizando Bases de Gröbner y técnicas combinatorias. Así como intentar analizar las Bases de Gröbner de generalizaciones a dichos ideales.



METODOLOGÍA

La metodología consistió en leer y estudiar teoría de graduaciones, bases de Gröbner, álgebra homológica y combinatoria, principalmente en la siguiente tesis y libros: Aplicaciones a la teoría de códigos de los números de Betti de una matroide de Aracely Isais Gómez​; Commutative Algebra with a View Toward Algebraic Geometry de David Eisenbud; Monomial Ideals de Herzog-Hibi; Cohen-Macaulay rings de Bruns-Herzog. Esto con la finalidad de reforzar y ampliar mis conocimentos requeridos para el análisis del problema.  Procedí a analizar el ideal determinantal de M, para esto, lo siguiente fue instalar y aprender a utilizar el software de geometría algebráica:  "Macaulay2". Con él, me dispuse a analizar una variedad de matrices de distintos tamaños. Macaulay2 nos permite calcular directamente el ideal generado por los menores de nxn de una matriz M con el comando "minors(n,M)"; luego, utilizando el comando "gb", calculamos la Base de Gröbner del I(M). La principal observación que tuve al realizar dicho análisis fue que los generadores del ideal I(M) coinciden con los elementos de su Base de Gröbner en todos los casos. Por lo que conjeturé que los generadores del I(M) ya forman en sí una Base de Gröbner para su ideal. Posteriormente demostré esta proposición procediendo por la definición.  Continuando con el análisis del ideal I(M), mediante Macaualay2 calculé las resoluciones libres minimales junto a su tabla de números de Betti, su dimensión proyectiva y la codimensión de varios ejemplos. En este caso, lo que pude notar fueron varias cosas, en primera que las resoluciones libres minimales eran puras, es decir, que cada módulo libre de la resolución solo tenía generadores de un mismo grado. En segunda, que las resoluciones eran lineales, y por último que el anillo de coordenadas de I(M) es Cohen-Macaulay. Por lo que conjeturé que para todo n mayor o igual que dos I(M) es Cohen-Macaulay y tiene una resolución libre minimal pura lineal. Dado que nuestro ideal I(M) es binomial, consideramos mejor trabajar con su ideal inicial in(I(M)), el cual es monomial y está generado por los monomios iniciales de los generadores de I(M). Los generadores de in(I(M)) son de la forma X_iX_j+1, con i menor que j, por lo que consideramos a in(I(M)) como un ideal de aristas asociado a una gráfica G. Utilizando técnicas de teoría de gráficas y homología simplicial sobre la gráfica complemento de G, probamos que in(I(M)) es Cohen-Macaulay y tiene una resolución libre minimal pura lineal.   Finalmente, estudiando las dimensiones de I(M) e in(I(M)), obtenemos lo deseado, que I(M) es también Cohen-Macaulay y tiene una resolución libre minimal pura lineal. Para este tipo de ideales tenemos una fórmula para calcular sus números de Betti, por lo que quedan completamente determinados. Continuamos trabajando con una generalización de estos ideales determinantales tratando de emular el trabajo ya hecho.


CONCLUSIONES

Durante la estancia de verano logré adquirir y reforzar mis conomientos sobre la teoría de módulos, las Bases de Gröbner, el álgebra homológica y la combinatoria, y ponerlos en práctica para demostrar que los ideales determinantales tienen como Base de Gröbner sus propios generadores. Además, logré probar con esto, y utilizando resultados bien conocidos, que los ideales determinantales son Cohen-Macaulay con resoluciones libres minimales puras lineales. Lo cual nos da una descripción total de sus números de Betti, al considerar su polinomio de Hilbert. Continuamos trabajando sobre generalizaciones de estos ideales determinantales esperando obtener resultados igual de satisfactorios.
Reyes Saldaña Esteban, Universidad Veracruzana
Asesor: Dr. Jesús David Terán Villanueva, Universidad Autónoma de Tamaulipas

ESQUEMA DE APRENDIZAJE BASADO EN BACKPROPAGATION PARA REDES NEURONALES


ESQUEMA DE APRENDIZAJE BASADO EN BACKPROPAGATION PARA REDES NEURONALES

Reyes Saldaña Esteban, Universidad Veracruzana. Asesor: Dr. Jesús David Terán Villanueva, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Las redes neuronales artificiales han ganado popularidad como estructura de la Inteligencia Artificial en los últimos años debido a su eficiencia para clasificar datos. Estas estructuras están inspiradas en las redes neuronales humanas que constan de un conjunto de neuronas y conexiones entre ellas, que emulan la sinapsis. Una neurona artificial es un ente capaz de procesar información que recibe de un estímulo externo mediante una función de activación. Las Redes Neuronales constan de tres capas de neuronas principales: Entrada, Oculta y de Salida. Se establecen conexiones aleatorias hacia adelante entre neuronas de capas adyacentes que tratan de converger a los datos de un conjunto de entrenamiento. Uno de los primeros algoritmos para garantizar la convergencia de estas estructuras es el de backpropagation. Este algoritmo utiliza el descenso gradiente de una función de error para llegar a un mínimo. En este trabajo, se estudia backpropagation desde un punto de vista matemático para entender cómo propagar el error hacia atrás para cada una de las conexiones. Se programa una red neuronal utilizando la función de activación sigmoide y se  experimenta con diferentes funciones de activación para ver cuánto cambia el resultado de la convergencia.



METODOLOGÍA

Plantear una red neuronal Feed Forward de manera teórica. Establecer la función de transferencia entre neuronas de capas adyancentes. Utilizar la función de activación sigmoide para normalizar esta función de transferencia. Plantear una función de error para medir los datos obtenidos y los datos esperados. Revisar el método de descenso gradiente. Utilizar el método del descenso gradiente para propagar el error hacia atrás mediante el uso de derivadas parciales. Plantear el algoritmo de backpropagation. Utilizar Python para programar backpropagation. Experimentar con bases de datos para probar el programa. Analizar qué funciones de activación son viables para remplazar a la función sigmoide. Experimentar con diferentes funciones de activación para comparar la convergencia de la red con la función sigmoide.


CONCLUSIONES

Backporpagation es un método puramente matemático que utiliza el vector gradiente para garantizar la convergencia de una red neuronal. Es fundamental utilizar derivadas parciales y regla de la cadena para realizar la retropropagación del error. Se reconoce que backporpagation converge a un mínimo local, lo cual no nos garantiza encontrar un arreglo de pesos que hagan el error lo suficientemente mínimo. Aunque el método de backpropagation ha sido muy utilizado de manera exhaustiva para la convergencia de redes neuronales, no se ha estudiado el efecto de cambiar la función de activación en cada una de las neuronas. Se espera que al cambiar las funciones de activación, se logre encontrar un arreglo de funciones de activación que acelere la convergencia de este algoritmo.
Ricaño Paz Javier Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Luis Arturo Ureña Lopez, Universidad de Guanajuato

ESTUDIO DE LOS EFECTOS DE LA ENERGíA OSCURA EN LA EXPANSIóN DEL UNIVERSO EN LOS MODELOS COSMOLóGICOS LAMBDA-CDM, ECUACIóN DE ESTADO CONSTANTE, CPL Y QUINTESENCIA COTEJANDO CON DATOS OBSERVACIONALES.


ESTUDIO DE LOS EFECTOS DE LA ENERGíA OSCURA EN LA EXPANSIóN DEL UNIVERSO EN LOS MODELOS COSMOLóGICOS LAMBDA-CDM, ECUACIóN DE ESTADO CONSTANTE, CPL Y QUINTESENCIA COTEJANDO CON DATOS OBSERVACIONALES.

Ricaño Paz Javier Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Luis Arturo Ureña Lopez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una de las mayores incógnitas a la cual la cosmología busca respuesta es ¿Cómo evoluciona el universo a través del tiempo? En 1990 observaciones de supernovas de tipo Ia indicaron que nuestro universo actualmente se encuentra expandiendose de manera acelerada. Dicho hecho puede ser explicado al añadir una constante cosmológica Λ dentro de las ecuaciones de Einstein que implicaría una enorme expansión exponencial en el universo temprano conocida como inflación. La naturaleza de dicha constante comúmente es asociada a la presencia de una energía del vacío con un efecto repulsivo a la que le fue acuñado el término de materia oscura. Diversa evidencia tanto observacional como teórica apoya esta teoría, entre esta se encuentra que daría una respuesta satisfactoria a diversos problemas en la teoría del Big Bang caliente, por ejemplo al problema de la planitud, el cual consiste en que si no se considerara la constante cosmológica, se habrían necesitado condiciones iniciales ``muy especiales" para mantener la geometría de un universo casi completamente plano, que es como se observa hoy en día, ya que pequeñas variaciones en aquellas condiciones habrían afectado la geometría del universo actual a gran escala. adicionalmente es consistente con la nucleosíntesis y otras predicciones teóricasen el campo de física de partículas. Debido a su gran aceptación por la comunidad científica, diversos modelos cosmológicos alternativos han surgido alrededor de la energía oscura entre estos, los que serán de interés durante la estancia de investigación son el modelo de ecuación de estado constante, quintesencia y el modelo Chevallier-Polarski-Linder (CPL). Siendo este último de particular interés.



METODOLOGÍA

Se hizo uso del codigo CLASS (Cosmic Linear Anisotropy Solving System) para calcular los datos teóricos de la evolución del universo. Adicionalmente se hizo lectura y análisis del libro "An introduction to modern cosmology" de Andrew Liddle para comprender las bases teóricas de un modelo cosmológico. El código CLASS tiene de manera predeterminada asignado los valores actualmente aceptados a los parámetros de entrada, de manera que al correr el código resultarán los datos de lo que se considera a día de hoy la evolución de nuestro universo basandose en el modelo Λ-cdm. Utilizando python como interfaz gráfica de CLASS para poder graficar e interpretar los resultados. Se graficaron las densidades de radiación y materia contra el corrimiento en rojo para determinar el período de igualdad en el modelo estandar. Se procedió a cambiar los valores preestablecidos para analizar el comportamiento de ciertos parámetros del cosmos respecto al corrimiento en rojo z. También se estudiaron las distancias angulares y luminosas respecto al corrimiento al rojo. Nuevamente se hicieron modificaciones a los parámetros del codigo CLASS (curvatura, parámetro de densidad de  materia oscura (Ωcdm) y parámetro de Hubble) para generar gráficas de distancia luminosa contra corrimiento en rojo y compararlos con los datos observados obtenidos del estudio de diversas supernovas de clase Ia y se determinó cual de los modelos se ajustaba mejor a la evidencia mediante una prueba de χ² de los datos teóricos. Se graficó además una gráfica de χ² contra Ωcdm para el caso anterior mencionado, en dónde se tomo como base el modelo estandar y únicamente se modificó el valor Ωcdm. Después se procederá a reproducir las gráficas anteriores con la diferencia de que se utilizaran los modelos alternativos de ecuación de estado constante, CPL y quintesencia y se compararán entre sí. Finalmente utilizando Monte Python para analizar las regiones de confianza bajo las cuales los parámetros de cada modelo se ajustan de manera más optima con los datos observacionales.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimiento teórico de Cosmología, además de que fue posible familiarisarse con los códigos y herramientas de trabajo utilizadas en la investigación dentro de este campo de la física. Se encontró que el periodo de igualda entre radiación y materia se dió aproximadamente en un corrimiento al rojo de 3400. Se graficaron las distancias luminosas utilizando cinco modelos distintos en dónde se variaron los siguientes tres parámetros Modelo 1 (estandar): h=0.6, Omega_cdm = 0.2, k≈0 Modelo 2: h=0.7, Omega_cdm = 0.3 Modelo 3: h=0.5, Omega_cdm = 0.1 Modelo 4: k=-0.6 Modelo 5: k=0.4 (Los parámetros no especificados mantienen el valor del modelo estandar) Como era de esperarse el modelo estandar obtuvo un χ² más bajo, significando que éste se ajusta de mejor manera a los datos observacionales. El modelo estandar obtuvo χ²≈633.26 mientras que en el resto de los modelos su χ² era superior a 1300. En la gráfica de χ² contra Ωcdm se crearon nueve modelos distintos con Ωcdm = 0.1, 0.2, 0.3,...,0.9 se obtuvo que el modelo que ajustaba de mejor manera al los datos observacionales fue el que tomaba el valor de 0.3, lo cual es consistente con el valor de Ωcdm que se acepta hoy en día, siendo este valor de aproximadamente de 0.27. Aún no se han reproducido  las gráficas en Monte Python pero se espera de igual manera que los parámetros con las cuales cada modelo ajusten de mejor manera a los datos observados sean los estimados hasta el día de hoy
Rivera Frías Francisco Rafael, Universidad de Sonora
Asesor: Dr. Vyacheslav Moisseevitch Zobin Peremanova, Universidad de Colima

UNA SECUENCIA DE TREMOR VOLCáNICO ANTES DE LA EXTRUSIóN DE LAVA DEL VOLCáN DE COLIMA EN SEPTIEMBRE DEL 2004


UNA SECUENCIA DE TREMOR VOLCáNICO ANTES DE LA EXTRUSIóN DE LAVA DEL VOLCáN DE COLIMA EN SEPTIEMBRE DEL 2004

Rivera Frías Francisco Rafael, Universidad de Sonora. Asesor: Dr. Vyacheslav Moisseevitch Zobin Peremanova, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

En este estudio se analizó la actividad del volcán de Colima que tuvo lugar en septiembre del 2004. Se hizo un enfoque específicamente en los tremores producidos por dicho volcán antes de la extrusión de lava del 30 de septiembre.. Mediante los sismogramas se pretende poder ver las características que presentan los tremores en el mes de septiembre antes de la erupción.



METODOLOGÍA

Para analizar los registros de los tremores del volcán se usaron las lecturas que realizó la estación sísmica EZV4 de periodo corto.  Luego de esto, con el programa EXCEL en conjunción con el programa DEGTRA, se elaboró una base de datos en donde se analizaron varios sismogramas con duración de dos minutos para poder registrar las diferentes características que se presentaban en dichos sismogramas y de los espectros de Fourier, algunos de los aspectos que se registraron en la base datos fueron: *Nombre del archivo, frecuencia de un pico en Hz, amplitud en m. y tipo de tremor Una vez que se terminó de elaborar la base de datos, pasamos al programa GRAPHER donde se hicieron diferentes graficas de los datos obtenidos anteriormente y así poder hacer una interpretación de las gráficas resultantes.


CONCLUSIONES

Durante el mes de septiembre de 2004 fueron registrados tremores volcánicos cinco días antes del inicio de extrusión del Volcán de Colima. La actividad más intensa ocurrió durante los días 19, 20 y 21.  Con la base de datos y los gráficos nos dimos cuenta de que existe una mayor cantidad de tremores de tipo armónico que de tipo espasmódico. Las frecuencias dominantes de tremores armónicos fueron de 1.2 Hz.
Rodriguez Huitron Arely, Universidad Autónoma del Estado de México
Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur

EROSIóN BIOLóGICA: CUANTIFICACIóN DE BALANCE DE CARBONATOS DE CALCIO


EROSIóN BIOLóGICA: CUANTIFICACIóN DE BALANCE DE CARBONATOS DE CALCIO

Rodriguez Huitron Arely, Universidad Autónoma del Estado de México. Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

Un arrecife de coral es una formación biogénica, es decir, formada por organismos vivos, que modifican sustancialmente la tridimensionalidad, fisiografía y composición del sustrato. Los principales organismos formadores de arrecifes son aquellos, cuyos esqueletos están conformados por aragonita (corales, algas coralinas, algas frondosas como Halimeda spp., bivalvos, briozoarios, esponjas, etc.). Este material es erosionado por medios químicos o biológicos, y el sedimento resultante, se cementan por una serie de reacciones biogeoquímicas y por procesos de empaquetamiento de los granos dentro de las cavidades que deja la roca caliza, con lo que se forma la roca y la estructura arrecifal. La cantidad de carbonato de calcio que es depositado por los corales depende de las condiciones ambientales, ya que, en aguas cálidas, poco productivas y muy iluminadas, los esqueletos crecen más rápido y son más densos, por lo que estas zonas pueden tener una mayor tasa de crecimiento o acreción arrecifal. Sin embargo, existen organismos erosionadores de carbonato de calcio formador de arrecifes coralinos. El objetivo que se persiguió durante el verano de investigación fue determinar, el balance de carbonatos en dos pequeños arrecifes cercanos a la ciudad de La Paz, en Baja California Sur. Para ello se evaluó la tasa de depositación de carbonatos coralinos y la de erosión efectuada por especies selectas. La pregunta principal fue si el nivel de erosión causado por especies erosionadoras (erizos y peces) era tal que podría causar un deterioro de los arrecifes coralinos, en el caso que fuera mayor la cantidad de carbonato de calcio eliminado, al que se deposita anualmente.



METODOLOGÍA

Para comprobar lo anterior se analizaron los procesos de entrada y salida de carbonatos en los arrecifes en dos bahías de la Isla Espíritu Santo, cerca de La Paz, mediante la cuantificación de la cobertura de coral (porcentaje del fondo), la tasa de crecimiento de las especies (en cm/año), y la densidad de su esqueleto (en g/cm3). Estos valores fueron contrastados con la cantidad de carbonato erosionado por algunos peces y erizos de mar para estimar la bioerosión presente en el arrecife. La metodología puesta en práctica es la siguiente. Los datos de cobertura (en porcentaje del fondo) se obtuvieron en el campo, durante los días 12 y 16 de julio de 2019, en los sitios de El Corralito y San Gabriel, ubicados dentro de la Isla Espíritu Santo, mediante cuadrantes de 50 x 50 cm, colocados a una profundidad de 4 m, subdivididos en 100 unidades de muestreo, los cuales se iban colocando, siguiendo transectos de fibra de vidrio de 2.5 m como referencia. En ellos se evaluó la abundancia (cobertura) de los cuatro principales géneros de coral presentes en el sitio de trabajo: Pocillopora, Pavona, Porites y Psammocora. Por otra parte, los datos de densidad del esqueleto para cada género fueron tomados de la literatura científica y las tasas de crecimiento por género se revisaron del mismo modo. La ecuación de cálculo para saber cuánto carbonato de calcio se deposita (en unidades de g/cm²/ año) se presenta a continuación: Cobertura de coral (%) * tasa de crecimiento (cm/año¯¹) * densidad del esqueleto (g/cm¯³) Para determinar el nivel de erosión, se contabilizaron especies de erizos y peces, dentro de transectos de 25 x 2 m tendidos de forma paralela a la playa y siguiendo el mismo nivel de profundidad. Para el caso de los erizos se tomó en cuenta a la Familia Diadematidae (la principal especie es Diadema mexicanum) y la Familia Cidaridae (Eucidaris thouarsii). En cuanto a peces erosionadores, se realizó el conteo de las especies en transectos de 25 x 4 m, y se revisó la Familia Tetraodontidae (Arothron hispidus, Arothron meleagris) y a la Familia ScaridaeCARIDAE (Scarus compressus, Scarus ghobban, Scarus Perrico, Scarus rubroviolaceus). Una vez con los datos de abundancia de peces y erizos, para conocer el nivel de erosión se hicieron cálculos con base en la tasa de consumo (g/día), abundancia por individuo de manera diaria para después extrapolar y hacer el cálculo de manera anual. La fórmula aplicada fue la siguiente. Tasa de consumo * abundancia * año Los resultados finales se obtuvieron en unidades (g/-ind¯¹/año¯¹) Para el cálculo de las tasas de erosión se tomaron valores existentes en la literatura para cada especie. Se hizo la sustracción de la cantidad de carbonato erosionado por las especies de interés, y la de carbono que se deposita a nivel de cada transecto, y los valores se compararon entre los dos sitios con una prueba t de Student para comparar las dos muestras suponiendo varianzas iguales.


CONCLUSIONES

La tasa de bioerosión resulto ser menor a la cantidad de depósito de carbonatos de calcio en los sitios de estudio, sin embargo, se obtuvieron datos que muestran diferencias significativas entre sitio y sitio respecto a los agentes bioerosionadores.
Rodriguez Melgarejo Susana Abigail, Universidad Veracruzana
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

OCURRENCIA DE BRISA MARINA EN PUERTO VALLARTA, JALISCO PARA EL AñO 2013


OCURRENCIA DE BRISA MARINA EN PUERTO VALLARTA, JALISCO PARA EL AñO 2013

Rodriguez Melgarejo Susana Abigail, Universidad Veracruzana. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El viento es el movimiento del aire de acuerdo con las diferencias de presión atmosférica.  El diferente calentamiento diurno entre las zonas marítimas y terrestres da lugar a diferencias de presión provocando una circulación del aire entre el mar y la tierra denominada brisa marina (de mar a tierra) o terral (de tierra a mar). Este fenómeno meteorológico es de gran importancia en las zonas costeras ya que actúa como un sistema de transporte para polen, insectos y aves, además de resultar relevante para el comportamiento del tiempo atmosférico diario. La importancia de realizar un estudio sobre este fenómeno en Puerto Vallarta resulta de su falta de información sobre la vertiente del océano Pacífico y la influencia que este tiene en la zona de estudio.



METODOLOGÍA

Para realizar este estudio es necesario contar con datos de viento de uno o varios puntos cercanos a la costa, por lo que se utilizaron los datos de velocidad y dirección de viento del año 2013 tomados de la Estación Meteorológica Automática del punto seleccionado en el Centro Universitario de la Costa (CUC) el cual se encuentra ubicado a una latitud de 20°42'17.40" Norte y a una longitud de 105°13'18.46" Oeste, con una altitud de 25 msnm y una distancia a la costa de 7.9 km.  Una vez teniendo la base de datos de viento con velocidad y dirección, se prosiguió a realizar un control de calidad de datos con la finalidad de identificar datos erróneos. Se establecieron cinco condiciones para la identificación de estos datos las cuales consistieron en lo siguiente:  Velocidad < 0 Dirección < 0° Dirección > 360° Dirección = 0°, Velocidad distinta de 0 Velocidad = 0°,Dirección distinta de 0° Realizado el control de calidad, se determinó el rango de direcciones que se consideran de mar a tierra. Se tomaron diferentes puntos a lo largo de la costa y se aproximó una línea recta de la cual se unieron los extremos con el punto en cuestión (CUC) para finalmente determinar el ángulo de apertura que determina la gama de direcciones del viento que se considera de mar a tierra. Determinar este rango de direcciones proporciona una base sólida para la construcción de una caracterización de la brisa. Finalmente, se aplicó un criterio para la identificación de brisa marina que consistió en lo siguiente:  Desde 2 horas después del amanecer hasta 3 horas después del ocaso, al menos 2 horas continúas de viento de mar a tierra. Para este último paso se hizo uso de un software de apoyo disponible en la página web de la Universidad de Colima llamado Geometría Solar el cual ayudó a determinar la hora del amanecer y el ocaso para poder aplicar nuestro criterio para la identificación de brisas.


CONCLUSIONES

Para el año 2013, se encontró que en un 87% de los días del año hay  ocurrencia de brisas, teniendo a marzo y mayo como los meses en los que todos los días hay presencia de brisa y a febrero y septiembre con menores días con presencia de brisa con valores de 20 y 23 días respectivamente. Por otra parte el 13% de los días del año se encuentran en calma, es decir, con valores menores a 0.2 m/s. Por lo tanto concluye que la brisa se establece durante la mayor parte el año, más sin embargo el criterio utilizado no es suficiente para afirmar que todo el viento proveniente de mar a tierra es debido a las brisas marinas, por lo que para efecto de eliminar la influencia de fenómenos de otras escalas, se debe aplicar un filtro basado en la diferencia de temperatura tierra-mar para conducir la circulación y ser considerada como brisa marina.
Rodriguez Ortiz Kathelyn Rosse, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)

RECONOCIMIENTO DE GESTOS MANUALES PARA LA AUTOEVALUACIÓN DE EMOCIONES


RECONOCIMIENTO DE GESTOS MANUALES PARA LA AUTOEVALUACIÓN DE EMOCIONES

García Coronado Olivia Paola, Instituto Tecnológico de Piedras Negras. Rodriguez Ortiz Kathelyn Rosse, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El reconocimiento de gestos de las manos ha traído un creciente interés por sus aplicaciones en diversos campos. En esta estancia se desarrollará una interfaz de usuario capaz de obtener información sobre el estado emocional del usuario (activación y valencia). Para ello, se usará un dispositivo Leap Motion pero se desarrollarán e implementaran diferentes estadísticas que nos servirán de entrada para un clasificador. El objetivo es diseñar, implementar y probar una interfaz de usuario basada en gestos manuales para autoevaluación de sentimientos.



METODOLOGÍA

Primeramente comenzamos a estudiar el SDK del Leap Motion (sistema de control gestual) las características y la manera de obtener los datos crudos de las manos que detectara el sensor.  Utilizamos la plataforma de desarrollo Eclipse, más específicamente el IDE de Java. Se realizaron modelos matemáticos para poder calcular los ángulos entre los puntos de "Tip Position" (punta de los dedos) con respecto a la palma, de esa manera se podrían configurar algunos gestos predeterminados para poder realizar el sistema de conocimiento de gestos para realizar autoevaluaciones del estado de animo de una persona.  Se utilizaron fórmulas de cálculo vectorial para poder realizar todas las mediciones correspondientes para poder obtener los ángulos entre los dedos. Además de esto, se optó por obtener la mediana de los ángulos como "máximo" para poder evaluar si una mano tiene los dedos abiertos o cerrados.


CONCLUSIONES

Durante la estancia de este verano adquirimos más conocimientos y habilidades en el área de la informática, llegando a programar en un entorno tal como el SDK de LeapMotion, una programación más avanzada y profunda de lo que habíamos manejado. Nos adentramos también un poco más en la disciplina de la interacción humano computadora.  A lo largo de las semanas conocimos a varios estudiantes de maestría, quienes nos incentivaron a tomar una en el Centro de Investigación donde estamos trabajando (CIMAT). Tuvimos la gran oportunidad de asistir a la Escuela de verano que el CIMAT realiza, donde tuvimos varias conferencias y talleres donde durante una semana estuvimos viendo nuevas tecnologías, las cuales nos ayudarán en nuestro desarrollo académico y profesional en el futuro, tuvimos talleres de Ing. en Software, Bioestadística, Creación de videojuegos en Unity y uno de Criptografía. Además de motivarnos también a tomar una maestría en CIMAT Zacatecas. 
Rodríguez Pérez René Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alfonso Hernández Sámano, Universidad de Guadalajara

TERAPIAS CONTRA EL CáNCER POR HIPERTERMIA MAGNéTICA


TERAPIAS CONTRA EL CáNCER POR HIPERTERMIA MAGNéTICA

Fuentes Mirón Victor Manuel, Benemérita Universidad Autónoma de Puebla. Rodríguez Pérez René Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfonso Hernández Sámano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El ciclo de vida de una célula ordinaria se resume en: crecimiento, reproducción y muerte. Las células se reproducen cuando es necesario, es decir, cuando otras se dañan o envejecen; sin embargo, en el cáncer estos procesos ocurren distinto. Las células dañadas o viejas no mueren mientras que otras siguen formándose, las células cancerígenas pueden reproducirse ininterrumpidamente hasta formar masas llamadas tumores. Esta enfermedad es la principal causa de muerte a nivel mundial, tan sólo en 2015 provocó alrededor de 8.8 millones de muertes (Organización Mundial de la Salud [OMS], 2017). Para tratarlo se han desarrollado técnicas principalmente radiológicas con el fin de dañar el ADN de las células cancerígenas e inducirlas a la apoptosis, no obstante, estos tratamientos no sólo afectan a las células enfermas si no también a las sanas por lo que se han buscado alternativas de tratamiento para evitar el daño colateral. La hipertermia magnética es un tratamiento no ionizante que consiste en administrar una suspensión de nano partículas superparamagnéticas con recubrimiento bio compatible directamente dentro el tumor. Una vez que las nano partículas entran a las células por endocitosis o se adhieren a la membrana celular externa, se aplica sobre el tumor un campo magnético alternante que interacciona con las nano partículas magnéticas (MNPs por sus siglas en inglés) y estas a su vez aumentan su temperatura hasta alcanzar los 45°C (Temperatura a la cual las proteínas de la membrana celular se desnaturalizan provocando apoptosis). Sin embargo, para que todo lo anterior sea posible es necesario que las MNPs pasen por todo un proceso de caracterización para así asegurar que pueden ser útiles para hacer pruebas con células humanas por lo que durante el verano de investigación se realizó parte de las pruebas de caracterización de un ferro fluido de nano partículas sintetizadas en el Centro Universitario de Ciencias Exactas e Ingenierías (CUCEI) de la Universidad de Guadalajara.



METODOLOGÍA

El ferro fluido a caracterizar es una suspensión de nanopartículas de Magnetita (Fe3O4) con un diámetro de 25 nm., recubiertas de ácido fólico para lograr biocompatibilidad con las células. Para la caracterización fue necesario calcular la tasa de absorción específica (SAR por sus siglas en inglés) de las MNPs, y para esto fue necesario un experimento en el cual se obtuvieron sus curvas de calentamiento. En este experimento se utilizó un sistema de hipertermia magnética de frecuencia variable, que consiste en un inversor de corriente de frecuencia variable y una bobina a la cual, al aplicarle una corriente con una fuente de voltaje, genera un campo magnético alternante. En el centro de la bobina colocamos el ferro fluido y con un termómetro de fibra óptica se mide la temperatura dentro de la muestra. Para comenzar a medir, debemos esperar a que el fluido llegue a su temperatura de equilibrio con el medio. En un programa hecho en Labview podemos verificar este proceso por medio de una gráfica de temperatura vs. tiempo. Una vez que la muestra alcance el equilibrio termodinámico, se enciende la fuente de voltaje, la corriente comienza a viajar por la bobina, generando un campo magnético. Las nanopartículas por sus características superparamagnéticas toman la energía dada por el campo y la transforman en calor. Cada medición de la temperatura se realizó durante 500 segundos por cada muestra, los primeros cien segundos transcurrían en ausencia de campo magnetico para obtener la temperatura inicial, al segundo 100 se enciende el campo para continuar por 300 segundos de calentamiento y en últimos 100 segundos se retiraba el campo. Se repitió este procedimiento para 5 campos magnéticos diferentes, 100, 150, 200, 250 y 300 Oe para poder obtener una grafica que muestre como varía la SAR con respecto al campo magnético y observar si cumple con la relación predicha por la teoría, la cual nos indica que ambas deberían estar relacionadas por el cuadrado del campo magnético. Al graficar y analizar los datos obtenidos en el programa OriginPro, se buscó la pendiente, que nos daba el valor del cambio en la temperatura respecto al tiempo usando cada campo, y de esta forma calcular la SAR de las nanopartículas.


CONCLUSIONES

Durante la etapa de revisión bibliográfica adquirimos el conocimiento necesario para comprender los procesos por los cuales atraviesan las MNPs para lograr transformar la energía magnética en térmica, sin embargo, durante el análisis de las curvas de calentamiento del ferro fluido pudimos observar comportamientos que diferían excesivamente de lo predicho por la teoría que describe la relación entre el campo magnético aplicado y el calor generado. Para discernir entre los factores determinantes de este comportamiento, es necesario llevar a cabo otra serie de experimentos para analizar las curvas de histeresis dinámica y de magnetización. Por otro lado, el error sistemático en las curvas de calentamiento sugiere que nuestra metodología experimental no era la correcta para controlar las variables del experimento.
Rodríguez Ramos Angélica Vianney, Instituto Politécnico Nacional
Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo

DISEÑO DE MOLDE PARA MANUFACTURA DE UN ALABE PARA AEROGENERADOR DE BAJA POTENCIA


DISEÑO DE MOLDE PARA MANUFACTURA DE UN ALABE PARA AEROGENERADOR DE BAJA POTENCIA

Hernández Vázquez Juan Carlos, Instituto Tecnológico Superior de Ciudad Serdán. Magaña Paz Juan Luis, Instituto Tecnológico de Colima. Rodríguez Ramos Angélica Vianney, Instituto Politécnico Nacional. Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo



PLANTEAMIENTO DEL PROBLEMA

Debido a la necesidad de incrementar el uso de aerogeneradores de baja potencia la Universidad del Istmo (UNISTMO) en su división de posgrado se encuentra desarrollando aerogeneradores de baja potencia, entre los cuales existen diseños con capacidades de 1.5 kW, 3 kW, 10 kW y actualmente está en proceso de la manufactura de las aspas de un aerogenerador de 5 kW, por ello la importancia y el interés de capacitar a estudiantes en el diseño de las mismas.



METODOLOGÍA

Para realizar el diseño del aspa se utilizó el perfil aerodinámico FX 63-137 debido a un análisis previamente realizado acerca de su comportamiento en la zona del Istmo, siendo ésta una zona que se caracteriza por contar con altas ráfagas de viento. Posteriormente se utilizó el método Blade Element Momentum el cual es un método iterativo en el cual se definen los parámetros de diseño del aspa como la cuerda (c), la Velocidad relativa (Vrel) y las cargas aerodinámicas se calculan por sección generando así una diferencial, la cual se debe de integrar para obtener el valor total tanto del empuje (T) y el Torque (M). El aspa diseñada fue dividida en 10 secciones además se añadió una sección adicional que corresponde a la punta de ésta, dando un total de 11. Obtenidas las cuerdas de cada sección por el método BEM se procedió a escalar, trasladar y rotar cada una, esto para hacer coincidir su centro aerodinámico. Ya una vez verificado mediante una gráfica que las secciones coincidieran en un mismo centro aerodinámico, se guardaron los puntos de cada una en un archivo de Excel para después exportarlos al software de diseño 3D. El software que se usó para el diseño del aspa fue Inventor debido a la fácil importación de los puntos guardados en los archivos de Excel. En inventor fueron creados planos desfasados entre sí a la distancia obtenida en el método BEM, después se importaron perfil por perfil los puntos en sus respectivos planos, además se agregaron dos circunferencias con un radio correspondiente a un porcentaje de la cuerda del primer perfil, las cuales fueron colocadas a un 3% y 10% de la longitud total del aspa esto para formar la raíz, posteriormente se solevaron las 11 secciones y las 2 circunferencias para así obtener el aspa. Para el diseño del molde se utilizaron los puntos de las secciones empleadas para el aspa, siendo divididas en intradós y extradós, es decir, en dos partes el total de puntos de cada sección, además, se buscó que las curvaturas pudieran ser manufacturadas por la CNC con la que se cuenta en la Universidad del Istmo, ya que el cortador solo puede operar a 90° del plano de trabajo, por lo que la solución a este problema fue quitar puntos del intradós o extradós, cual fuere de las dos que no podía maquinarse, para añadirse a la otra parte de la sección, obteniendo así curvas maquinables. Cuando se observa que las curvas de los perfiles pueden ser maquinadas se procede a realizar el molde. Se agregan rectángulos los cuales representan la base del molde, después se ajustan al primer y último punto de cada perfil cerrando un contorno, posteriormente se solevan las secciones obteniendo el molde. Cabe mencionar que la solevación se hace desde el penúltimo boceto del intradós al primer boceto de la raíz omitiendo lo que es la punta del molde, el siguiente paso es la extrusión de la raíz del primer molde y la solevación de la punta con el aspa. Se realizan los mismos pasos para ambas partes, intradós y extradós. Para obtener el código que será ingresado a la CNC se usó el software de diseño CATIA con el cual se configuraron los parámetros necesarios para el correcto maquinado de los moldes. El proceso de maquinado se dividió en desbastado y acabado. Como parte de un proyecto de la manufactura de las aspas para un aerogenerador de 5 kW en el cual la UNISTMO se encuentra trabajando, el siguiente proceso se realizó con el diseño que previamente fue elaborado por el M.C. Isaías López García. Debido a que la longitud del molde para el aspa es de 2.8 m, lo que es mayor a lo que la bancada de la CNC puede manufacturar, se tomó la decisión de dividir en 2 el molde del intradós, así como el del extradós. Para el maquinado se procedió a colocar el material de desbaste en la CNC. Después se configuró el centroide del material como el origen debido a que el punto inicial de simulación se encuentra en esa posición. Posteriormente se cargó el primer código que corresponde al desbastado de la pieza. Para el proceso de acabado se cargó el código en la CNC y se procedió a realizar el maquinado. Finalmente, como resultado obtuvimos 4 piezas, 2 para el molde del extradós y 2 para el del intradós.  


CONCLUSIONES

Durante la estancia se aprendió la metodología para desarrollar el diseño de aspas para aerogenerador de baja potencia, en la cual aborda desde el estudio de la selección del perfil lo cual es un punto muy importante para la eficiencia del aerogenerador siendo esta la que soportará las cargas del viento como la aplicación de la teoría del método BEM, el dimensionado y la obtención de los puntos para el diseño del aspa en modelo CAD posterior a ello se identificaron las condiciones que se deben contemplar para el diseño de los moldes que ayudarán para la manufactura del aspa, además se generó el código para la realización del maquinado dando como resultado la obtención de las piezas físicas de los moldes del aspa con las medidas previamente especificadas en el diseño CAD. El diseño de los moldes de las aspas que se construyeron en la UNISTMO son piezas importante para la manufactura de las aspas, la cual considera las características del viento de la zona del Istmo, que se caracteriza por contar con ráfagas de viento fuertes.
Rodríguez Santos Andrea, Universidad de Colima
Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla

EL RENDIMIENTO DE CULTIVOS BAJO LA INFLUENCIA DE DEPóSITO SECO DE AZUFRE EN MéXICO.


EL RENDIMIENTO DE CULTIVOS BAJO LA INFLUENCIA DE DEPóSITO SECO DE AZUFRE EN MéXICO.

Rodríguez Santos Andrea, Universidad de Colima. Asesor: Dr. Marco Antonio Mora Ramirez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El dióxido de azufre (SO2) es un gas inodoro que podría servir como semilla para la formación de nubes, y nuevos aerosoles, y que en algunos casos causa riesgo para la salud en seres vivos, incluidos los humanos, los animales y las plantas (Krupa et al., 1990). El SO2 reacciona con otros compuestos en la atmósfera y forma ácidos que mas adelante se depositan en la superficie por el efecto de la lluvia o debido al efecto mecánico de los vientos (deposito seco), el último es un mecanismo de remoción predominante para ciertas estaciones del año. El depósito seco de SO2 propicia la acidificación de cuerpos de agua, daña los edificios (Evans, 1984, Gillete, 1975; Gheorghe et al., 2011), ocasiona daños en la vegetación (Cape, 1993, Varshney et al., 2009, Lei et al., 2016), ya que afecta los suelos y cultivos (Shakil 2015, Iqbal et al., 2014; Knabe, 1976). Aunado a esto en el mundo se tiene un crecimiento sostenido del uso de combustibles fósiles, especialmente el del uso de combustible marino que tiene altas concentraciones de azufre, y con ello aumenta la preocupación sobre el impacto potencial que tienen las emisiones de SO2 de los barcos en el clima, la salud y la biodiversidad. En 1996 Thortnton et al. (1997) observaron que el SO2 podía ser transportado desde las fuentes en Asia hasta la costa oeste de Estados Unidos en el Océano Pacífico. Así mismo diversos estudios señalan que existe transporte de largo alcance de  gases y aerosoles (Bailey et al., 2000; Duce et al., 1980; Harris et al., 1992; Jaffe et al., 1999, 2003a, 2003b; Martin et al., 2002;  Moore et al., 2003), en particular de SO2 (Tu et al., 2004) razón por la cual las emisiones de barcos podrían tener influencia sobre el territorio nacional. En este trabajo investigamos el efecto de las emisiones de SO2 provenientes de grandes barcos, y fuentes en tierra de todo el territorio nacional, sobre los rendimientos de cultivos en México de 2003 a 2018.



METODOLOGÍA

Se colectan, validan y procesan datos de emisiones en Mar y Tierra para realizar simulaciones numéricas de calidad del aire con el modelo WRF-chem, de donde se obtienen datos de depósito seco de SO2 (dsSO2). Se utilizan herramientas de geo procesamiento (ArcMapv10.3), para calcular el depósito seco de SO2 sobre cada municipio del país. Con base en la literatura, se genera una lista de los cultivos resistentes y sensibles a la exposición por azufre. Al mismo tiempo, se colectan datos de agricultura (rendimientos) por municipio de la base de datos SIAP. Se realizan diferentes análisis estadísticos y espaciales para investigar la correlación entre los rendimientos de los cultivos (aguacate, maíz, alfalfa, frijol) y el depósito seco de SO2.


CONCLUSIONES

Los resultados de simulaciones numéricas muestran que en aproximadamente el 80% del territorio nacional se deposito SO2. Se identificaron cuatro zonas de mayor vulnerabilidad, afectadas por el depósito de SO2, (i) en el Pacífico se encuentra afectada la región del norte de Sonora, Sinaloa, Nayarit, que se explica principalmente por las emisiones de grandes barcos que navegan en el Pacífico hacia Panamá, (ii) en el noreste tenemos a Nuevo León y una fracción de Coahuila, influenciadas principalmente por la actividad industrial y las emisiones generadas por las actividades propias de estas ciudades, (iii) caso similar al de la Megalópolis central del México (Edo. Mex., Morelos, Tlaxcala, CDMX, Puebla, Tlaxcala), (iv) finalmente en el la región del Golfo de México, encontramos los máximos de depósito de azufre en los estados de Veracruz, Tabasco y Campeche, que se explican como la sinergia de las emisiones generadas por los barcos y su actividad en el Golfo de México, y con las emisiones de la industria petrolera. Así mismo, a partir de la estimación de los datos de depósito seco de SO2 por municipio en México, se investigó la correlación del rendimiento de diferentes cultivos a nivel municipal. Los resultados preliminares, muestran que varios de los cultivos sensibles disminuyeron su rendimiento sin distinción del tipo de producción (riego o temporal). Por otro lado, en los cultivos resistentes se observó un aumento en el rendimiento para aquellos municipios con mayores depósitos de azufre respecto al promedio nacional.
Rojo Méndez Luis Antonio, Universidad de Sonora
Asesor: Lic. Rufino Lozano Santa Cruz, Universidad Nacional Autónoma de México

ESTABLECIMIENTO DE LOS PROTOCOLOS DE ANáLISIS GEOQUíMICOS POR FRX Y DRX DE LAS PIEDRAS Y MINERALES CON TONALIDAD VERDE DE USO PREHISPáNICO EN SONORA, MéXICO.


ESTABLECIMIENTO DE LOS PROTOCOLOS DE ANáLISIS GEOQUíMICOS POR FRX Y DRX DE LAS PIEDRAS Y MINERALES CON TONALIDAD VERDE DE USO PREHISPáNICO EN SONORA, MéXICO.

Rojo Méndez Luis Antonio, Universidad de Sonora. Asesor: Lic. Rufino Lozano Santa Cruz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Justificación Estudios analíticos preliminares por DRX y FRX arrojan información muy valiosa para la discriminación de los materiales verde-azul con uso prehispánico en Sonora, sin embargo, no se tiene un análisis exhaustivo de los espectros obtenidos para los datos de DRX y en el caso de los análisis por la técnica FRX, es necesario elaborar un detallado análisis de los elementos involucrados, así como de verificar los estándares comparativos a utilizar. Bajo esta perspectiva, se está a la búsqueda del establecimiento de protocolos de análisis de las piedras verde-azul arqueológicas, con miras a la obtención de muestras verdes que sirvan como referencia de análisis. Debido a lo anteriormente mencionado, fue factible desarrollar el actual tema de verano de investigación científica en el LANGEM, donde se pudo tener acceso a instalaciones y equipo moderno para análisis. Además, la estancia fue asesorada por el investigador Quím. Rufino Lozano Santa Cruz, el cual posee amplia experiencia en la temática. Objetivos de la Estancia - Forjar criterios de las diferentes técnicas analíticas y sobre la preparación de muestras para su respectivo proceso de análisis. -Compilar los datos geoquímicos obtenidos para su análisis e interpretación. -Identificación de espectros característicos de rocas y minerales con tonalidad verde-azul. -Verificar la existencia de materiales de referencia (MR) de minerales y rocas verde-azul. -Requerimientos para crear MR tipo para muestras de tonalidad verde-azul. - Establecer un protocolo de análisis de materiales arqueológicos de tonalidad verde-azul.



METODOLOGÍA

Introducción a los métodos analíticos Antes de comenzar a realizar el preparado de las muestras y su correspondiente análisis, se realizó una capacitación a las técnicas de Difracción de Rayos X (DRX) y Fluorescencia de Rayos X (FRX) en forma de conferencia impartida por el Quím. Rufino Lozano Santa Cruz y la Quím. Patricia Girón García, con el nombre de Principios y Aplicaciones de FRX y DRX, donde se explicó a profundidad la teoría en la que se basan estos métodos analíticos, enfocándose en el espectro electromagnético, componentes de los equipos utilizados y su función, las leyes físicas que rigen estos métodos como lo son La ley de Moseley y la Ley de Bragg. Preparación de muestras Se pulverizaron las 15 muestras en un mortero de ágata para obtener polvos muy finos (<74 micras) para que todos los planos cristalinos queden muy expuestos y con esto obtener una buena lectura por DRX. Después de las muestras con más cantidad de polvo se calculó la perdida por calcinación y se realizaron pastillas de polvo comprimido en la prensadora Graseby/Specac para hacer el análisis por FRX. Análisis Fotoluminiscencia de luz Ultravioleta Se realizaron pruebas con una lampara de luz MINERALIGHT modelo SL con las rocas y minerales verdes del muestrario, de los cuales ninguno presentó fluorescencia. Difracción de Rayos X Las muestras fueron analizadas por DRX en el equipo Siemens D5000 y los espectros emitidos fueron trabajados e identificados en el programa Match! 2. La tecnifica fe útil en la mayoría de los casos donde el espectro encajaba muy bien con los picos característicos de cada mineral. No se pudo reconocer la fase mineral de los materiales que no presentaron reflexiones características lo que habla de la ausencia de estructura cristalina (materiales amorfos). Se pudo identificar fases como Turquesa, Diópsido, algunos poco comunes derivados del antimonio entre otros. Fluorescencia de Rayos X Los valores semicuantitativos de FRX de cada elemento empataban perfectamente con los cálculos estequiométricos en los casos donde si hubo una identificación. La problemática aquí es que se necesita una buena cantidad de muestra, la cual, no siempre es posible obtener de los materiales recolectados por los arqueólogos en los sitios arqueológicos como talleres de lapidaria o cementerios prehispánicos. Se compararon dichos resultados con el análisis realizado por un equipo portátil de FRX, específicamente el Niton XL3t Ultra detector GOLDD+.El equipo portátil tiene una clara desventaja sobre el equipo convencional y es que no detecta algunos elementos, pero aun así la cantidad que de elementos que fueron detectados medidos en este equipo, se acercaba casi perfectamente a las mediciones realizadas por el equipo convencional.


CONCLUSIONES

La perdida por calcinación (PPC) juega un papel muy importante en este tipo de análisis en los cuales existe una gran cantidad de minerales hidratados o carbonatos. Existieron muestras donde se descubrió que no se trataba de Turquesa, sino de Plancheíta el cual es un silicato de cobre poco común con aspecto muy parecido a la Turquesa. En los casos donde no fueron identificadas ninguna fase mineral se optó por realizar petrografía, lo cual es imposible para piezas arqueológicas ya que es una técnica destructiva. Por esta razón la técnica combinada de DRX-FRX no fue eficiente en los casos que no presentaban una estructura cristalina bien definida, por lo que propone la utilización de otros métodos analíticos que puedan analizar este tipo de muestras como lo seria espectroscopía RAMAN e Infrarroja. No se presentó fotoluminiscencia de luz UV en ninguna muestra, por lo que se propone probar con otro tipo de longitudes para las rocas y minerales del muestrario. Por lo anterior se puede decir que es factible realizar análisis con equipos portátiles de FRX y comparar dichos resultados con referencias analizadas en equipos convencionales y posteriormente realizar curvas de calibración graficando Concentración del equipo portátil x Concentración del equipo convencional y así ajustar los valores medidos.  
Román Véliz Aldo Francisco, Universidad Autónoma de Occidente
Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán

EVALUACIÓN TEMPORAL DE LOS CAMBIOS DE TEMPERATURA EN LA CUENCA DEL RÍO CULIACÁN


EVALUACIÓN TEMPORAL DE LOS CAMBIOS DE TEMPERATURA EN LA CUENCA DEL RÍO CULIACÁN

Román Véliz Aldo Francisco, Universidad Autónoma de Occidente. Asesor: Dr. Dra. Yaneth Alejandra Bustos Terrones, Instituto Tecnológico de Culiacán



PLANTEAMIENTO DEL PROBLEMA

A través del paso del tiempo, el manejo integral de cuencas ha sido crucial en la conservación de los recursos naturales, principalmente en cuerpos de agua, uso de suelo y vegetación, así como en el ordenamiento del territorio. Por ello, al realizar estudios que describan el impacto natural o antropogénico que se genera en los recursos naturales se contribuye en la difusión científica del conocimiento para informar, describir o identificar fuentes puntuales o difusas que afecten o alteren recursos naturales en determinadas regiones. La difusión científica del conocimiento permite ayudar a los entes involucrados en la toma de decisiones a mejorar el manejo ya que de esto depende el adecuado uso a los principales cuerpos de agua que suministran. Aspectos como la calidad del agua, datos hidroclimatologicos, cambios de uso de suelo entre otros, son factores que se ven involucrados en el cambio climático al estar expuestos a fenómenos naturales y cambios significativos ocasionados por el hombre. Debido al crecimiento demográfico, la industrialización y la explotación excesiva de los recursos, la contaminacion de cuencas juega un rol importante en importantes cuerpos de agua. Diversos parámetros de calidad del agua son afectados a causa del aumento de concentraciones de contaminantes que exceden los límites máximos permisibles de las normas oficiales de calidad del agua, por lo que el monitoreo y vigilancia de estos es muy importante para la evaluación de la calidad del agua destinada para diversos usos. La temperatura ambiente es un parámetro muy importante que influye en varios ecosistemas. Por ello, el monitoreo de las variaciones de temperatura ayuda a entender relaciones paramétricas o no paramétricas con diversas variables de calidad del agua o incluso puede mostrar una tendencia de la variación en el tiempo y su relación o fuerza de asociacion. El presente estudio pretende realizar una evaluación temporal y espacial de la temperatura como isla de calor en la cuenca del río Culiacán. A través de la implementación de herramientas estadísticas paramétricas y no paramétricas, se pretende observar el comportamiento y tendencia en los años 1990, 2000, 2014 y 2019 utilizando imágenes de satélite LANDSAT y procesamiento digital de imágenes con software IDRISI (versión selva) para generar modelos que muestre la variación de la temperatura en el tiempo en diversos sitios de la cuenca.



METODOLOGÍA

Para llevar a cabo el trabajo de investigación, es necesario obtener las bandas 10 y 11 de las imágenes de satélite LANDSAT a través del portal web que ofrece la NASA con el web map server global visualization viewer glovis (https://glovis.usgs.gov/app) de la USGS de estados unidos para los años analizados. Posteriormente se realizará el procesamiento y acomodo de las imágenes obtenidas con las respectivas bandas y metadatos en software Quantum GIS (version 2.18.16) para realizar el mosaico y corte de la capa de mascará de la cuenca del río Culiacán. Una vez obtenidas las imágenes con los recortes correspondientes se trabajará con el software IDRISI (versión selva), una vez con los datos a la mano se utilizará la siguiente ecuación para obtener la Radiancia en el Techo de la Atmosfera (TOA); Lλ = ML * Qcal + AL Donde Lλ es el valor de radiancia espectral en el techo de la atmosfera (TOA) medida en valores de (Watts /m2 * srad * µm), ML es el factor multiplicativo de escalado especifico obtenido del metadato (RADIANCE_MULT_BAND_X), donde X es el número de la banda, AL es el factor aditivo de escalado especifico obtenido del metadato (RADIANCE_ADD_BAND_X), y Qcal es el producto estándar (La Imagen satelital). Posteriormente se van a elaborar dos imágenes de temperatura superficial (TS), una que representa la banda 10 y otra que representa la banda 11 en la cuenca del río Culiacán. La ecuación que se utilizará para calcular la TS es a través de la conversión de radiancia espectral a temperatura del brillo fue la siguiente: TS = K2 / ln ((K1/ Lλ) +1)-273 Donde TS es la temperatura de brillo aparente en grados kelvin (K) Lλ corresponde a la reflectancia en el techo de la atmosfera TOA (Watts/( m2 * srad* μm)) K1 es la constante de conversión específica para cada banda, dicha constante térmica se suministra en el metadato, y  K2 es la constante de conversión específica para cada banda, dicha constante térmica se suministra en el metadato y el -273 es para que nos de la temperatura en grados Celsius pues el software los arroja en Kelvin. Con el procesamiento de software IDRISI se obtendrán los archivos .txt y los modelos gráficos que explican la variación de la temperatura a lo largo de la cuenca. Finalmente se aplicarán herramientas estadísticas paramétricas y no paramétricas para observar el comportamiento de los datos obtenidos y poder brindar una descripción de la variación de la temperatura en el tiempo en el área de estudio.


CONCLUSIONES

Este trabajo de verano científico contribuye en un proyecto de doctorado titulado Evaluación de la calidad del agua de un embalse tropical, proporcionando información importante para relacionar la variación de la temperatura a lo largo del tiempo con trabajos realizados en la variación espacial y estacional de parámetros de calidad del agua realizados en la cuenca del río Culiacán.
Román Villalobos Juan Manuel, Universidad Autónoma de Guerrero
Asesor: Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México

SUSCEPTIBILIDAD MAGNéTICA EN HOJAS DE FICUS BENJAMINA DE LA CDMX.


SUSCEPTIBILIDAD MAGNéTICA EN HOJAS DE FICUS BENJAMINA DE LA CDMX.

Román Villalobos Juan Manuel, Universidad Autónoma de Guerrero. Asesor: Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la Ciudad de México presenta problemas de contaminación principalmente provocada por gases emitidos de actividades antrópicas, uso de combustibles fósiles, desgastes de materiales  inorgánicos por erosión, intemperismo, reacciones químicas, etc. Las emisiones contaminantes contienen partículas con componentes orgánicos e inorgánicos que son depositados o concentrados en diferentes áreas, las cuales causan daños a la salud y al medio ambiente. La identificación de las áreas con acumulación de contaminantes en las zonas urbanas resultan prioritarias para mejorar la calidad de vida de los habitantes e implementar acciones de mitigación, por tal motivo el objetivo de este estudio fue determinar las zonas de acumulación de material contaminante por medio de parámetros magnéticos que tienen una relación con la concentración de metales pesados potencialmente tóxicos.  



METODOLOGÍA

Se llevó a cabo un muestreo de hojas del árbol de la especie Ficus benjamina en la  Ciudad de México, cubriendo las alcaldías de: Azcapotzalco, Benito Juárez, Coyoacán, Cuauhtémoc, Gustavo A. Madero, Iztacalco, Iztapalapa, Magdaleno Contreras, Miguel Hidalgo, Tláhuac, Tlalpan, Venustiano Carranza, Xochimilco y Álvaro Obregón. El muestreo consistió en tomar 10 hojas del árbol de  Ficus benjamina debido a tres razones, la primera se debe a la distribución y su uso ornamental en la Ciudad de México, la segunda parte debido a que en materia orgánica como la de los arboles los valores de parámetros magnético son de muy baja intensidad, y la tercera es la capacidad que tienen sus hojas de adsorber y fijar partículas suspendidas debido a la secreción de látex. La selección de las hojas en campo fue de acuerdo a: hojas que se encuentran a una altura entre 1.5 m a 2 m (esto debido a que es a una altura en la que se encuentra la interacción con una persona promedio), una hoja madura que tiene un mayor tamaño (5 cm2 de área) y de mayor exposición al medio tomándose alrededor de la circunferencia del árbol. Todas las muestras fueron geo referenciadas en campo por un GPS en un sistema de coordenadas de referencia UTM WGS84. Se hizo la preparación de las muestras en el laboratorio: las muestras se deshidrataron en un horno eléctrico a 60 °C por 48 horas, después se trituro la hoja seca en un mortero de Ágata, posteriormente se colocaron los trozos de hoja en cubos de acrílico de un volumen de 8 cm3 que son ideales para la obtención de mediciones magnéticas (esto llevando el control de numeración de la toma de muestra) para su procesamiento en los diferentes equipos de medición de propiedades magnéticas. Se midió el valor de susceptibilidad magnética en 216 muestras con un equipo Bartington MS2B con un sensor MS3, las mediciones se hicieron a baja frecuencia (4.7 kHz) y un tiempo de integración de 10 segundos en el sistema internacional (SI). Los datos capturados fueron procesados con diferentes software: EXCEL, statgraphics y Arcgis, se hizo un  análisis geoespacial para localizar las zonas con mayor concentración de materiales magnéticos. También se hizo un análisis de varianza para identificar que alcaldías contienen las concentraciones más altas de minerales magnéticos. Para asignar valores de referencia se llevó a cabo una clasificación por tipos de suelo; espacio abierto, habitacional, habitacional-comercial, industrial y mixto. De donde se definió el valor de referencia a partir de los valores de espacios abiertos ya que en estos los valores por concentraciones de contaminantes magnéticos son muy pequeños. Esto para realizar una clasificación de los valores entre bajos, medios y altos.


CONCLUSIONES

El valor de susceptibilidad magnética más alto de las hojas de la CDMx  se registró en las alcaldías: Iztapalapa, Tláhuac, Benito Juárez, Azcapotzalco, Miguel Hidalgo y Venustiano Carranza que indican altas concentraciones de material magnético en esta etapa preliminar del proyecto de investigación se logró la identificación de las áreas prioritarias de investigación, las cuales se continuaran con estudios geoquímicos. Por medio de la clasificación del uso de suelos se logró establecer el valor de referencia: 3.3 µm3 kg-1 para estudios futuros de susceptibilidad magnética en hojas de Ficus benjamina.
Romero Gaytan Jorge Antonio, Universidad Autónoma del Estado de México
Asesor: Dr. Gustavo Lòpez Velàzquez, Universidad de Guadalajara

PROGRAMACIóN DE UN SISTEMA DE 2,3 Y 4 QUBITS


PROGRAMACIóN DE UN SISTEMA DE 2,3 Y 4 QUBITS

Romero Gaytan Jorge Antonio, Universidad Autónoma del Estado de México. Sánchez Velázquez Aldo Daniel, Universidad Autónoma del Estado de México. Velázquez López Marco Antonio, Universidad Autónoma del Estado de México. Asesor: Dr. Gustavo Lòpez Velàzquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cómputo cuántico es un área de investigación donde se analiza y trabaja con la parte computacional que involucra las compuertas lógicas cuánticas y así poder expresar de forma clara los principios fiscos que ocurren en ella. Una característica notoria de la computación cuántica es que se apoya en la física moderna para analizar la interacción entre moléculas y así poder generar un procesador lógico. En la computación clásica solo se puede representar 0 o1 mientras que en la computación cuántica se pueden trabajar de forma simultánea. Es en este momento donde surge la unidad lógica del cómputo cuántico llamada qubit y con esto se llega a la posibilidad del paralelismo cuántico masivo, pero para conseguirlo de forma adecuada se requiere un medio físico o entorno adecuado para la computadora cuántica. Se descubrió que el diamante puede servir para la elaboración de nuevas tecnologías en la computación cuántica. El sistema propuesto se basa en una estructura de una red cristalina de diamante que contiene una cadena unidimensional de isótopos 13C (carbón 13). Se puede sugerir parámetros externos (como la temperatura y el ruido) para poder obtener resultados confiables del rendimiento de este sistema físico como una computadora cuántica; sin embargo, estudiaremos el sistema como un sistema completamente aislado. Este es una generalización para N isótopos 13C en la estructura cristalina del diamante. Y para poder observar el comportamiento de dicho sistema se requiere realizar una simulación de compuertas cuánticas de 2 qubits, 3 qubits y 4 qubits.



METODOLOGÍA

El sistema se generaliza con N isotopos carbono 13, Esto se puede llevar a cabo mediante un sistema de procesos, sometido a un campo magnético el cual varia por el componente z y θ = ωt + ϕ. ω es la frecuencia del campo magnético y ϕ es la fase, campo magnético. B(z,t) = (b cos(θ),-b sin(θ),B0(z)) para considerar cada interacción. U(t)= - ∑nn=1 Mn •B(Zn) Que viene siendo igual a; U(t)= - ∑Nn=1 Ω/2([eiθ S+i i+e-iθ S-i] + WnSnz) Donde la energía potencial es expresada de la siguiente forma, donde J y J’ son las constantes de acoplamiento. V = - J/h ∑N-1i=1 (Siz Si+1z) - J'/h ∑N-2j=1 (Siz Si+2z)                            Fórmula para expresar el sistema hamiltoniano. w(t)= - ∑Nn=1 Ω/2(eiθ Sn+ i+eiθ  Sn-) Es muy necesario resolver el eige, y para esto encontraremos primero la energía asociada en los estados. Siz | αN αN-1 ... α2 α1 ⟩ = h/2(-1)αi | αNαN-1 ...α2α1⟩  Una vez que se conoce el estado de cada energía es necesario realizar un cambio de nomenclatura. | 00 ... 000i → |1i          •          •          • | 11 ... 111 i → |2n Donde se usó la ecuación de Schodinguer, con la finalidad de dar forma a todos los coeficientes y crear un sistema de ecuaciones complejos. iℏḊk(t)= - ∑Nn=1 (Dn (t) ⟨ k |W(t) |n ⟩ eitwk,n  Los pasos anteriormente explicados son necesarios de seguir para poder elaborar los sistemas de 2 qubits, 3 qubits y 4 qubits. Con el sistema de 2 qubits se busca simular la compuerta Control Not y el Entrelazamiento cuántico, mientras que el sistema de 3 qubits se usara para la compuerta Control Control Not y la Teleportación Cuántica. Con el sistema de 4 qubits se demostrará la compuerta Control Control Control Not y Teleportacion Cuántica de 4 qubits.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos como: Fundamentos de la computación cuántica. Diferencias entre mecánica clásica y mecánica cuántica. Compuertas cuánticas: control not(CNOT), intercambio (SWAP), half-adder(HA), control control not(CCN), full-adder(FA). Posteriormente se analizó el sistema físico de la computadora cuántica de diamante de espín1/2, se realizó 3 programas de cómputo que simulan una computadora cuántica de 2, 3 y 4 cubits respectivamente. Con el simulador de 2 cubits se representó la compuerta cuántica control not(CN) y el entrelazamiento cuántico(estados de Bell), con el sistema de 3 cubits se simulo la compuerta cuántica control control not(CCN) y el fenómeno de teleportación cuántica con 3 cubits, para el sistema cuántico de 4 cubits se representó la compuerta cuántica control control control not(CCCN), sin embargo la teleportación cuántica de 4 cubits se encuentra en desarrollo.
Rosas Solórzano Lisseth, Universidad de Guadalajara
Asesor: Dr. Ariel Flores Rosas, Universidad Autónoma de Chiapas

LáSER DE FIBRA óPTICA


LáSER DE FIBRA óPTICA

Rosas Solórzano Lisseth, Universidad de Guadalajara. Asesor: Dr. Ariel Flores Rosas, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La palabra láser es un acrónimo que significa Light Amplified by Stimulated Emission of Radiation (Luz amplificada por emisión estimulada de radiación). Un láser es basicamente una fuente de luz. Lo que diferencia a un láser de otras fuentes de luz, como las bombillas, es el mecanismo físico por el que se produce la emisión de luz, que se basa en la emisión estimulada. Un láser de fibra óptica es un láser en el que el medio de ganancia activo es una fibra óptica que contiene elementos de tierras raras, como el iterbio (Yb). En la estancia de investigación se trabajó con un láser de fibra óptica cavidad en anillo en modo Q-Stich pasivo, el cual puede tener múltiples aplicaciones



METODOLOGÍA

Se trabajó en el arreglo experimental del láser de fibra óptica cavidad en anillo y especialmente en el filtro que servirá como absorvedor saturable, esto con el fin de lograr una señal estable, con la mayor potencia posible en nuestro arreglo.


CONCLUSIONES

Una vez que se hicieron pruebas en el arreglo experimental y se hizo la caracterización del filtro MMI (multimode interference, MMI) se evaluaron los resultados obtenidos, se comprobó que los filtros aplicados son de gran ayuda al disminuir el ruido de la señal, logrando una mayor estabilidad, en comparación a los primero resultados.  Además, al poder interactuar con el equipo y material, comprendimos las aplicaciones que se le puede dar al láser según las características de sus componentes
Rubio Arellano Ana Beatriz, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

MODELACIóN COMPUTACIONAL DE LA DINáMICA DE AGUAS SUBTERRáNEAS


MODELACIóN COMPUTACIONAL DE LA DINáMICA DE AGUAS SUBTERRáNEAS

Rubio Arellano Ana Beatriz, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Existen diversos softwares comerciales que se encargan de modelar la dinámica de flujo de las aguas subterráneas, los más conocidos son MODFLOW basado en el Método de Diferencias Finitas y FEFLOW basado en el Método de Elementos Finitos, sin embargo, es necesario contar con la licencia para poder hacer el modelamiento de acuíferos; además estos softwares cuentan únicamente con una resolución numérica de segundo orden de precisión. Por ello, se diseñó un modelo matemático y computacional que mejora la resolución de cálculo que presentan los softwares comerciales a un cuarto orden pero a la vez se escribió en Python que es un lenguaje libre de programación que no requiere licencia para hacer las ejecuciones.



METODOLOGÍA

En la primera fase del proyecto, se diseñó el modelo matemático y computacional que permite  analizar la dinámica de agua subterránea en un caso específico, un acuífero homogéneo anisotrópico a cuarto orden de precisión, posteriormente se introdujeron a dicho modelo los parámetros hidrogeológicos del acuífero Ayamonte-Huelva y se obtuvieron velocidades y las direcciones preferentes de Flujo. La segunda fase consistió en interpretar los resultados obtenidos de la modelación con el fin de dar a conocer las valores de las velocidades del flujo en el acuífero, así como también se interpretó el mapa obtenido de las direcciones de flujo esto con el fin de conocer sus trayectorias a lo largo del acuífero. Finalmente, la fase tres del proyecto consistió en escribir un artículo científico con los resultados obtenidos en esta investigación, en el se ven reflejados todos los calculo matemáticos hechos para la construcción del modelo computacional, además se explica la estructura del código computacional empleado para modelar la dinámica de aguas subterráneas del acuífero Ayamonte-Huelva.  


CONCLUSIONES

El diseño del modelo matemático y computacional fue apto para modelar el acuífero Ayamonte-Huelva para el caso homogéneo isotrópico y homogéneo anisotrópico, tanto a segundo como a cuarto orden de precisión. Al hacer la simulación con estos dos casos se determinó que en trabajos futuros únicamente se utilizará el caso de cuarto orden de precisión debido a que tiene mayor velocidad de convergencia, por tanto reduce el tiempo computacional. Estamos terminando la tercera fase de la metodología, es decir, se está terminando de escribir el artículo científico para publicación de resultados, el cual esperamos publicar en le revista Mathematical Problems in Engineering.
Rubio Gracia Diana Laura, Universidad de Sonora
Asesor: Dr. Daniel Cruz González, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE OXIDO DE TITANIO ANALíTICO DOPADO CON NANOPARTíCULAS DE AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA SU POSTERIOR USO EN LA DEGRADACIóN DE COLORANTES EN AGUAS PROVENIENTES DE INDUSTRIAS TEXTILES.


SíNTESIS DE OXIDO DE TITANIO ANALíTICO DOPADO CON NANOPARTíCULAS DE AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA SU POSTERIOR USO EN LA DEGRADACIóN DE COLORANTES EN AGUAS PROVENIENTES DE INDUSTRIAS TEXTILES.

Cota Gastelum Hannia Lorena, Universidad de Sonora. Rubio Gracia Diana Laura, Universidad de Sonora. Asesor: Dr. Daniel Cruz González, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los efluentes líquidos de la industria textil se caracterizan por una mezcla compleja de contaminantes químicos, compuestos principalmente por colorantes, dichos efluentes presentan un pH muy variable, así como altos valores de temperatura y demanda química de oxígeno. Debido a que los colorantes presentan una compleja estructura química, los métodos actuales empleados para el tratamiento de efluentes resultan ineficientes para su degradación.  El TiO2 es un semiconductor que ha cobrado interés en su aplicación como fotocatalizador en la degradación de colorantes gracias a su foto-estabilidad y bajo costo, este tipo de tecnología se basa en la absorción de energía radiante (visible o UV) por el semiconductor. El TiO2 absorbe solo radiación UV de λ ≤387 nm. Una forma de extender su rango de foto-absorción es su dopaje con metales nobles. Durante la estancia de investigación se propone la degradación de colorantes mediante fotocatálisis heterogénea utilizando TiO2 dopado con nanopartículas de Ag.



METODOLOGÍA

a. Síntesis del fotocatalizador TiO2-Ag por el método de combustión. Utilizando TiO2 grado analítico se prepara un fotocatalizador. Utilizando una balanza analítica se pesa 0.2 g de TiO2, 0.0085 g de Nitrato de Plata (AgNO3) y 0.99 g de Urea (CH4N2O). Los reactivos fueron mezclados en un vaso de precipitados de 50 mL agregando 5 mL de agua tridestilada para homogeneizar, posteriormente la solución se calentó en una parrilla eléctrica a una temperatura de 60°C hasta obtener una pasta. El producto resultante se deposita en un crisol y se somete a una temperatura de 800°C durante 5 minutos dentro de una mufla. El procedimiento se repitió hasta obtener 5 g de fotocatalizador.  b.   Degradación por fotocatálisis de colorantes. Se prepararon soluciones de los colorantes rojo de metilo (RM), azul de metileno (AM) y naranja de metilo (NM) bajo las concentraciones de 10, 20 y 30 ppm y pH de 3, 7 y 11 cada una de ellas. Para realizar el ajuste de pH se utilizó HCl, en el caso de pH 3, e KOH para el pH 11. Cada solución tuvo un volumen de 100 mL. A una muestra de 20 mL de cada solución se le adiciona 0.1 g de fotocatalizador TiO2-Ag (sintetizado con TiO2 grado analítico), posteriormente se colocaron las muestras en un fotorreactor, el cual consistía en la irradiación de luz UV-Vis. Cada muestra se mantuvo en irradiación durante un tiempo de 4 horas, tomando 4 alícuotas con intervalos de una hora, posteriormente cada alícuota fue analizada en un espectrofotómetro UV-Vis.


CONCLUSIONES

a.       Degradación de AM utilizando TiO2 -Ag sintetizado con TiO2 grado analítico. Se observó un mayor porcentaje de degradación cuando las concentraciones son bajas utilizando un pH ácido y cuando las concentraciones son altas usando un pH alcalino.  A concentraciones de 10 ppm se presentó un porcentaje de degradación de 48.08% en un pH de 3 y 50.95% en un pH de 7. Pero por otro lado, al usar un pH de 11 se registra un porcentaje de degradación de 7.73%, el cual incluye fluctuaciones registradas a lo largo de la degradación. A una concentración de 20 ppm se tienen porcentajes de degradación de 51.5% y 47.54%, en pH de 7 y 11 respectivamente. En el caso del pH 3, se obtuvo una severa fluctuación de valores de absorbancia a medida que el tiempo transcurría y las soluciones seguían en el fotorreactor, finalmente arrojando un 10.01% de degradación. Finalmente, a la concentración de 30 ppm, los mejores porcentajes de degradación se obtuvieron en pH altos, constatándose lo dicho en un principio, arrojando 31.41% y 41.01% en pH de 7 y 11, respectivamente. En el caso de un pH de 3 en concentración de 30 ppm se lanza un 10.01% sin fluctuación. El común denominador de los espectros arrojados por los barridos, indica que en la primera hora del proceso se obtiene la mayor degradación registrada, siendo de alrededor 48%, para después degradar muy poco.   b.    Degradación de RM utilizando TiO2 -Ag sintetizado con TiO2  grado analítico. Al analizar los resultados obtenidos de la degradación, se llega a la conclusión de que ésta únicamente resulta satisfactoria en pH ácido. El comportamiento observado en las soluciones con pH 3 resulta ser el esperado, disminuyendo la absorbancia de éstas a medida que pasaban las horas dentro del fotorreactor, lo que indicaba que las concentraciones eran cada vez menores. No fue posible observar esto en las soluciones con pH 7 y 11, en éstas la absorbancia se mantenía constante o incluso aumentaba. En las soluciones con pH 3 se obtuvieron los mayores porcentajes de degradación durante la primer hora de degradación. En la solución de 10 ppm fue de 64.33 %, llegando hasta un 79.04 % al finalizar las 4 horas de degradación. En la solución de 20 ppm fue de 57.99 %, obteniendo un porcentaje de degradación total de 68.46 %. En la de 30 ppm fue de 50.86 %, alcanzando un porcentaje de degradación total de 64.78 % al finalizar las 4 horas. En el caso de las soluciones de RM con pH 3 el fotocatalizador continúa degradando hasta la cuarta hora de la reacción fotocatalítica, haciéndolo cada vez en menor medida. Sin embargo, debido a esto no es posible establecer si existe un límite de tiempo de degradación. c.       Degradación de NM utilizando TiO2 -Ag sintetizado con TiO2 grado analítico. Al finalizar las 4 horas de degradación a la solución de 10 ppm con un pH 3 se obtuvo una concentración de 8.08ppm. En este caso, el fotocatalizador degrado 20% del total. En la degradación de 20 ppm con un pH 3 se obtuvo como concentración final de 17.5 ppm. El porcentaje total degradado de la solución  fue de 12.5%. En la degradación de 30 ppm con un pH 3 se obtuvo una concentración final de 26.51 ppm. El porcentaje total degradado fue de 11.64%. La degradación para este colorante es eficiente a pH ácido, sin embargo la degradación sólo ocurre en las primeras dos horas ya que posteriormente la concentración aumenta. A pH alcalinos este procedimiento resulta inutilizable debido a las incongruencias registradas.  
Ruiz Jiménez Kevin, Universidad Autónoma de Guerrero
Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima

USO DE MODELOS MATEMáTICOS PARA DESCRIBIR LA INTERACCIóN DE DOS MICROORGANISMOS EN UN PROCESO DE FERMENTACIóN


USO DE MODELOS MATEMáTICOS PARA DESCRIBIR LA INTERACCIóN DE DOS MICROORGANISMOS EN UN PROCESO DE FERMENTACIóN

Ruiz Jiménez Kevin, Universidad Autónoma de Guerrero. Asesor: Dr. Roberto Alonso Saenz Casas, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La fermentación es un proceso catabólico de oxidación incompleta cuyo producto final es un compuesto orgánico. Según los productos finales, existen diversos tipos de fermentación. El beneficio industrial primario de la fermentación es la conversión del mosto en vino, cebada en cerveza y carbohidratos en dióxido de carbono para hacer pan. Otro ejemplo de una bebida fermentada es la tuba, la cual es una bebida tradicional de la Costa del Pacífico, que se fabrica a partir de la savia de palma de coco. La bebida es obtenida de una fermentación espontánea, la cual promueve la proliferación de levaduras y bacterias que convierten el sustrato (rico en azúcares, destacando la sacarosa en gran porcentaje al inicio de la fermentación) en una bebida alcohólica que contiene componentes nutricionales que incluyen aminoácidos, proteínas, vitaminas y azúcares (1). Actualmente, existen una variedad de modelos matemáticos que describen la fermentación basándose en la presencia de un único organismo (1,2). Sin embargo, hay fermentaciones como en la tuba donde intervienen dos o más microorganismos. El objetivo de este trabajo, es proponer distintos modelos matemáticos que consideren la existencia de dos microorganismos que generan uno o más productos. Estos modelos que se proponen tienen como objetivo una mejor comprensión acerca de las posibles interacciones biológicas entre microorganismos presentes en un proceso de fermentación.



METODOLOGÍA

En esta investigación se utilizan modelos matemáticos de ecuaciones diferenciales ordinarias para describir el proceso de fermentación. Comenzamos con un modelo ya establecido, el cual llamaremos el modelo principal, en donde se considera solo un microorganismo, un producto y un sustrato, y usa parámetros obtenidos en resultados previos de otras investigaciones (2). Este modelo considera como variables la cantidad de biomasa del microorganismo, la producción de etanol y la cantidad de glucosa, en donde el microorganismo consume a cierta tasa máxima la glucosa para su reproducción y la producción de etanol, y la glucosa se termina debido al proceso de producción de etanol y consumo del microorganismo. Posteriormente, a partir del modelo principal, se comienza a trabajar con modelos propuestos, en los cuales incluimos la interacción de dos microorganismos distintos, para distintos casos pero siempre suponiendo el consumo del mismo sustrato, el cual será glucosa. El primer modelo propuesto, consiste solamente de la presencia de dos microorganismos que consumen glucosa, uno de ellos produciendo etanol y el otro ácido láctico. En una similitud con el modelo principal, la biomasa del segundo microorganismo tendrá un crecimiento a una cierta tasa, produciendo ácido láctico y la glucosa además será consumida por el segundo microorganismo. En el segundo modelo, se considera la presencia de la sacarosa (un azúcar que está presente en la savia de la palma de coco), la cual no puede ser consumida directamente por ninguno de los microorganismos. La sacarosa es una molécula que está compuesta por fructosa y glucosa, y puede ser hidrolizada (dividida en fructosa y glucosa) por ciertos microorganismos. En este modelo, suponemos que solamente uno de los microorganismos estará efectuando el proceso de hidrólisis para obtener glucosa, mientras que el otro consume la glucosa hidrolizada. El tercer modelo propuesto es una extensión del segundo modelo, en donde suponemos que el producto del segundo microorganismo es ácido láctico, el cual cambia las condiciones en el medio e inhiben el crecimiento de la biomasa del primer microorganismo. Los parámetros que se modificaron, además de las concentraciones iniciales, para analizar el comportamiento de los modelos son : Tasas máximas de crecimiento de biomasas. Tasas máximas para la produción de etanol y ácido láctico. Tasa máxima de hidrólisis de sacarosa. Tasas de consumo de la glucosa. Constantes de inhibición por ácido láctico para crecimiento de biomasa.   Referencias:  Modelación matemática del proceso de fermentación de la savia de la palma de coco (2018).  Mathematical description of ethanol fermentation by immobilised Saccharomyces cerevisiae (1998)


CONCLUSIONES

En el primer modelo propuesto, a comparación del modelo principal, se obtuvo una menor producción del primer microorganismo debido a la presencia del otro que de la misma forma consume glucosa, disminuyendo así el tiempo en el que ésta se termina en su totalidad y así mismo, reduciendo la cantidad de etanol producido. En el segundo modelo, el proceso de hidrólisis ocasiona una ampliación de tiempo de la existencia de glucosa debido a que el microorganismo que realiza la hidrólisis de la sacarosa no solamente consume la glucosa de la concentración inicial, por consecuencia, se tiene un ligero incremento respecto a las biomasas y productos de ambos microorganismos. En el tercer modelo, debido a la inhibición que existe, el crecimiento de la biomasa del primer microorganismo es afectada ocasionando una reducción, sin embargo, el producto se sigue comportando de manera similar que en el segundo modelo. En los distintos modelos estudiados, se obtuvieron varios resultados acerca de cómo la variación de parámetros afecta el comportamiento de distintos componentes del proceso de fermentación, como la velocidad de crecimiento de la biomasa, la producción de etanol o ácido láctico y la velocidad en la que se termina la glucosa.
Ruiz Ortiz Miguel Angel, Universidad de Guanajuato
Asesor: Dr. Luis Carlos Padierna García, Universidad de Guanajuato

ESTRATEGIA DE INVERSIóN USANDO MáQUINAS DE SOPORTE VECTORIAL


ESTRATEGIA DE INVERSIóN USANDO MáQUINAS DE SOPORTE VECTORIAL

García Parra Pedro Antonio, Universidad de Sonora. Ruiz Ortiz Miguel Angel, Universidad de Guanajuato. Asesor: Dr. Luis Carlos Padierna García, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una estrategia de inversión es un conjunto de reglas, metodologías y procedimientos diseñados para que un inversionista seleccione y gestione una cartera de instrumentos de inversión. Se pueden tener estrategias de inversión a través del análisis de indicadores técnicos.  Un indicador técnico no es más que una herramienta de análisis bursátil que sirve para estudiar la evolución futura de los precios de un activo financiero. Los indicadores están dados por funciones matemáticas del precio del activo y del volumen (cantidad de transacciones del activo) a través de tiempo. A un activo financiero se le puede asociar una serie de tiempo dada por la fluctuación de su precio. El problema de plantear una estrategia de inversión se reduce a la predicción de los precios futuros a partir de las series de tiempo. Esto es una tarea desafiante ya que los mercados financieros se caracterizan por seguir dinámicas complejas, no lineales, caóticas, ruidosas y cambiantes, haciéndolas volátiles, no estacionarias, multifractales, de memoria larga, inestables y de alto riesgo. Debido a su naturaleza compleja, es deseable que las estrategias de inversión sean analizadas mediante métodos computacionales que permitan minimizar el error humano y el riesgo, y maximizar nuestros beneficios. Existen diversos modelos computacionales que intentan predecir el comportamiento a futuro de las series de tiempo financieras, tales como redes neuronales artificiales, sistemas expertos y máquinas de soporte vectorial. Sin embargo, no se ha encontrado que alguna de estas técnicas resuelva el problema de predicción para cualquier serie de tiempo financiera. Por lo cual se requiere explorar diversas técnicas para cada nuevo conjunto de datos. En la presente investigación se aborda un problema para la predicción de los precios futuros de las acciones de Amazon. Nuestra hipótesis es que las máquinas de soporte vectorial permitirán predecir el comportamiento de los precios futuros sobre esta serie de tiempo.  



METODOLOGÍA

Modelaremos el problema de la predicción de los precios como un problema de clasificación. Vamos a clasificar las operaciones financieras a realizar en cada cierto periodo de tiempo (un día, una semana, etc.). De este modo, una operación tendrá la etiqueta 1 si deberíamos abrir posiciones de compra (ir en largo, en la jerga de las inversiones), y -1 si deberíamos abrir posiciones de venta (ir en corto). Si una operación se clasifica como 1, esperamos que el precio suba al terminar el periodo de tiempo, y se clasifica como -1 si esperamos lo contrario. El problema de clasificación se abordará con el algoritmo de Máquinas de Soporte Vectorial (SVM). Nótese que el algoritmo sólo nos estaría diciendo cuándo comprar y cuándo vender, pero no estarían diciendo cuándo cerrar las posiciones ni la ganancia esperada. Esos podrían ser considerados como problemas extras a resolver en futuras investigaciones. Los datos a utilizar para los algoritmos se extrajeron de distintas series de tiempo con la API en Python de Alpha Vantage, el cual es un proveedor gratuito de datos históricos financieros. Las series de tiempo corresponden a indicadores técnicos asociados a los precios de Amazon. Cada indicador técnico Ij, j=1, .., n, es una serie de tiempo. Hay dos enfoques que se le podría dar a la caracterización de las operaciones que vamos a clasificar. En ambos, se utilizan datos diarios y las ideas que utilizan son las siguientes: Se toman n=12 indicadores técnicos y la operación del día se caracteriza con el vector (I1[hoy], I2[hoy], ..., I12[hoy]). En este artículo menciona que con ciertos parámetros de la SVM, se acertó en la clasificación el 57% de las veces en los datos de prueba. Es decir, que si ganamos el 1% de nuestra inversión por cada acierto, y perdemos el 1% en cada fallo, en 100 operaciones estaríamos ganando aproximadamente 57 operaciones y perdiendo 43, teniendo así una ganancia total del 57-43=14% de la inversión inicial. Se toman n=5 indicadores técnicos, pero resulta interesante cómo platean aquí la caracterización del día de hoy. Lo caracterizan como el vector (I1[antier], I1[ayer], I1[hoy], ..., I5[antier], I5[ayer], I5[hoy]). Es interesante porque en el análisis técnico no nos interesa el valor actual de un indicador, si no más bien el comportamiento que tuvo en una vecindad de su valor. Tal vez los autores del artículo querían que de alguna manera la SVM captara mejores decisiones de inversión si obtenía el comportamiento de los indicadores Ij en una vecindad de Ij[hoy] (es decir, con los datos Ij[antier], Ij[ayer], Ij[hoy]). En el trabajo se utilizarán n=10 indicadores, usando la idea de las vecindades en el segundo punto.


CONCLUSIONES

Debido a la complejidad de los datos, el porcentaje de aciertos en la predicción del precio es bajo. Como resultado de una extensa busqueda en el estado del arte, este porcentaje se encuentra entre el 50% y el 60% de precisión. Incluso con algoritmos tan avanzados como lo es el Deep Learning, se obtienen estos resultados. A través de heurísticas, se hizo una búsqueda de un hiper-parámetro adecuado de la SVM usando las funciones kernel RBF, Lineal y Lineal2. Para la búsqueda del hiper-parámetro de la SVM, se utilizó la función GridSearchCV de la librería SciKit-Learn. Esta función encuentra el mejor hiper-parámetro del clasificador que optimiza el porcentaje de aciertos usando validación cruzada. Esto se logra a través de una búsqueda exhaustiva en una cuadrícula de hiper-parámetros dada. Usamos 5 pliegues para la validación cruzada en nuestra heurística. Los mejores resultados encontrados en nuestra serie de experimentos alcanzaron un porcentaje de aciertos del 59% utilizando el kernel RBF con los hiper-parámetros de Valor de Regularización C de 20.9606 y gamma de 0.0001; y Valor de Regularización C de 16.7090 para el Lineal.
Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))


SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))

García Bon Miguel Ángel, Universidad de Guadalajara. Pérez Salvador Cinthya Paola, Tecnológico de Estudios Superiores de Tianguistenco. Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México. Sánchez Duarte Soraida, Universidad Estatal de Sonora. Schmerbitz Valdés David, Universidad de Guadalajara. Talamantes Herrera Ana Bertha, Universidad de Guadalajara. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cromo es un elemento metálico inodoro e insípido que forma parte de la corteza terrestre. También se encuentra en grandes cantidades en el aire, el agua, la tierra y los alimentos. Los compuestos de cromo hexavalente son un grupo de sustancias químicas que tiene propiedades beneficiosas, como resistencia a la corrosión, durabilidad y dureza. Estos compuestos se han usado en amplia medida como anticorrosivos y para fabricación de pigmentos, acabado de metales y cromados, producción de acero inoxidable, curtido de cueros y conservantes para madera. También se han usado en procesos de teñido en la industria textil, tintas de impresión, lodos de perforación, fuegos artificiales y síntesis de sustancias químicas. Los desechos, a su vez, son vertidos en cuerpos de agua, muchas veces los mismos sin un tratamiento adecuado para su liberación. El cromo es un contaminante ambiental de fácil dispersión y de gran importancia debido a su toxicidad. El cromo hexavalente está clasificado en el grupo 1 de cancerígenos con múltiples mecanismos complejos por los cuales la enfermedad puede ser desarrollada en diferentes zonas del cuerpo. En este verano de investigación se plantea la implementación de los HDLs como absorbentes de este contaminante, experimentando con variaciones en la síntesis de estos; añadiendo estructuras diversas y/o modificando las proporciones utilizadas en su reacción.



METODOLOGÍA

Se comenzó inicialmente con la síntesis de los HDLs. El primer día se procedía a hacer los cálculos prudentes para el pesado de las muestras para obtener al final HDLs con una masa aproximada de 5 g, para esto se utilizaron  y  en una proporción molar que variaba de muestra en muestra pero siempre manteniéndose en el rango de 1:2 - 1:3, siendo el compuesto de zinc el que siempre existía en mayor proporción. Si se daba el caso en el que se requiriera adicionarle además una estructura distinta para evaluar después su repercusión en la adsorción, se procedía a pesar también una cantidad significativa del reactivo, añadiendo también las sustancias necesarias para su buena dispersión; por ejemplo, en el caso de las nanofibras de carbono, se requería funcionalizarlas primero o adicionarle   algún surfactante (SDS), además de unas horas en sonicación. Todo era mezclado en agitación, una vez el reactivo anterior se percibía completamente disuelto, se agregaba el siguiente. Esto en un volumen de agua destilada no mayor a 300 mL. Una vez se alcanzaba la homogeneidad se procedía a adicionarle , el mismo era gradualmente añadido con ayuda de una probeta, como si de una titulación se tratase. El pH de la mezcla era monitorizado con ayuda de un potenciómetro, se buscaba idealmente obtener un pH final de 9, conseguido esto se dejaba en agitación constante por un periodo aproximado de 24 h. Para el segundo día, el objetivo cambiaba a, mediante lavados en centrifugación (10,000 rpm, por 5 min), disminuir el pH de la muestra hasta neutralizarlo. A su vez, el número de lavados variaba de muestra en muestra, algunos requiriendo simplemente 3 y otros más de 6. La manera en la que se realizaban era mediante la adición de agua destilada a los tubos de centrifugación conteniendo el volumen de la muestra y el posterior desecho del sobrenadante para la repetición del proceso. Una vez el objetivo era conseguido, los HDLs limpios y húmedos eran depositados en capsulas de porcelana para someterlos a un proceso de secado en una estufa, esto también durante aproximadamente 24 h. En el tercer día de la síntesis se retiraba del secado y se procedía a moler en un fino polvo con ayuda de un mortero. Para finalmente guardar en bolsitas de plástico. Realizando este procedimiento, y haciendo más de una muestra por día, se lograron obtener más de 20, las mismas siendo casi todas distintas. Para los análisis de adsorción se utilizó la técnica de la espectrofotometría Uv-visible, previamente se habían dejado individualmente en tubos por dos días cada una de las muestras (50 mg), cada tubo tenía un volumen de 20 mL de una disolución aproximada de 300 ppm de . Esto en un estado constante de agitación. Se retiraron, y se dejaron reposar para que el HDL precipitara. Cuando esto sucedió, se siguió el método estandarizado para la colorimetría en el análisis del cromo. Se realizaron otros análisis tales como la difracción de rayos x, el XPS y el SEM para la caracterización de las muestras, revelando información muy interesante, como que el procedimiento fue el adecuado por la limpieza de las muestras. Se realizó la misma experimentación con  revelando una presunta adsorción, la misma no siendo concluyente por la necesidad de darle mantenimiento al equipo.


CONCLUSIONES

De las muestras sintetizadas, las que contenían nanofibras de carbono sin SDS fueron las que adsorbieron en mayor medida. Gracias al análisis del XPS se pudo confirmar que debido a alguna interacción con el aluminio en su composición la adsorción podría llevarse a cabo, entre otras cosas. En este verano de investigación el aprendizaje fue muy grande y variado, nos familiarizamos con todos esos métodos de análisis, su fundamento y el cómo funcionaban. Desarrollamos más destreza en el laboratorio y en el trabajo en equipo, sin mencionar todo el conocimiento teórico detrás de una quizás síntesis sencilla. Aprendimos algunas otras metodologías, como es el caso de la funcionalización de estructuras de carbono, la colorimetría del cromo, del Flúor además de cómo funciona la investigación de manera generalizada. El proyecto deja muchas cosas y datos con los cuales se podría trabajar, análisis que extras que podrían revelar información muy valiosa. Y una pregunta al aire, por la cual esta idea surgió. ¿Podrán adsorber PCBs?   https://www.sciencedirect.com/science/article/pii/S2468202019300294 https://www.sciencedirect.com/science/article/pii/B9780444594532000330 https://www.cancer.gov/espanol/cancer/causas-prevencion/riesgo/sustancias/cromo  
Salazar Acosta Jesus Rolando, Universidad de Sonora
Asesor: Dr. Lamberto Castro Arce, Universidad de Sonora

ECUACIONES DE MAXWELL, APLICACIONES Y CONSISTENCIA CON TEORíAS ACTUALES


ECUACIONES DE MAXWELL, APLICACIONES Y CONSISTENCIA CON TEORíAS ACTUALES

Salazar Acosta Jesus Rolando, Universidad de Sonora. Asesor: Dr. Lamberto Castro Arce, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En esta investigación se estudian las ecuaciones de Maxwell con el fin de poder explicarlas a cualquier persona tenga o no conocimiento relacionado a ellas. Después, se aprenden algunas maneras de resolver las ecuaciones de Maxwell, tal como la solución para las ondas electromagnéticas, para luego ser capaz de resolverlas en un sistema particular. Con todo esto, se buscan aplicaciones recientes de las ecuaciones de Maxwell de interés de personal, en las cuales se tendrá que profundizar. En caso de no estar desarrollados los modelos de las aplicaciones, se desarrollan. Por último, se investiga la consistencia entre la teoría electromagnética, que tiene como base a las ecuaciones de Maxwell, y las teorías físicas actuales.



METODOLOGÍA

Se hace la búsqueda de la información en internet, ya que es el medio más fácil para encontrar artículos científicos relacionados con los temas a investigar. También, se leen libros que expliquen las ecuaciones de Maxwell para sintetizar la información y poder explicarlas a cualquier persona. Para las aplicaciones, se halla la aplicación reciente de mayor interés y se resume la información encontrada. Después, si es posible, se intenta aportar con nuevos avances en ésta. Por último, para establecer la relación entre las teorías actuales y la consistencia entre ellas, se buscan las características que describan a cada teoría y, con base en ellas, se concluye si son o no consistentes.


CONCLUSIONES

Como resultado de esta investigación, se pretende condensar la información en un libro que trate todos los temas descritos. En dicho libro, las aplicaciones de interés deberán ser la parte central, ya que el fin de todo el trabajo es poder profundizar en aplicaciones. De momento, la aplicación de mayor interés se encuentra en el modelo de las Corrientes de Birkeland, el cual ha sido desarrollado en los últimos años por el Dr. Donald E. Scott. Se seguirá trabajando en la investigación hasta tener un resultado satisfactorio.
Salazar Hernandez Grecia Fabiola, Universidad de Sonora
Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara

ANÁLISIS ESTADÍSTICO DE DATOS DE TEMPERATURA


ANÁLISIS ESTADÍSTICO DE DATOS DE TEMPERATURA

Burruel Valenzuela Sheily Melissa, Universidad de Sonora. Salazar Hernandez Grecia Fabiola, Universidad de Sonora. Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La toma de datos atmosféricos desde una estación meteorológica puede tener datos anómalos como temperaturas extremas y ausencia de datos, esto ocurre debido a varios factores como el movimiento de instrumentos, descargas atmosféricas o falla de energía eléctrica.



METODOLOGÍA

Con los datos proporcionados cada 10 minutos por la estación meteorológica CUC, de las temperaturas máximas, mínimas y medias, del 5 de marzo del 2010 al 31 de diciembre del 2017, se realizó análisis, para detectar datos anómalos  o atípicos y huecos (el hueco más notable se observó en los primeros días de diciembre 2016). Se eliminó estos datos anómalos y se rellenó los datos ausentes mediante el método de los promedios. Luego se agruparon los datos cada hora, cada día y mensual. Finalmente se generó gráficas para analizar su consistencia y variabilidad temporal.


CONCLUSIONES

Al aplicar el método de promedios en las gráficas se puede observar que se ven más suavizadas y con un comportamiento más constante. En las gráficas se pudo ver un punto de inflexión hacia abajo; la temperatura promedio del año 2011 fue el más bajo de todos (puede que sea un evento extraordinario que debe ser investigado). Las estaciones meteorológicas no son perfectas y pueden presentar datos anómalos y huecos.
Salazar López Jeshua Emmanuel, Instituto Politécnico Nacional
Asesor: Dr. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara

MONITOREO DE LA CALIDAD AMBIENTAL RECREATIVA (CAR) DE LAS PLAYAS DE LA BAHíA DE BANDERAS (JALISCO Y NAYARIT) MéXICO.


MONITOREO DE LA CALIDAD AMBIENTAL RECREATIVA (CAR) DE LAS PLAYAS DE LA BAHíA DE BANDERAS (JALISCO Y NAYARIT) MéXICO.

Calva Cruz Adolfo Efren, Instituto Politécnico Nacional. Salazar López Jeshua Emmanuel, Instituto Politécnico Nacional. Asesor: Dr. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Mundialmente las playas son el destino más recurrente por los turistas, y en México la Bahía de Banderas, comprendida por los estados de Jalisco y Nayarit (20° latitud Norte, -105° longitud Este.) cuenta con las playas más concurridas de México por el turismo, por factores de ubicación geográfica, protección ante desastres naturales, historia y cultura. Lo que representa un beneficio al sector económico local y nacional poder garantizar la calidad recreativa en las playas de la bahía  y el nivel de satisfacción de ocio de quienes visitan las playas, sin embargo, la actitud de los visitantes también es influyente, por lo que la aplicación del Índice de la Calidad Ambiental Recreativa (ICAR), que contempla los parámetros de seguridad, ruido, rigidización, residuos sólidos, paisaje, ordenación y olor, es útil para categorizar, jerarquizar y proponer un plan de acción enfocado a mejorar la calidad ambiental recreativa (CAR) en las playas de la Bahía de Banderas.



METODOLOGÍA

Se llevó a cabo la aplicación de los instrumentos de evaluación de campo Percepción de Usuarios de Playas (PUP), test con 12 preguntas donde se evaluó por los visitantes, los servicios, la gestión de la playa y el paisaje percibido. Además  el Test de Actitudes Ambientales (TAA) con 21 preguntas capaz de determinar la disposición de ánimo en la playa, identificar el perfil Pro-Ambiental y Anti-Ambiental, así como conocer si una persona condiciona la gestión de la playa. Estos instrumentos fueron aplicados en 14 playas de la Bahía de Banderas (Anclote, Bucerías Norte, Bucerías Sur, Camarones, Garza Blanca, Holly, Huanacaxtle, Los Muertos, Nuevo Vallarta Norte 1, Nuevo Vallarta Norte 2, Nuevo Vallarta Sur 1, Nuevo Vallarta Sur 2, Playa de Oro y Punta Negra). El levantamiento se realizó a través de la app para dispositivos móviles Android KoBoCollect donde el usuario puede responder de forma anónima y confidencial. En total se concluyeron 1001 levantamientos entre 11 estudiantes de los que 986 resultaron válidos. Se realizó una gráfica para cada instrumento de tipo columna 100% apilada, donde se representaron los resultados obtenidos de las 986 muestras, 586 (PUP) y 400 (TAA), una gráfica de cada instrumento por playa y finalmente una tabla y grafico dinámico en Excel 2016 para el análisis y comparación de datos sumando un total de 30 gráficas de información útil para la investigación.


CONCLUSIONES

Después de analizar las gráficas obtenidas de los rubros anteriormente mencionados, se concluyó que para los usuarios que participaron en la evaluación de campo de las playas de Bahía de Banderas consideraron que  se cuenta con un excelente paisaje, pero su seguridad policiaca tiene bastantes deficiencias. En cuanto a la actitud ambiental, más del 95% de los usuarios concuerdan en que es un deber el cuidado de las playas, lo que significa que las personas que visitan las playas están conscientes que son partícipes del cuidado del medio ambiente, sin embargo, cerca del 70% consideró que el Gobierno debe de encargarse de ello, y poco más del 50% no cree que los turistas sepan cuidar las playas. En cuanto al enfoque en las playas del instrumento de percepción, la playa que tuvo más aceptación holística de los usuarios, fue la playa de Nuevo Vallarta Sur ubicada en el estado de Nayarit, dónde más del 50% de los usuarios la destacaron con Muy satisfecho en cuestión del paisaje y calidad del agua, sin embargo, rechazaron la seguridad policiaca y la afluencia de vendedores ambulantes. Por otro lado, Playa de Oro ubicada en Puerto Vallarta, Jalisco, fue la que menor aceptación generó en los usuarios debido a sus pobres servicios gastronómicos, la falta de seguridad policiaca y física.
Salazar Zárate Azalea Esmeralda, Universidad Veracruzana
Asesor: Dr. Francisco Miguel Vargas Luna, Universidad de Guanajuato

COMPARACIóN DE LA SEñAL ACúSTICA DE LA REGIóN ABDOMINAL CON LA SEñAL DE ELECTROGASTOGRAFíA E IMPEDANCIA ELéCTRICA EN EL MONITOREO DE LA ACTIVIDAD GáSTRICA


COMPARACIóN DE LA SEñAL ACúSTICA DE LA REGIóN ABDOMINAL CON LA SEñAL DE ELECTROGASTOGRAFíA E IMPEDANCIA ELéCTRICA EN EL MONITOREO DE LA ACTIVIDAD GáSTRICA

Guerra Santiago Marlene Viridiana, Benemérita Universidad Autónoma de Puebla. Lázaro García Jesús Salvador, Instituto Politécnico Nacional. Salazar Zárate Azalea Esmeralda, Universidad Veracruzana. Asesor: Dr. Francisco Miguel Vargas Luna, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El estómago es un  órgano hueco localizado en la cavidad abdominal debajo del hígado y al costado izquierdo del cuerpo que se encarga de recibir los alimentos, mezclarlos con los jugos gástricos y volverlos aptos para ser recibidos por el intestino delgado. El estómago experimenta movimientos de contracción y dilatación (movimientos peristálticos) para cumplir las funciones antes descritas. Estos movimientos en conjunto se denominan motilidad gastrointestinal la cual se produce debido a potenciales de acción generados en las diversas células del tracto digestivo. Estos potenciales generan, tanto en el cuerpo distal como en el antro, dos tipos de actividad eléctrica. La primera actividad se denomina onda lenta que ocurre en intervalos regulares de 20 segundos. La segunda actividad se denomina potencial de espiga de contracción muscular fuerte con un tiempo de duración de 2-3 segundos y que se superpone a la onda lenta. Para poder monitorear la actividad gástrica es común utilizar la electrogastrofía superficial o impedancia bioeléctrica. En clínica el especialista comúnmente utiliza una técnica acústica con ayuda del estetoscopio para evaluar dicha actividad. Con la electrogastrofía se obtienen señales provenientes de una zona extensa, generalmente de todo el antro, debido a su característica de desplazamiento, se obtiene una señal de tipo sinusoidal, la que puede ser procesada a través de un programa computacional denominado "fast fourier transform", especialmente adaptado. Uno de los mayores retos al utilizar cualquiera de las tres técnicas mencionadas es poder interpretar la señal obtenida después de un procesamiento adecuado. Uno de los problemas es que existe superposición de señales similares de diferentes regiones en el sistema gástrico u otros sistemas tales como cardiovascular, respiratorio, etc. que aparecen durante las mediciones. Así mismo las señales provienen de diferentes fenómenos físicos (eléctrico, mecánico y acústico), existiendo cierta controversia en cuanto a su equivalencia y utilidad como método de diagnóstico.



METODOLOGÍA

Sujetos: Se trabajó con un grupo de sujetos sanos de 10 personas de entre 20 y 25 años constituido por 3 mujeres y 7 hombres. A los voluntarios se les cuestionó sobre su salud gastrointestinal reciente o alguna otra afección que pudiera comprometer su función gastrointestinal. Por ser un estudio comparativo no se solicitó ninguna condición particular previa a la medición (ayuno, actividad física, etc.). Los voluntarios firmaron un formato de consentimiento informado después de haber sido informados a detalle del proyecto. Procedimiento: Para cada medición realizada se utilizó una configuración de 4 electrodos para la técnica de bio-impedancia de los cuales se colocaron dos en la cavidad abdominal y dos en la espalda, para poder inyectar en dos de ellos una pequeña corriente eléctrica (<1mA) y medir el voltaje en los otros electrodos. Para colocar los electrodos se tomó como referencia el punto medio entre la apófisis xifoides y la cicatriz umbilical sobre la línea media sagital donde se coloca el primer electrodo. El segundo electrodo se coloca a 5cm de distancia y con un ángulo aproximado de 45° sobre la horizontal. A la misma altura y con proyección hacia la parte posterior se colocan los dos electrodos restantes. Para trabajar con electrogastorgrafía se colocan de igual manera dos electrodos a una separación de 1cm aproximadamente de los electrodos frontales de impedancia con una solución electrolítica y una referencia en el costado izquierdo. En la cavidad abdominal entre los dos electrodos principales, se colocó un pequeño micrófono para evaluar la señal acústica producida durante la motilidad; este se colocó con gel para minimizar la diferencia de impedancia acústica. Las mediciones de bio-impedancia, electrogastografía y audio se llevaron a cabo de manera simultánea, durante un lapso de 30min a través de un sistema de BIOPAC y los módulos correspondientes. Procesamiento de señales: Para poder llevar a cabo el tratamiento de las señales se emplearon filtros FFT y Butterworth pasa banda de 0.5 a 9cpm para poder observar la señal de interés y descartar artefactos debido a: perfusión sanguínea, respiración, movimientos corporales, etc. evaluando la motilidad gástrica en la región normogastrica de 2 a 4 cpm. Estadística: Se tomaron en cuenta parámetros como la frecuencia del pico máximo, su potencia, el área bajo el espectro FFT de la región normogastrica. Se realizaron pruebas de normalidad y se hizo estadistica comparativa pareada de dichos parametros obtenidos en cada una de las tres técnicas mencionadas.  


CONCLUSIONES

Se realizaron pruebas de normalidad de Shapiro-Wilk obteniendo que algunas variables no presentan distribucion normal, por lo que se trabajó con pruebas no parametricas. Mediante la prueba de rangos con signos de Wilcoxon se encontró que la frecuencia en la región normogástrica es estadísticamente igual para las tres metodologías, teniendo un valor de 2.6 cpm, observando una mayor dispersión con la técnica de impedancia bioeléctrica. La actividad en las regiones normo y taquigástrica comparadas por medio del área bajo el espectro FFT o bien por el comportamiento de las ondas lentas son estadisticamente iguales para el caso de electrogastografía e impedancia eléctrica. En el caso de la actividad de la señal acústica se observa un incremento en frecuencias altas y una disminución en frecuencias correspondientes a la normogastria. El método acústico es útil para evaluar la frecuencia dominante en la región normal,necesitando más investigación si el objetivo de estudio se centra en la actividad de la región taquigastrica.
Saldivar Omaña Mitzi Guadalupe, Universidad de Guadalajara
Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara

ECUACIÓN DE DIRAC EN UN UNIVERSO EN EXPANSIÓN


ECUACIÓN DE DIRAC EN UN UNIVERSO EN EXPANSIÓN

Saldivar Omaña Mitzi Guadalupe, Universidad de Guadalajara. Asesor: Dr. José Edgar Madriz Aguilar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La ecuación de Schrodinger, describe la dinámica de las partículas elementales en la mecánica cuántica, sin embargo esta ecuación no puede describir la aparición o cambio de partículas en otras. Es por esto que no existe alguna ecuación de onda usada en mecánica cuántica no relativista, que sea compatible con la relatividad. Por tal razón se busco hacer una generalización relativista de la ecuación de Schrodinger. Esta ecuación es la que ahora conocemos como la ecuación de Klein-Gordon. Sin embargo, esta ecuación contiene una derivada temporal de primer orden y derivadas espaciales de segundo orden, lo que representa algunos problemas en mecánica cuántica, ya que implica una densidad de probabilidad negativa, así como la existencia de estados de energía negativos. Para evitar estos problemas, Dirac propuso una ecuación que tuviera las derivadas espaciales de primer orden, y que de manera simultanea mantuviera la derivada temporal de primer orden. Como resultado, la ecuación de Dirac describe las partículas con espín 1/2, y su solución involucra un objeto denominado biespinor, que contiene dos componentes positivas asociadas a las partículas, y dos componentes negativas asociadas a las antipartículas. De manera observacional, la cantidad de antimateria en el universo es mucho menor a lo que se esperaba, lo que nos lleva a pensar que quizás durante la expansión del universo, tuvo lugar algún acontecimiento que influyo a que la cantidad de antimateria sea pequeña. Por tal motivo, durante este verano de investigación se trabajo con la ecuación de Dirac, haciendo consideraciones para un universo en expansión.  



METODOLOGÍA

La metodología que se siguió, consistió en la deducción de las ecuaciones de energía-momento primordiales en la mecánica relativista, así como la deducción y solución de la ecuación de Dirac, a partir del Hamiltoniano de Dirac para el caso general. Para posteriormente reproducir estos cálculos para el caso de un universo en expansión, usando la métrica de Friedmann-Lemaître-Robertson-Walker , la cual contiene al factor de escala que describe como evoluciono el universo en función del tiempo. Con el fin de llegar a una solución de la ecuación de Dirac que nos aporte información de  la antimateria en el periodo de expansión del universo.


CONCLUSIONES

La solución a la ecuación de Dirac en un universo en expansión, calculada usando la métrica de FLRW, obtenida en este trabajo, al igual que la ecuación de Klein-Gordon, tiene una raíz positiva y una raíz negativa. Dirac asocio este resultado a la existencia de materia y antimateria. En este caso en el que se considera expansión, la raíz negativa corresponde a energías negativas asociadas a antiparticulas, mientras que la raíz positiva asocia energías positivas a las partículas, el factor de escala a(t) nos da información de como fue esta energía en las diferentes épocas evolutivas del universo.
Salgado Bahena Miguel Ángel, Universidad Autónoma de Guerrero
Asesor: Dr. Omar Delgado Rodriguez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

CARACTERIZACIóN GEOFíSICA DEL ACUíFERO REGIONAL EN EL POBLADO DE EL RODEO, MEXQUITIC DE CARMONA, SLP


CARACTERIZACIóN GEOFíSICA DEL ACUíFERO REGIONAL EN EL POBLADO DE EL RODEO, MEXQUITIC DE CARMONA, SLP

Salgado Bahena Miguel Ángel, Universidad Autónoma de Guerrero. Asesor: Dr. Omar Delgado Rodriguez, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El área de estudio se ubica en la porción Suroeste de la región hidrológica del Salado, localizada en la porción nororiental del municipio y limita al norte con la cuenca Matehuala, al oriente con la cuenca Sierra Madre, al sur y suroriente con la región hidrológica Pánuco y al poniente-sur poniente con la cuenca San Pablo. Asimismo, el poblado del rodeo está dentro de la cuenca hidrográfica Presa San José-Los pilares (Rh37G), abarcando un área de 940,218 . La geología predominante de la zona está constituida principalmente por tener como base rocas que comprenden edades del Cretácico Inferior al Reciente, rocas volcánicas del Terciario, rocas clásticas continentales de origen Lacustre del Holoceno, así como depósitos de aluvión del Cuaternario. El principal mecanismo de recarga de la cuenca es originado por la filtración de lluvia y del escurrimiento superficial al ser una cuenca cerrada (endorreica). Por último, el uso del agua superficial y subterránea para el poblado es de vital interés, debido a que se cuenta con 212 habitantes y sólo el 24% goza del servicio de agua entubada, haciendo necesaria la existencia de pozos de abastecimiento que satisfaga las necesidades. 



METODOLOGÍA

Con la finalidad de proponer sitios viables para la perforación de pozos, se realizaron estudios de prospección geofísica aplicando el método magnético y el método eléctrico. Tanto el levantamiento magnético como el eléctrico se constituyeron de 9 perfiles distribuidos en las inmediaciones del poblado.


CONCLUSIONES

El procesamiento de cada uno de los datos nos será de utilidad para lograr una visualización de la respuesta magnética y eléctrica de los materiales presentes en el subsuelo. Aunado a esto; la información geológica ayudará a obtener una mejor compresión del funcionamiento del acuífero, y de tal manera poder identificar las zonas con un alto potencial para la perforación de pozos de abastecimiento.
Sánchez Bolaños Stephanie, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)

PROGRAMACIóN UTILIZANDO PLATAFORMA MULTIPARADIGMA PYTHON.


PROGRAMACIóN UTILIZANDO PLATAFORMA MULTIPARADIGMA PYTHON.

Muñoz Ramírez César Adrián, Instituto Politécnico Nacional. Sánchez Bolaños Stephanie, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Un entorno de programación amigable y potente es necesario a la hora de desarrollar proyectos  que  manejen una gran cantidad de datos, tal es el caso de la creación de gráficas, ya que implica cierta manipulación del espacio en la que se presenta el esquema. Con la creciente necesidad del manejo de entornos de desarrollo de aplicaciones, se han ido reduciendo las plataformas que brinden a los desarrolladores las herramientas necesarias para crear diferentes códigos, sin necesidad de adquirir licencias, que puedan provocar ciertas limitantes al momento del desarrollo del código. Por tal motivo, el aprender a manejar diferentes entornos de programación libres, como es la sintaxis y el uso de utilerías propias del lenguaje, toma gran importancia ya que brinda diferentes opciones de desarrollo a los programadores, dando la oportunidad de ofrecer sistemas eficientes.



METODOLOGÍA

El Dr. Moisés Cywiak Garbarcewicz  encargado del laboratorio de metrología heterogenia del Centro de Investigaciones en Óptica León, GTO. Nos dio una breve explicación sobre el plan de trabajo que llevaríamos acabo durante el verano científico, que consta de los siguientes puntos: Introducción a la programación y desarrollo de programación en Python. Gráficas en dos dimensiones. Gráficas en tres dimensiones. Interfaz de usuario: Formas, lienzos e interfaces dinámicas de usuario. Sonidos y animación. Procesos para embeber gráficos de dos y tres dimensiones en el ambiente de usuario. En seguida se instaló la plataforma de programación con la versión adecuada, tomando en cuenta las necesidades de funcionamiento, además se analizaron conceptos básicos propios del lenguaje de programación, como la asignación de valores a variables, ciclos y manejo de operaciones matemáticas básicas. Así mismo se instalaron módulos esenciales para el desarrollo de las actividades posteriores, tales como, la utilería matplotlib con la cual se pudieron utilizar expresiones y métodos matemáticos más complejos; entendiendo de esta forma el funcionamiento del entorno Python como son los requerimientos de instalación, recursos, comprensión de la interfaz propia de la plataforma y sintaxis. Mediante el uso de las utilerías matplotlib y numpy se logró graficar en dos dimensiones (X,Y), la función exponencial de n números, senos, cosenos y la gráfica gaussiana, pudiendo ofrecer un entorno con ciertas funciones interactivas con respecto a la interfaz de usuario. Además se pudo comprender el uso de arreglos, que ocupan cierto espacio de memoria, con el cual se puede armar el plano cartesiano sin perder los valores de los ejes en cada punto propuesto. Los puntos anteriores ofrecen la facilidad de modificar los datos principales de la gráfica para ofrecer diferentes estados de la misma y de su perspectiva. De la misma forma permite también el manejo de las diferentes características visuales, como el color de la gráfica y de su entorno, así como su posicionamiento, ofreciendo un panorama completo de la gráfica en dos dimensiones, o incluso la vista de más de una gráfica. Se hace uso de la utilería mpl_toolkits, la cual permite hacer graficas de tres ejes (X,Y, f(X)), permitiendo dar una vista con perspectivas propias de un plano en tres dimensiones, generando un entorno que permite manipular la posición de la vista de la misma gráfica. De esta forma se logró la creación de un mapa de colores personalizado, el cual se aplicó a la gráfica creada, además de utilizar funciones propias de la utilería que permite la vista de la rejilla y del recubrimiento que conforman a la gráfica, permitiendo el control total sobre el estilo del esquema.   El uso de la utilería tkinter permite la creación de los elementos para generar una interfaz de usuario totalmente interactiva; se ha utilizado esta utilería y sus métodos para hacer formas o ventanas que contengan botones, etiquetas, cajas de entrada y lienzos o canvas, con las cuales se puede tener un mayor control del contenido de la forma. De la misma forma se aplicaron funciones con la sintaxis propia del lenguaje, lo que permitió la programación del comportamiento de cada uno de los elementos. Se alcanzó el objetivo para insertar sonido y animación en la interfaz de usuario. Mediante el uso de las utilerías winsound y time se pudo controlar la emisión de sonidos con una medida en Hz controlada con lo cual se logró hacer más interactivo el manejo de la interfaz una vez ejecutado el entorno. De la misma manera, se logró la animación de una gráfica haciendo que ésta cambiara sus valores y los mostrara en pantalla de una forma continua, dentro de un periodo de tiempo controlado. Haciendo uso de las diferentes extensiones de la utilería matplotlib, se logró la inserción de las gráficas en dos y tres dimensiones realizadas en las etapas anteriores combinando los elementos visuales apropiados como son botones, imágenes, etiquetas y cajas de entrada; con la vista del esquema, incluyendo el estilo personalizado del mismo.


CONCLUSIONES

Se realizó y aplicó el conocimiento y  la teoría adecuada resultante de la investigación realizada, para lograr el funcionamiento apropiado del lenguaje de programación aplicado a la asignación de valores y variables, ciclos y manejo de operaciones matemáticas básicas con los métodos y las propiedades de los componentes de la plataforma Python. De esta forma logramos modificar el comportamiento del entorno predefinido para proporcionar las funcionalidades que se plantearon originalmente en el proyecto, generando el entendimiento de los conceptos y la lógica necesaria para lograr cada uno de los objetivos propuestos.
Sanchez Castro Nora Briseida, Universidad Autónoma de Nayarit
Asesor: Dr. Leila Villarreal Dau, Universidad Autónoma de Sinaloa

CONSERVAR Y CRECER JUNTOS


CONSERVAR Y CRECER JUNTOS

Ballesteros Ahumada Dalia Anahí, Universidad Autónoma de Nayarit. Dado Oronia Sorayda Francisca, Universidad Autónoma de Nayarit. Sanchez Castro Nora Briseida, Universidad Autónoma de Nayarit. Asesor: Dr. Leila Villarreal Dau, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Conservar y Crecer Juntos Nuestro verano de investigación inicio el día lunes 17 de junio del presente año en la Universidad Autónoma de Sinaloa en el área de arquitectura con la Dra. Leila Villareal Dau. El primer día nos presentamos formalmente con la maestra y de igual forma ella nos dio la bienvenida a la institución, así como también nos presentó con el resto de las compañeras, las cuales eran 2 chicas del área de comunicación una proveniente de la ciudad de Culiacán y la otra de Ensenada Baja California. Posteriormente la maestra dos dio a conocer el tema de patrimonio para que tuviéramos una idea más clara de lo que se iba a llevar acabo, según a sus indicaciones propuestas nos dijo que el tema de investigación se dividiría en dos áreas distintas. Por un lado, el tema en relación a la investigación de tipo aplicada donde se pretendía llevar a cabo un curso dirigido a niños de 8-10 años. Y por otro lado en el área de difusión de la investigación donde las compañeras comunicólogas se encargarían de investigar la información, de manera documental en fuentes primarias y secundarias, pero que al final de cuenta se estaría trabajando en el mismo tema de investigación, pero desde diferentes perspectivas.



METODOLOGÍA

Después de saber lo que se pretendía realizar se comenzó a diseñar la estructura de dicho curso el cual fue realizado en base a investigaciones y estructuraciones gráficas, con ello fue posible armar todo el proceso y que quedara estructurado de una manera entendible. Lo estructuramos con una introducción, justificación, objetivos y perfiles de ingreso y egreso que fue lo primordial en elaborar ya que fue el punto de partida para poder arrancar con el curso, así como también una convocatoria, tríptico, cronograma de actividades y evaluación. Esta estructuración la llevamos a cabo en una semana ya que no encontrábamos la forma de como la maestra lo quería, pero al final encontramos la manera de terminarlo bien para que funcionara como se tenía planeado. Después de esa semana se comenzó a diseñar el cronograma de actividades y la elaboración de las planeaciones correspondientes con los temas que se pretendían dar a conocer durante el curso, así como también el material que se iba a utilizar en las diferentes actividades. Posteriormente ya listo todo se dio inicio al curso titulado Conservar y Crecer Juntos dirigido a niños de 8 - 10 años en las instalaciones de arquitectura que nos prestaron para implementar el curso. Durante el curso nos pudimos dar cuenta que a los niños le resulto interesante aprender de una cultura diferente como lo era la etnia huichol ya que les llamo mucho la atención los temas y actividades que se estuvieron llevando a cabo, así como la manualidad de ojo de dios que se realizó como cierre del curso porque implementaron sus habilidades y destrezas que tienen como personas.


CONCLUSIONES

Fue para nosotros una experiencia muy bonita poder trabajar e interactuar con niños porque compartimos conocimientos de una etnia perteneciente a nuestra región del norte de Nayarit y es muy satisfactorio poder saber que demás personas se interesen y empiecen a conocer un poco sobre las culturas que existen en tu región. Consideramos que esta estancia de verano nos dejó muchos conocimientos para poderlos implementar en nuestra vida personal y laboral.
Sánchez Duarte Soraida, Universidad Estatal de Sonora
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))


SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))

García Bon Miguel Ángel, Universidad de Guadalajara. Pérez Salvador Cinthya Paola, Tecnológico de Estudios Superiores de Tianguistenco. Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México. Sánchez Duarte Soraida, Universidad Estatal de Sonora. Schmerbitz Valdés David, Universidad de Guadalajara. Talamantes Herrera Ana Bertha, Universidad de Guadalajara. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cromo es un elemento metálico inodoro e insípido que forma parte de la corteza terrestre. También se encuentra en grandes cantidades en el aire, el agua, la tierra y los alimentos. Los compuestos de cromo hexavalente son un grupo de sustancias químicas que tiene propiedades beneficiosas, como resistencia a la corrosión, durabilidad y dureza. Estos compuestos se han usado en amplia medida como anticorrosivos y para fabricación de pigmentos, acabado de metales y cromados, producción de acero inoxidable, curtido de cueros y conservantes para madera. También se han usado en procesos de teñido en la industria textil, tintas de impresión, lodos de perforación, fuegos artificiales y síntesis de sustancias químicas. Los desechos, a su vez, son vertidos en cuerpos de agua, muchas veces los mismos sin un tratamiento adecuado para su liberación. El cromo es un contaminante ambiental de fácil dispersión y de gran importancia debido a su toxicidad. El cromo hexavalente está clasificado en el grupo 1 de cancerígenos con múltiples mecanismos complejos por los cuales la enfermedad puede ser desarrollada en diferentes zonas del cuerpo. En este verano de investigación se plantea la implementación de los HDLs como absorbentes de este contaminante, experimentando con variaciones en la síntesis de estos; añadiendo estructuras diversas y/o modificando las proporciones utilizadas en su reacción.



METODOLOGÍA

Se comenzó inicialmente con la síntesis de los HDLs. El primer día se procedía a hacer los cálculos prudentes para el pesado de las muestras para obtener al final HDLs con una masa aproximada de 5 g, para esto se utilizaron  y  en una proporción molar que variaba de muestra en muestra pero siempre manteniéndose en el rango de 1:2 - 1:3, siendo el compuesto de zinc el que siempre existía en mayor proporción. Si se daba el caso en el que se requiriera adicionarle además una estructura distinta para evaluar después su repercusión en la adsorción, se procedía a pesar también una cantidad significativa del reactivo, añadiendo también las sustancias necesarias para su buena dispersión; por ejemplo, en el caso de las nanofibras de carbono, se requería funcionalizarlas primero o adicionarle   algún surfactante (SDS), además de unas horas en sonicación. Todo era mezclado en agitación, una vez el reactivo anterior se percibía completamente disuelto, se agregaba el siguiente. Esto en un volumen de agua destilada no mayor a 300 mL. Una vez se alcanzaba la homogeneidad se procedía a adicionarle , el mismo era gradualmente añadido con ayuda de una probeta, como si de una titulación se tratase. El pH de la mezcla era monitorizado con ayuda de un potenciómetro, se buscaba idealmente obtener un pH final de 9, conseguido esto se dejaba en agitación constante por un periodo aproximado de 24 h. Para el segundo día, el objetivo cambiaba a, mediante lavados en centrifugación (10,000 rpm, por 5 min), disminuir el pH de la muestra hasta neutralizarlo. A su vez, el número de lavados variaba de muestra en muestra, algunos requiriendo simplemente 3 y otros más de 6. La manera en la que se realizaban era mediante la adición de agua destilada a los tubos de centrifugación conteniendo el volumen de la muestra y el posterior desecho del sobrenadante para la repetición del proceso. Una vez el objetivo era conseguido, los HDLs limpios y húmedos eran depositados en capsulas de porcelana para someterlos a un proceso de secado en una estufa, esto también durante aproximadamente 24 h. En el tercer día de la síntesis se retiraba del secado y se procedía a moler en un fino polvo con ayuda de un mortero. Para finalmente guardar en bolsitas de plástico. Realizando este procedimiento, y haciendo más de una muestra por día, se lograron obtener más de 20, las mismas siendo casi todas distintas. Para los análisis de adsorción se utilizó la técnica de la espectrofotometría Uv-visible, previamente se habían dejado individualmente en tubos por dos días cada una de las muestras (50 mg), cada tubo tenía un volumen de 20 mL de una disolución aproximada de 300 ppm de . Esto en un estado constante de agitación. Se retiraron, y se dejaron reposar para que el HDL precipitara. Cuando esto sucedió, se siguió el método estandarizado para la colorimetría en el análisis del cromo. Se realizaron otros análisis tales como la difracción de rayos x, el XPS y el SEM para la caracterización de las muestras, revelando información muy interesante, como que el procedimiento fue el adecuado por la limpieza de las muestras. Se realizó la misma experimentación con  revelando una presunta adsorción, la misma no siendo concluyente por la necesidad de darle mantenimiento al equipo.


CONCLUSIONES

De las muestras sintetizadas, las que contenían nanofibras de carbono sin SDS fueron las que adsorbieron en mayor medida. Gracias al análisis del XPS se pudo confirmar que debido a alguna interacción con el aluminio en su composición la adsorción podría llevarse a cabo, entre otras cosas. En este verano de investigación el aprendizaje fue muy grande y variado, nos familiarizamos con todos esos métodos de análisis, su fundamento y el cómo funcionaban. Desarrollamos más destreza en el laboratorio y en el trabajo en equipo, sin mencionar todo el conocimiento teórico detrás de una quizás síntesis sencilla. Aprendimos algunas otras metodologías, como es el caso de la funcionalización de estructuras de carbono, la colorimetría del cromo, del Flúor además de cómo funciona la investigación de manera generalizada. El proyecto deja muchas cosas y datos con los cuales se podría trabajar, análisis que extras que podrían revelar información muy valiosa. Y una pregunta al aire, por la cual esta idea surgió. ¿Podrán adsorber PCBs?   https://www.sciencedirect.com/science/article/pii/S2468202019300294 https://www.sciencedirect.com/science/article/pii/B9780444594532000330 https://www.cancer.gov/espanol/cancer/causas-prevencion/riesgo/sustancias/cromo  
Sanchez Flores Flavio Cesar, Universidad Autónoma de Zacatecas
Asesor: Dr. María Luisa Cruz López, Universidad Panamericana, Campus Guadalajara

REPORTE DE ACTIVIDADES. ELABORACIóN DE RUTINAS Y PROGRAMAS PARA LA REDUCCIóN DE RUIDO EN HOLOGRAMAS.


REPORTE DE ACTIVIDADES. ELABORACIóN DE RUTINAS Y PROGRAMAS PARA LA REDUCCIóN DE RUIDO EN HOLOGRAMAS.

Sanchez Flores Flavio Cesar, Universidad Autónoma de Zacatecas. Asesor: Dr. María Luisa Cruz López, Universidad Panamericana, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Se busca la eliminación de speckle tanto en hologramas generados en computadora como en hologramas digitales. En los primeros, a través de la creación de matrices de 1024x1024 conformadas por matrices de ruido más pequeñas; y en los segundos por medio del uso de "máscaras" en la reconstrucción del holograma. Se apoyó con la creación de bitácoras de hologramas de Fourier a distinto ruido y fase, la lectura de artículos y bibliografía referentes a holografia y el catalogamiento de dichos artículos.



METODOLOGÍA

Bitácoras de Hologramas de Fourier. Se realizó un catalogamiento en power point de imágenes reconstruidas de tres tipos de Holograma de Fourier: Amplitud, fase Kinoform y campo complejo codificado. Se usaron cuatro tipos de ruido (Uniformemente Distribuido, Normalmente Distribuido, Pink y Brown Noise) y se varió el valor de fase (desde 1.2pi a 2pi). Reducción de speckle en hologramas generados computadora. Se buscaron distintas técnicas para la generación de Pink y Brown Noise. Después se generaron matrices de 1024x1024 compuestas por matrices más pequeñas de estos tipos de ruido. Se leyeron artículos respecto a holografia, bibliografia sobre transformadas de fourier y propagación de Fresnel. Se realizó un texto descriptivo sobre la programación de hologramas de Fresnel. Creación de programas de hologramas de amplitud tipo Fourier y Fresnel; en el caso de Fresnel, por medio de transformada directa y por convolución. Implementación de propagación de Fresnel para realizar la reconstrucción holograma de células. Se implementó el programa de Fresnel de transformada directa a un holograma de células. Esto con el objetivo de determinar el rango de distancias de propagación en el que es posible encontrar la imagen enfocada de  todas las células. Reducción de speckle por medio de máscaras. Se usaron 3 tipos de máscaras: rectangular, elíptica y diamante. Con estas se tomaron distintas muestras de un holograma de Fresnel para, consecuentemente, realizar su reconstrucción y generar una imagen final con el promedio de todas las imágenes reconstruidas. Se calculó el PSNR del holograma final reconstruido respecto a la imagen original.


CONCLUSIONES

Bitácoras de Fourier. Por medio de la observación de las imágenes capturadas, se notó que el holograma cambiaba muy poco o nada si se le cambiaba la fase o el ruido, por lo que se procedió a revisar el programa de simulación. No se volvieron a catalogar resultados del programa modificado. Reducción de Speckle en hologramas generados por computadora. La matriz resultante de cada tipo ruido tiene una distribución parecida, pero no exacta, siendo que a un número mayor de submatrices, se pierde el comportamiento de pink y brown noise en relación al espectro de Fourier y la frecuencia (1/f, 1/f^2 respectivamente). Implementación de hologramas Fresnel en para reconstrucción del holograma de las células. El rango de propagación es entre los 41.4 y los 47 cm considerando una propagación previa  de 35 cm; sin embargo desde los 39 cm ya es posible ver la mayoría de las células. Después de los 47 cm no es posible ver alguna célula por efecto borde del holograma y el desenfoque de éstas. Reducción de speckle por medio de máscaras. En los 3 casos se obtuvo un PSNR casi constante de 27.648 que varia muy poco según el número de máscaras utilizadas. Se atribuye esto en parte a la imagen utilizada. 
Sánchez Gómez Adolfo Ernesto, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Roberto Ivan Cabrera Munguia, Universidad Autónoma de Ciudad Juárez

ANáLISIS ARMóNICO DE FUENTE CONMUTADA CD-CD


ANáLISIS ARMóNICO DE FUENTE CONMUTADA CD-CD

Sánchez Gómez Adolfo Ernesto, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Roberto Ivan Cabrera Munguia, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En el documento presente se hablará del tema de los armónicos que presenta una fuente conmutada CD-CD causando una pérdida de energía en el sistema. El análisis es importante ya que diferentes fuentes bibliográficas dan por hecho que la corriente presenta solamente hasta el cuarto armónico, sin ofrecer un análisis detallado sobre la alteración de la corriente. Utilizando Series de Fourier, se desarrolla un análisis profundo de la corriente dentro del circuito, comparando el voltaje de entrada con el voltaje que llega a la carga RLC del sistema. Las corrientes armónicas son los componentes similares de una corriente eléctrica periódica descompuesta en la serie de Fourier. Los armónicos tienen una frecuencia que es múltiplo (2, 3, 4, 5, … n) de la frecuencia fundamental. El número n determina el rango de la componente armónica. Se denomina armónico del rango n ala componente armónica del rango correspondiente a n veces la frecuencia de la red. Posteriormente se aplicará un sistema de control mediante filtros de capacitores, disminuyendo los armónicos presentes en la salida de este.



METODOLOGÍA

Consideramos el periodo de conmutación, durante la saturación tenemos un valor Vs y en el cierre no permite el paso a la corriente tomando el valor de 0. Con estos valores podemos calcular los coeficientes de Fourier para llegar al modelo general de la Serie de Fourier. Al reducir la serie de Fourier, se puede ver una clara perturbación en la corriente dentro del circuito. Posteriormente, empezamos el análisis con una fuente conmutada con una carga resistiva R, la cual es la manera más sencilla para encontrar los armónicos de la corriente. En primera instancia, se determina la ecuación diferencial del circuito en términos de la carga entregada a la resistencia R. Al resolver la ecuación diferencial para obtener la solución particular proponemos que: Va es igual a la fórmula general de las Series de Fourier. Lo cual, al sustituir el valor en la ecuación de nuestro circuito, se puede factorizar y conseguir los coeficientes de la serie de Fourier, después sustituimos los valores en la serie de Fourier, quedando nuestra serie para una fuente conmutada con carga resistiva. De esta forma conseguimos descomponer el contenido armónico de una fuente conmutada con una carga resistiva en función a todos sus componentes y a la fuente de excitación del sistema. Podemos analizar a profundidad cómo influye cada elemento del circuito en el contenido armónico que se presenta en la salida del sistema y, posteriormente, realizar un sistema de control de lazo cerrado para lograr disminuir a la medida de lo posible las pérdidas de energía que presenta el sistema. Sin embargo, normalmente las fuentes conmutadas no solo tienen una carga resistiva, también presentan una inductancia y capacitancia, mejor conocido como circuito RLC, por lo que, si queremos realizar un verdadero análisis con aplicación práctica, tenemos que analizar el comportamiento y contenido armónico de una fuente conmutada con una carga RLC. Procedemos a sacar la ecuación diferencial del circuito anterior en función de la corriente. Derivando nuevamente nuestra ecuación para eliminar la integral de la capacitancia, simplificando y agrupando términos semejantes, conseguimos finalmente nuestra ecuación diferencial: LoCoL1C1ia^IV+RLoCoC1ia^III+[LoCo+(Lo+L1)C1]ia^II+RC1ia^I+ia=C1Vs^I    (8) Una vez obtenida nuestra ecuación, procedemos a encontrar la solución particular, proponiendo como solución de ia y Vs’ la forma general de las Series de Fourier. Sacamos las derivadas de nuestra propuesta de solución para posteriormente sustituirla en nuestra ecuación diferencial (8), consiguiendo finalmente nuestra solución, sustituyendo estos datos en nuestra serie de Fourier, tendremos la corriente que es entregada a nuestra carga RLC de nuestro circuito: ∑〖√(An^2+Bn^2 ) Cos[πkn-An/Bn]〗


CONCLUSIONES

Observando las ecuaciones, podemos ver claramente el desfasamiento que se presenta y las alteraciones que sufre la corriente a través de no sólo el primer armónico, si no sus subsecuentes. El análisis matemático mediante Fourier nos demuestra alteraciones y pérdidas de energía a través del proceso de nuestro circuito, cuando en libros de texto solo se concentran en el armónico fundamental. El siguiente paso será el desarrollar un sistema de lazo cerrado usando un banco de capacitores, para lograr disminuir dentro de lo posible, los armónicos presentes en nuestra corriente. Esto se llevará a cabo durante la ultima semana de la estancia.
Sánchez Velázquez Aldo Daniel, Universidad Autónoma del Estado de México
Asesor: Dr. Gustavo Lòpez Velàzquez, Universidad de Guadalajara

PROGRAMACIóN DE UN SISTEMA DE 2,3 Y 4 QUBITS


PROGRAMACIóN DE UN SISTEMA DE 2,3 Y 4 QUBITS

Romero Gaytan Jorge Antonio, Universidad Autónoma del Estado de México. Sánchez Velázquez Aldo Daniel, Universidad Autónoma del Estado de México. Velázquez López Marco Antonio, Universidad Autónoma del Estado de México. Asesor: Dr. Gustavo Lòpez Velàzquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cómputo cuántico es un área de investigación donde se analiza y trabaja con la parte computacional que involucra las compuertas lógicas cuánticas y así poder expresar de forma clara los principios fiscos que ocurren en ella. Una característica notoria de la computación cuántica es que se apoya en la física moderna para analizar la interacción entre moléculas y así poder generar un procesador lógico. En la computación clásica solo se puede representar 0 o1 mientras que en la computación cuántica se pueden trabajar de forma simultánea. Es en este momento donde surge la unidad lógica del cómputo cuántico llamada qubit y con esto se llega a la posibilidad del paralelismo cuántico masivo, pero para conseguirlo de forma adecuada se requiere un medio físico o entorno adecuado para la computadora cuántica. Se descubrió que el diamante puede servir para la elaboración de nuevas tecnologías en la computación cuántica. El sistema propuesto se basa en una estructura de una red cristalina de diamante que contiene una cadena unidimensional de isótopos 13C (carbón 13). Se puede sugerir parámetros externos (como la temperatura y el ruido) para poder obtener resultados confiables del rendimiento de este sistema físico como una computadora cuántica; sin embargo, estudiaremos el sistema como un sistema completamente aislado. Este es una generalización para N isótopos 13C en la estructura cristalina del diamante. Y para poder observar el comportamiento de dicho sistema se requiere realizar una simulación de compuertas cuánticas de 2 qubits, 3 qubits y 4 qubits.



METODOLOGÍA

El sistema se generaliza con N isotopos carbono 13, Esto se puede llevar a cabo mediante un sistema de procesos, sometido a un campo magnético el cual varia por el componente z y θ = ωt + ϕ. ω es la frecuencia del campo magnético y ϕ es la fase, campo magnético. B(z,t) = (b cos(θ),-b sin(θ),B0(z)) para considerar cada interacción. U(t)= - ∑nn=1 Mn •B(Zn) Que viene siendo igual a; U(t)= - ∑Nn=1 Ω/2([eiθ S+i i+e-iθ S-i] + WnSnz) Donde la energía potencial es expresada de la siguiente forma, donde J y J’ son las constantes de acoplamiento. V = - J/h ∑N-1i=1 (Siz Si+1z) - J'/h ∑N-2j=1 (Siz Si+2z)                            Fórmula para expresar el sistema hamiltoniano. w(t)= - ∑Nn=1 Ω/2(eiθ Sn+ i+eiθ  Sn-) Es muy necesario resolver el eige, y para esto encontraremos primero la energía asociada en los estados. Siz | αN αN-1 ... α2 α1 ⟩ = h/2(-1)αi | αNαN-1 ...α2α1⟩  Una vez que se conoce el estado de cada energía es necesario realizar un cambio de nomenclatura. | 00 ... 000i → |1i          •          •          • | 11 ... 111 i → |2n Donde se usó la ecuación de Schodinguer, con la finalidad de dar forma a todos los coeficientes y crear un sistema de ecuaciones complejos. iℏḊk(t)= - ∑Nn=1 (Dn (t) ⟨ k |W(t) |n ⟩ eitwk,n  Los pasos anteriormente explicados son necesarios de seguir para poder elaborar los sistemas de 2 qubits, 3 qubits y 4 qubits. Con el sistema de 2 qubits se busca simular la compuerta Control Not y el Entrelazamiento cuántico, mientras que el sistema de 3 qubits se usara para la compuerta Control Control Not y la Teleportación Cuántica. Con el sistema de 4 qubits se demostrará la compuerta Control Control Control Not y Teleportacion Cuántica de 4 qubits.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos como: Fundamentos de la computación cuántica. Diferencias entre mecánica clásica y mecánica cuántica. Compuertas cuánticas: control not(CNOT), intercambio (SWAP), half-adder(HA), control control not(CCN), full-adder(FA). Posteriormente se analizó el sistema físico de la computadora cuántica de diamante de espín1/2, se realizó 3 programas de cómputo que simulan una computadora cuántica de 2, 3 y 4 cubits respectivamente. Con el simulador de 2 cubits se representó la compuerta cuántica control not(CN) y el entrelazamiento cuántico(estados de Bell), con el sistema de 3 cubits se simulo la compuerta cuántica control control not(CCN) y el fenómeno de teleportación cuántica con 3 cubits, para el sistema cuántico de 4 cubits se representó la compuerta cuántica control control control not(CCCN), sin embargo la teleportación cuántica de 4 cubits se encuentra en desarrollo.
Sánchez Zepeda Iván Gamaliel, Universidad de Guadalajara
Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla

CONFIGURACIóN DE SISTEMAS DE ADQUISICIóN DE DATOS PARA APLICACIONES EN FíSICA DE ALTAS ENERGíAS Y ASTRO PARTíCULAS.


CONFIGURACIóN DE SISTEMAS DE ADQUISICIóN DE DATOS PARA APLICACIONES EN FíSICA DE ALTAS ENERGíAS Y ASTRO PARTíCULAS.

Sánchez Zepeda Iván Gamaliel, Universidad de Guadalajara. Asesor: Dr. Arturo Fernández Téllez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los experimentos de física a gran escala utilizan varios tipos de detectores para reunir la mayor cantidad de información interesante posible de un solo evento físico. Cada tipo de detector representa un tipo de radiación dado y su conversión en señal de salida, que en general es un impulso eléctrico .Los sistemas de adquisición de datos están determinados por el número de sensores que requieren procesamiento. El número y el tipo de sensores determinan varios requisitos en el sistema de adquisición de datos como la frecuencia de lectura, medición de precisión y algoritmos de análisis en línea. La más desafiante de las aplicaciones son los experimentos a gran escala en física nuclear y de partículas ya que estos requieren de los procesos electrónicos más rápidos y modernos para poder realizar estas actividades, tales sistemas requieren de una configuración especializada y minuciosa para evitar posibles errores.



METODOLOGÍA

Se trabajó con la  tarjeta TRB3, la cual estaba recién llegada a la universidad, por lo que se comenzó a realizar una configuración inicial de la tarjeta. Para esto se realizó el seguimiento de las instrucciones de instalación que se encontraban en el manual de la tarjeta. La primera acción fue realizar la instalación del sistema operativo LINUX, en su versión de OPENSUSE. Para realizar la instalación de tal sistema operativo se realizó la configuración de una máquina virtual con el software Workstation. Una vez teniendo el sistema operativo instalado en la máquina virtual, se procedió a instalar un repositorio de distintos códigos que se necesitarían para diferentes propósitos, estos códigos fueron descargados de un servidor en Frankfurt. Los archivos incluían algunos fragmentos de código genérico, código para placas TRB3, código para la familia de placas DiRich entre otros archivos generales. Aunado a esto, dentro de los repositorios descargados se encontraba documentación importante para el manejo de cada uno y software importante para el control de la tarjeta. Después de descargar todos los archivos necesarios para la utilización de la tarjeta se procedió a realizar la identificación del número serial de la tarjeta y de los 5 FPGA´S contenidos en la misma para poder realizar una programación de la tarjeta de acuerdo a la versión de la misma. Una vez obtenidos estos números seriales se procedió a buscar las direcciones de red acorde al número serial de la tarjeta. Con esto, se procedió a realizar la configuración de un servidor DHPC y DNS para la conexión de la tarjeta con la PC. Para este punto ya se requería energizar la tarjeta y conectar a la PC, para esto se hizo uso de una fuente DC variable, la cual se configuró a un voltaje de 40v con una corriente de 0.500mA. La conexión a la PC se realizó con un cable RJ45. Se instaló un software llamado Wireshark el cual monitorea el tránsito de la red que se le indique, en este caso el de la TRB3-PC. El objetivo de este usar este software es obtener la dirección MAC de la tarjeta TRB3 además de su dirección IP, esto para posteriormente escribirlo dentro de un archivo para continuar con la configuración. Al conectar la tarjeta a la PC y monitorear el tráfico de información mediante Wireshark, se obtenían valores erróneos de la dirección MAC e IP, el proceso de vio interrumpido con este problema, se trataron de corregir de distintas maneras. La primera de las acciones que se tomaron fue el hecho de tratar de configurar el adaptador de Red de la PC con Windows con el adaptador de la máquina virtual, esto para tener un adaptador para ambos sistemas ya que el software de la máquina virtual creaba un adaptador virtual propio. Se pudo lograr esta configuración realizando configuraciones tanto en al adaptador de red como en la configuración del propio software de la máquina virtual. Pero a la hora de realizar la conexión de  la tarjeta TRB3 con la PC, el error persistía, por lo que se optó por realizar otro método de conexión. La segunda acción que se realizó fue instalar el sistema operativo de OPENSUSE en una partición del disco duro, esto para que estuviera como sistema operativo principal y no tuviera que pasar por una máquina virtual de Windows. Esto tuvo un resultado un poco prometedor, ya que se obtuvieron direcciones MAC e IP diferentes a las anteriormente obtenidas, pero aun así la conexión entre la PC y la Tarjeta continuaba sin establecerse. La tercera opción que se hizo fue contactar al soporte técnico de la empresa encargada de fabricar la tarjeta, ellos nos proporcionaron unas direcciones MAC e IP, Pero no se pudo configurar de manera satisfactoria ya que no correspondían a la tarjeta. El contacto de soporte técnico se ofreció a realizar la configuración de manera remota mediante un puente creado utilizando SSH, por lo que se realizó esta configuración de puente. El técnico nos ayudó a configurar de manera correcta la conexión. Una vez realizado el puente, el soporte técnico procedió a realizar la configuración remota necesaria para una comunicación entre la tarjeta y la PC, para esto se tuvieron que acordar horarios de conexión mutua por las diferencias de horarios.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos de sistemas de adquisición de datos para aplicaciones experimentales en al área de la física, esto involucra el manejo de electrónica de alta frecuencia lo cual es un acercamiento a sistemas de alto nivel utilizados en proyectos de talla internacional, de igual manera se aprendieron a utilizar comandos de LINUX OPENSUSE para realizar conexiones remotas entre dispositivos, así como el poder realizar configuraciones iniciales a la tarjeta TRB3. El tiempo de la estancia no fue suficiente para cubrir todas las configuraciones necesarias, por tal motivo no se pudieron obtener datos físicos con dicha tarjeta. Se esperan adquirir datos de detectores mediante una conexión DHCP a un servidor TRB y procesar los datos de manera casi instantánea.
Sarabia García Jose Manuel, Universidad Politécnica de Sinaloa
Asesor: Dr. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa

SíNTESIS DE NANOPARTíCULAS DE PLATA MEDIANTE SíNTESIS VERDE EN MEDIO ACUOSO ASISTIDA POR MICROONDAS A PARTIR DE EXTRACTOS DE ALGA PADINA.


SíNTESIS DE NANOPARTíCULAS DE PLATA MEDIANTE SíNTESIS VERDE EN MEDIO ACUOSO ASISTIDA POR MICROONDAS A PARTIR DE EXTRACTOS DE ALGA PADINA.

Sarabia García Jose Manuel, Universidad Politécnica de Sinaloa. Asesor: Dr. Karla Paola Valdez Núñez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Síntesis de nanopartículas de plata mediante síntesis verde en medio acuoso asistida por microondas a partir de extractos de alga padina La nanotecnologia  ha abierto muchas puertas en el campo de la tecnología ya que al trabajar con los materiales a una escala nanometríca dichos materiales tienen diferentes propiedades que resultan útiles para ciertas aplicaciones. En este ámbito, las nanoparticulas de plata juegan un rol muy importante en el área de la biología y medicina  gracias a sus propiedades antibacteriales, conductividad, actividad catalítica y estabilidad química. Los principales métodos químicos para la producción de nanoparticulas de plata pueden llegar a ser muy costosos y agresivos con el medio ambiente, por lo que actualmente se tiene un gran interés en obtener dichas nanopartículas mediante síntesis verde en medio acuoso a partir de plantas; un método amigable con el medio ambiente[1]. Aunado a esto, se ha comprobado que las biomoleculas presentes en los extractos de plantas se pueden utilizar para reducir los iones metálicos a nanopartículas, esta reducción biogénica de ion metálico al metal base es bastante rápida y la síntesis mediada por extractos de plantas es ambientalmente benigna[2]. En este trabajo se presenta la obtención de nanopartículas de plata mediante síntesis verde en medio acuoso asistida por microondas usando extracto de alga padina con la finalidad de utilizarlas como un material de reforzamiento conductor en los geles utilizados en pruebas de electrocardiogramas. Referencias: [1]       B. A. Zsembik, ‘Green’ Nanotechnologies: Synthesis of Metal Nanoparticles Using plants, Handb. Fam. Heal. Interdiscip. Perspect., vol. 6, no. 20, pp. 40-61, 2006. [2]       B. Sadeghi and F. Gholamhoseinpoor, A study on the stability and green synthesis of silver nanoparticles using Ziziphora tenuior (Zt) extract at room temperature, Spectrochim. Acta - Part A Mol. Biomol. Spectrosc., vol. 134, pp. 310-315, 2015.



METODOLOGÍA

Se prepararon nanoparticulas de plata con 3 diferentes concentraciones de extracto de alga padina y se realizaron mediciones en espectrofotómetro UV-VIS para comprobar la presencia de nanoparticulas de plata. Tambien  se mezclaron las nanoparticulas obtenidas con los geles. Se hicieron pruebas con los geles y  los electrodos en agar. Reactivos para la obtenciónde  nanoparticula de plata:  Extracto de alga padina AgNO3 Las soluciones obtenidas fueron sometidas a ciclos de 10 segundo en microondas.  Primera solución(1g de extracto): 4 ciclos Segunda solución(3g de extracto): 5 ciclos Tercera solución(6g de extracto): 3 ciclos  Una vez obtenidas las nanoparticulas, cada solución con diferente concentración de extracto de alga padina fue mezclada con 3 geles diferentes. Primer gel "Ten 20 conductive" -Extracto de alga padina (1g) Peso NP´S Ag: 1ml Peso del gel: 1.004g Peso total: 1.984g -Extracto de alga padina (3g) Peso NP´S Ag: 1ml Peso del gel: 1.001g Peso total: 1.992g -Extracto de alga padina (6g) Peso NP´S Ag: 1ml Peso del gel: 1.005g  Peso total: 1.942g Segundo gel "Electro gel" -Extracto de alga padina (1g) Peso NP´S Ag: 1ml Peso del gel: 1.008g Peso total: 1.990g -Extracto de alga padina (3g) Peso NP´S Ag: 1ml Peso del gel: 1.006g Peso total: 1.996g -Extracto de alga padina (6g) Peso NP´S Ag: 1ml Peso del gel: 1.000g Peso total:1.976g Tercer gel "Spectro 360" -Extracto de alga padina (1g) Peso NP´S Ag: 1ml Peso del gel: 1.009g Peso total: 2.211g -Extracto de alga padina (3g) Peso NP´S Ag: 1ml  Peso del gel: 1.000g Peso total: 1.996g -Extracto de alga padina (6g) Peso NP´S Ag: 1ml Peso del gel: 1.003g Peso total: 2.019g Preparación del agar 1-Se preparo la solución Cloruro de sodio 12.5g Agar-Agar 2.89g Agua destilada 500ml 2- Una vez todo junto, se llevo el recipiente a un termo plato con agitación a una temperatura de 100 C a 130 C hasta la ebullición. 3-Una vez que la solución estuviera homogeneizada se espero a que enfriara para verterlo en las cajas petri y prepara los agar. 4-Ya las cajas Petri lista, se llevaron a la incubadora dónde se dejaron por 24 horas a una temperatura de 30 C.      


CONCLUSIONES

Se comprobó la presencia de nanopartículas de plata mediante forma cualitativa por el cambio de la solución del extracto de alga padina, iniciando con un color amarillo claro a café pardo-rosado a lo largo de los ciclos de exposición al microondas. Y de forma cuantitativa, a partir de los espectros obtenidos de UV-Vis, los cuales señalan un pico máximo alrededor de 450 nm, extendiéndose hasta casi 550 nm, lo que indica la presencia de nanopartículas de plata. Los resultados de las prubas de electrocardiagramas aplicando el gel conductor reforzado con nanopartículas de plata, están en proceso.
Saucedo Aleman Kevin Javier, Universidad de Sonora
Asesor: Dr. Isidro Loza Aguirre, Universidad de Guanajuato

METODOLOGÍA PARA LA IDENTIFICACIÓN Y CARTOGRAFÍA DE UNIDADES LITOLÓGICAS EN EL SUROESTE DEL DISTRITO MINERO DE GUANAJUATO.


METODOLOGÍA PARA LA IDENTIFICACIÓN Y CARTOGRAFÍA DE UNIDADES LITOLÓGICAS EN EL SUROESTE DEL DISTRITO MINERO DE GUANAJUATO.

Saucedo Aleman Kevin Javier, Universidad de Sonora. Tovar Ramírez María Isela, Universidad de Guanajuato. Zamora Ibarra Guadalupe Citlalli, Instituto Politécnico Nacional. Asesor: Dr. Isidro Loza Aguirre, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El Distrito Minero de Guanajuato (DMG) está ubicado en el límite sur de la provincia fisiográfica Mesa Central (MC), en el sureste de la Sierra de Guanajuato (SG). La columna estratigráfica del DMG ha sido estudiada durante el último siglo donde se identificaron dos grupos de rocas: el más antiguo pertenece al Mesozoico y fue estudiado a detalle en la Sierra de Guanajuato; El segundo grupo consiste en depósitos continentales Cenozoicos, que reposan discordantemente sobre las rocas Mesozoicas. (Nieto-Samaniego, 2015) Una de las particularidades de la Mesa Central es la cantidad y variedad de yacimientos minerales emplazados en esta provincia; entre ellos algunos de los depósitos más ricos de México. Por lo que se requiere contar con una información precisa de la geología del lugar ya que, aunque se ha tenido un amplio estudio sobre el DMG y como se trata de regiones muy amplias, en algunas ocasiones los mapas realizados no concuerdan con lo observado en campo. En base a esta problemática, el objetivo de este proyecto es proporcionar al sector minero y al usuario en general una cartografía mejorada con mayor detalle y precisión. Para esto se eligió como zona de estudio el sureste del DMG, comprendido por cerro de la Bufa, Calderones y el Cubo.  



METODOLOGÍA

El desarrollo de las actividades se llevó a cabo dentro del Departamento de Ingeniería en Minas, Metalurgia y Geología, de la Universidad de Guanajuato. El trabajo consistió principalmente en cinco actividades siguiendo la siguiente metodología. La primera etapa consistió en la recopilación de información bibliográfica sobre el área en cuestión para contar con las bases necesarias sobre la geología del lugar llevando un análisis previo de las unidades litológicas más importantes, reconociendo, así como base principal a la Formación Bufa formada por flujos riolíticos piroclásticos con al menos tres horizontes principales, así como tobas y domos de la misma composición. Sobre ella yace la Formación Calderones descrita como arenisca, conglomerado, brecha y toba de composición andesítica con algunas intercalaciones de tobas dacíticas (Echegoyen-Sánchez et al 1970). En la cima de estas se encuentra la Formación Cedro formada por flujos de lava andesíticos (Nieto-Samaniego, 2015). Como segunda etapa se prosiguió con la realización de la cartografía regional previa, creando un mapa con la ayuda de los Sistemas de Información Geográfica (SIG): ArcGis (vers. 10.5) y Google Earth, para efectuar una manipulación y análisis de forma rápida, eficaz y exacta de la información geológica, estructural y minera.  Donde se interpretaron imágenes satelitales para identificar las unidades anteriormente estudiadas, así como las estructuras geológicas; redefiniendo la información en base a otros autores. Una vez teniendo la cartografía se hizo una planeación para elegir los puntos de interés a visitar en campo y se prosiguió con la creación de un itinerario. En la tercera etapa se realizó una a salida a campo  que consistió en dos fases: durante la primer fase se hizo un reconocimiento geológico minero, con muestreo representativo de  las unidades litológicas al igual que su descripción y clasificación en muestra de mano, obtención de datos estructurales  y observación de datos no pronosticados; en la segunda fase se realizó una segunda ida a campo donde se corroboró la información obtenida y la obtención de nueva para el mejoramiento de los resultados. La cuarta etapa se basa en los análisis de muestras mediante dos medios: datación de rocas y realización de láminas delgadas para su clasificación. Para la preparación de la datación de la roca, se muele un kilo de la muestra en una trituradora de quijada a un tamaño de 256 micras. Posteriormente se lleva a cabo el proceso de bateo que consiste en: mezclar alrededor de 20 grms del sedimento obtenido de la trituradora con agua y se batea con el fin de separar los minerales más pesados de los ligeros. Una vez separando los minerales pesados y usando un microscopio petrográfico se analiza el sedimento y se seleccionan los zircones y apatitos los cuales nos ayudarán a fechar nuestra roca. Dependiendo del tipo de roca será el procedimiento a datar, ya que la cantidad de zircones y/o apatitos a analizar varían en cantidad. Por otra parte, para la realización de lámina delgada se llevó acabo el siguiente procedimiento: se selecciona un fragmento de roca del tamaño de una muestra de mano y se lleva a cortar para tener como resultado un prisma rectangular de poco menos que el tamaño de un portaobjetos se corta con una cortadora de disco diamantado. Una vez obtenido el prisma se pule con abrasivo de 400 mallas para eliminar cualquier marca que deje la cortadora y se sigue con la preparación del portaobjetos, éste se marca por una de las caras con la clave de la roca, la otra de las caras se pule con abrasivo de 400 mallas, se lava y se seca, ya realizado esto se pega con resina epóxica  la roca al portaobjetos y se deja secar unos minutos al sol, ya seca se lleva a rebajar hasta un tamaño de 80 micras aproximadamente. Posteriormente se rebaja hasta el tamaño adecuado de entre 20 y 40 micras con abrasivo de 1000 y se controla el espesor mediante microscopio óptico. Ya teniendo la lámina delgada se analiza, describe y clasifica observándola en un microscopio óptico. Como última fase, se basa en la integración e interpretación de la información obtenida con la ya recabada para corroborar y/o modificar el mapa previamente creado.


CONCLUSIONES

El presente estudio y la metodología empleada demuestra la importancia de la cartografía como tal pero sobre todo, la relevancia que tienen los Sistemas de Información Geográficas (SIG); gracias a estas técnicas empleadas se ha logrado visualizar información geográfica de una forma sencilla y así lograr ajustar las edades de las formaciones, actualizar la columna estratigráfica del Distrito Minero de Guanajuato, de igual forma actualizar y añadir polígonos a trabajos previos existentes del área comprendida.
Schmerbitz Valdés David, Universidad de Guadalajara
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))


SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))

García Bon Miguel Ángel, Universidad de Guadalajara. Pérez Salvador Cinthya Paola, Tecnológico de Estudios Superiores de Tianguistenco. Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México. Sánchez Duarte Soraida, Universidad Estatal de Sonora. Schmerbitz Valdés David, Universidad de Guadalajara. Talamantes Herrera Ana Bertha, Universidad de Guadalajara. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cromo es un elemento metálico inodoro e insípido que forma parte de la corteza terrestre. También se encuentra en grandes cantidades en el aire, el agua, la tierra y los alimentos. Los compuestos de cromo hexavalente son un grupo de sustancias químicas que tiene propiedades beneficiosas, como resistencia a la corrosión, durabilidad y dureza. Estos compuestos se han usado en amplia medida como anticorrosivos y para fabricación de pigmentos, acabado de metales y cromados, producción de acero inoxidable, curtido de cueros y conservantes para madera. También se han usado en procesos de teñido en la industria textil, tintas de impresión, lodos de perforación, fuegos artificiales y síntesis de sustancias químicas. Los desechos, a su vez, son vertidos en cuerpos de agua, muchas veces los mismos sin un tratamiento adecuado para su liberación. El cromo es un contaminante ambiental de fácil dispersión y de gran importancia debido a su toxicidad. El cromo hexavalente está clasificado en el grupo 1 de cancerígenos con múltiples mecanismos complejos por los cuales la enfermedad puede ser desarrollada en diferentes zonas del cuerpo. En este verano de investigación se plantea la implementación de los HDLs como absorbentes de este contaminante, experimentando con variaciones en la síntesis de estos; añadiendo estructuras diversas y/o modificando las proporciones utilizadas en su reacción.



METODOLOGÍA

Se comenzó inicialmente con la síntesis de los HDLs. El primer día se procedía a hacer los cálculos prudentes para el pesado de las muestras para obtener al final HDLs con una masa aproximada de 5 g, para esto se utilizaron  y  en una proporción molar que variaba de muestra en muestra pero siempre manteniéndose en el rango de 1:2 - 1:3, siendo el compuesto de zinc el que siempre existía en mayor proporción. Si se daba el caso en el que se requiriera adicionarle además una estructura distinta para evaluar después su repercusión en la adsorción, se procedía a pesar también una cantidad significativa del reactivo, añadiendo también las sustancias necesarias para su buena dispersión; por ejemplo, en el caso de las nanofibras de carbono, se requería funcionalizarlas primero o adicionarle   algún surfactante (SDS), además de unas horas en sonicación. Todo era mezclado en agitación, una vez el reactivo anterior se percibía completamente disuelto, se agregaba el siguiente. Esto en un volumen de agua destilada no mayor a 300 mL. Una vez se alcanzaba la homogeneidad se procedía a adicionarle , el mismo era gradualmente añadido con ayuda de una probeta, como si de una titulación se tratase. El pH de la mezcla era monitorizado con ayuda de un potenciómetro, se buscaba idealmente obtener un pH final de 9, conseguido esto se dejaba en agitación constante por un periodo aproximado de 24 h. Para el segundo día, el objetivo cambiaba a, mediante lavados en centrifugación (10,000 rpm, por 5 min), disminuir el pH de la muestra hasta neutralizarlo. A su vez, el número de lavados variaba de muestra en muestra, algunos requiriendo simplemente 3 y otros más de 6. La manera en la que se realizaban era mediante la adición de agua destilada a los tubos de centrifugación conteniendo el volumen de la muestra y el posterior desecho del sobrenadante para la repetición del proceso. Una vez el objetivo era conseguido, los HDLs limpios y húmedos eran depositados en capsulas de porcelana para someterlos a un proceso de secado en una estufa, esto también durante aproximadamente 24 h. En el tercer día de la síntesis se retiraba del secado y se procedía a moler en un fino polvo con ayuda de un mortero. Para finalmente guardar en bolsitas de plástico. Realizando este procedimiento, y haciendo más de una muestra por día, se lograron obtener más de 20, las mismas siendo casi todas distintas. Para los análisis de adsorción se utilizó la técnica de la espectrofotometría Uv-visible, previamente se habían dejado individualmente en tubos por dos días cada una de las muestras (50 mg), cada tubo tenía un volumen de 20 mL de una disolución aproximada de 300 ppm de . Esto en un estado constante de agitación. Se retiraron, y se dejaron reposar para que el HDL precipitara. Cuando esto sucedió, se siguió el método estandarizado para la colorimetría en el análisis del cromo. Se realizaron otros análisis tales como la difracción de rayos x, el XPS y el SEM para la caracterización de las muestras, revelando información muy interesante, como que el procedimiento fue el adecuado por la limpieza de las muestras. Se realizó la misma experimentación con  revelando una presunta adsorción, la misma no siendo concluyente por la necesidad de darle mantenimiento al equipo.


CONCLUSIONES

De las muestras sintetizadas, las que contenían nanofibras de carbono sin SDS fueron las que adsorbieron en mayor medida. Gracias al análisis del XPS se pudo confirmar que debido a alguna interacción con el aluminio en su composición la adsorción podría llevarse a cabo, entre otras cosas. En este verano de investigación el aprendizaje fue muy grande y variado, nos familiarizamos con todos esos métodos de análisis, su fundamento y el cómo funcionaban. Desarrollamos más destreza en el laboratorio y en el trabajo en equipo, sin mencionar todo el conocimiento teórico detrás de una quizás síntesis sencilla. Aprendimos algunas otras metodologías, como es el caso de la funcionalización de estructuras de carbono, la colorimetría del cromo, del Flúor además de cómo funciona la investigación de manera generalizada. El proyecto deja muchas cosas y datos con los cuales se podría trabajar, análisis que extras que podrían revelar información muy valiosa. Y una pregunta al aire, por la cual esta idea surgió. ¿Podrán adsorber PCBs?   https://www.sciencedirect.com/science/article/pii/S2468202019300294 https://www.sciencedirect.com/science/article/pii/B9780444594532000330 https://www.cancer.gov/espanol/cancer/causas-prevencion/riesgo/sustancias/cromo  
Segura Hernandez Jesus Alberto, Universidad Autónoma de Guerrero
Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua

ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.


ESTIMACIóN DE RECARGA POTENCIAL DE ACUíFEROS, DETERMINACIóN DE BALANCE HIDROLóGICO Y ANáLISIS DE DATOS CLIMáTICOS.

Colín Carreño Manuel Alejandro, Universidad Autónoma de Guerrero. Constantino Rios Brian Alexis, Universidad de Ciencias y Artes de Chiapas. Díaz Estrada Jesús Ulises, Universidad Autónoma de Guerrero. Martínez Díaz Ronaldo Daniel, Universidad de Ciencias y Artes de Chiapas. Morales Hernández Elifas Constantino, Universidad de Ciencias y Artes de Chiapas. Segura Hernandez Jesus Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Roel Simuta Champo, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es un componente esencial del ambiente puesto que se considera el factor principal que controla el estatus de salud tanto en humanos como en la biota en general (Kazi et al. 2009). El agua subterránea, después de los glaciares es la principal reserva de agua dulce para consumo humano, después representado aproximadamente el 30% del agua dulce del mundo. Sin embargo el crecimiento demográfico, que provoca el aumento de la marcha urbana, así como los cambios en la cobertura del uso de suelo, la sobreexplotación del recurso hídrico y la variabilidad climática, se han convertido en una fuerte amenaza para la recarga potencial de agua subterránea, lo que nos podría encaminar al agotamiento del agua subterránea. La cuenca del rio Sabinal en el estado de Chiapas es un caso particular para analizar la incidencia que tiene el desarrollo urbano de los municipios de Tuxtla Gutierrez y Berriozabal, así, como los cambios de cobertura vegetal; en la recarga potencial de agua subterránea.



METODOLOGÍA

Se realizó una revisión bibliográfica de diferentes estudios previos sobre la estimación de la recarga potencial de agua subterránea (estado del arte), se obtuvieron datos edafológicos y de uso y cobertura del suelo en archivos shp. Así como imágenes satelitales, modelos de elevación digital, y datos meteorológicos del área de estudio para tres años aleatorios (1990, 2000, 2010). Los archivos se obtuvieron de diferentes plataformas virtuales como INEGI, GEOWEB Chiapas, USGS, Alos Palsar, y del Servicio Meteorológico Nacional. Toda la información se analizó, y se homologó a un mismo sistema de referencia espacial (WGS 84 UTM Z 15). Los archivos shp. de edafología se editaron agregándoles más variables dentro de la tabla de atributos como son el grupo hidrológico, y capacidad de retención de agua. Para poderlos convertir a archivos ráster y estos convertirlos a un código ASCII. Del modelo de elevación digital de Alos Palsar se obtuvo un mapa de direcciones de flujo. De las variables meteorológicas se realizó una interpolación diaria para los tres años con ayuda de la técnica kriging, esto último con ayuda del lenguaje de programación Python, las interpolaciones se obtuvieron en formato Netcdf. Por último se espera estimar la recarga potencial de agua subterránea, con ayuda del modelo Soil Water Balance (SWB) del servicio geológico de los estados unidos, el cual realiza un balance hidrológico en formato ráster por lo que los archivos de entrada para poder trabajar con el modelo deben estar dados en formato Netcdf, y código ASCII. Todo esto para poder realizar una evaluación sobre cómo ha afectado el crecimiento urbano y los cambios de cobertura vegetal en la recarga potencial de agua subterránea.


CONCLUSIONES

Con ayuda de la teledetección y la técnica de fotointerpretación, se visualizó el crecimiento constante de la infraestructura urbana, en un periodo comprendido del año 1990 al 2010, lo cual incide en la recarga potencial de agua subterránea, debido al efecto impermeabilizante que propicia una menor infiltración, así mismo, el crecimiento poblacional ocasiona cambios en la cobertura vegetal y uso del suelo, lo que altera el ciclo hidrológico. Se espera estimar la recarga potencial de agua subterránea con ayuda del software antes mencionado y de todos los datos previamente recolectados y analizados.
Silva Diaz Bernardo, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Mayra Zyzlila Figueroa Torres, Universidad Autónoma de Nuevo León

OBTENCIÓN DE RECUBRIMIENTOS DE ZNO Y CU A PARTIR DE ELECTROLESS CON ACTIVIDAD ANTIBACTERIAL


OBTENCIÓN DE RECUBRIMIENTOS DE ZNO Y CU A PARTIR DE ELECTROLESS CON ACTIVIDAD ANTIBACTERIAL

Silva Diaz Bernardo, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Mayra Zyzlila Figueroa Torres, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La incorporación de nanomateriales (Nanotubos, nanoóxidos metálicos) en sustratos (cementantes y de vidrio) para el desarrollo de materiales avanzados es una gran área de investigación y de aplicación hoy en día. La creación de estos materiales avanzados y la necesidad de incrementar la eficiencia energética en las edificaciones y al mismo tiempo presenten propiedades de autolimpieza (antibacteriales e hidrofóbicas) tienen un gran impacto en la sociedad, por lo tanto, la síntesis de nanopartículas de VO2 por método hidrotermal como sistema de almacenamiento térmico y los recubrimientos de Cu y ZnO por el método electroless para propiedades antimicrobianas, abarcarían y compensarían los objetivos planteados.



METODOLOGÍA

Nanopartículas de VO2 por método hidrotermal: Se solubilizó pentóxido de vanadio en agua destilada por 10 minutos, posteriormente, se agregó peróxido de hidrógeno y se dejó en agitación por 3 horas, subsecuentemente, se adicionó hidrazina y se agitó por 15 minutos. Por último, se utilizó un reactor hidrotermal y se dejó la solución a 220 ºC por 24 horas. Una vez sintetizado, se caracterizaron las nanopartículas de óxido de Vanadio por Differential Thermal Analysis (DTA) y X-Ray Difracction (XRD).   Recubrimientos de Cu y ZnO por método electroless: Se realizaron varios depósitos sobre sustratos de vidrio y sobre sustratos base cemento. Los sustratos se limpiaron y prepararon para evitar problemas durante los pretratamientos; se introdujeron en soluciones de estaño (Sn) y paladio (Pd) para la creación de un sistema de anclaje en la superficie del sustrato, una vez efectuados los baños en Sn y Pd se metieron en una solución de alcohol etílico y por último la deposición en soluciones separadas de Cu y ZnO a temperaturas de 50, 60 y 70 ºC en tiempos de depósito de 5 a 30 minutos.


CONCLUSIONES

Se obtuvo la fase deseada del VO2 en la cual existe un cambio de fase reversible de sus polimorfos (monoclínico a rutilo) a bajas temperaturas (59 ºC) el cual absorbe y libera energía en forma de calor. El método electroless resultó ser un método bastante efectivo, ya que, este método es un proceso autocatalítico donde donde la deposición de los iones metálicos sobre la superficie del sustrato no requiere de energía eléctrica; existe una buena homogeneidad del recubrimiento sobre el sustrato y una buena adherencia. Se les realizaron pruebas antimicrobianas a los sustratos (vidrio y base cemento) recubiertos por Cu y ZnO, de los cuales, los sustratos recubiertos por ZnO nos dieron respuesta antibacterial.
Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
Solis Remigio Roshana Yoselin, Universidad Autónoma del Estado de México
Asesor: Mtro. Yuritzi Llamas Mangin, Universidad Autónoma de Tamaulipas

ESTRATEGIA EN LA ADAPTACIóN AL CAMBIO CLIMáTICO: GESTIóN AMBIENTAL EN PYMES Y RESPONSABILIDAD SOCIAL NUEVO LAREDO 2019


ESTRATEGIA EN LA ADAPTACIóN AL CAMBIO CLIMáTICO: GESTIóN AMBIENTAL EN PYMES Y RESPONSABILIDAD SOCIAL NUEVO LAREDO 2019

Castillo Muñoz Maricarmen, Universidad Autónoma de Tamaulipas. Solis Remigio Roshana Yoselin, Universidad Autónoma del Estado de México. Asesor: Mtro. Yuritzi Llamas Mangin, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Actualmente muchas pequeñas empresas desconocen aspectos importantes de su desarrollo empresarial que generan un gran impacto ambiental y descuidan el manejo de sus residuos y la eficiencia en el consumo de los recursos, lo cual es un aspecto que puede ser analizado y trabajado como parte de las funciones que la Universidad tiene para con la sociedad. A través de estrategias de vinculación como la Responsabilidad Social Universitaria, de parte de la Universidad Autónoma de Tamaulipas a la par de la Facultad de Comercio, Administración y Ciencias Sociales. La vinculación de la universidad representa una gran oportunidad de aprendizaje y capacitación a estudiantes en temas como la gestión y la responsabilidad social. Temas que al ser aplicados en materia de protección ambiental, promueven estrategias de adaptación al cambio climático y la alineación de acciones con los objetivos de la Agenda 2030.



METODOLOGÍA

La investigación se realiza con base en la delimitación de un sitio de estudio alrededor de la Facultad. El cual comprende las PyMES, áreas verdes y escuelas en la colonia Infonavit y ejido concordia. En el sitio seleccionado se realizó la aplicación de una entrevista semi estructurada con la finalidad de determinar la disponibilidad de la empresa a participar en un proceso de asesoría y el trueque de asumir políticas amigables con el medio ambiente a cambio de ser capacitado por la facultad con el apoyo del área de especialidad de las carreras.


CONCLUSIONES

Como parte de la implementación del trabajo de campo, se aplicaron 70 entrevistas a negocios de diferentes características como estéticas, vulcanizadoras, tiendas de abarrotes, papelerías, farmacias, club nutricional, entre otros. Estos establecimientos a través de su trayectoria no han participado en un proceso de capacitación como tal. Sin embargo, pueden compartir experiencias y actualizar muchos de sus procesos. En este proceso la RSU es una herramienta que es importante desarrollar con el apoyo de docentes y alumnos. Por lo que con base en la información recuperada por las entrevistas se puede desarrollar una guía que seriá una serie de instrucciones que describan el proceso de interacción de la universidad con las empresas al implementar un proceso de interacción para identificar las necesidades o la problemática. La Universidad, tiene la capacidad de ofrecer servicio de capacitación y asesoría a las empresas, con lo que ofrece un campo de oportunidad de servicio y voluntariado para que el estudiante se involucre en las necesidades reales del sector empresarial en pequeña escala, pero el cual lo acerca a la posibilidad de ayudar a la comunidad, aprender y observar los pasos para desarrollar habilidades de emprendimiento. La estrategia de implementar la gestión ambiental como sistema de truque es con la finalidad de promover el consumo responsable de las PyMES y generar una conciencia en alumnos y el sector productivo para disminuir el impacto ambiental y trabajar en equipo por la adaptación al cambio climático y alcanzar los objetivos internacionales de la Agenda 2030 como la capacitación constante, la producción eficiente y de bajo impacto, así como la conservación ambiental con la intención de mejorar la calidad ambiental de Nuevo Laredo.  
Soto Soto Paloma Jael, Universidad de Sonora
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

CONSTRUCCIóN Y CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS TIPO RPC


CONSTRUCCIóN Y CARACTERIZACIóN DE UN DETECTOR DE PARTíCULAS TIPO RPC

Morales Olmos José Eduardo, Universidad Veracruzana. Soto Soto Paloma Jael, Universidad de Sonora. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los experimentos a altas energías realizados en el CERN (European Organization for Nuclear Research) ubicado en Ginebra, tienen como objetivo el estudio de los constituyentes de la materia y de las fuerzas fundamentales con las que interaccionan. Actualmente existe una búsqueda continua para la evidencia de partículas súper simétricas que podrían dar explicación a la materia oscura que necesita el modelo cosmológico actual, además de las extensiones al modelo estándar de partículas. El detector de partículas gaseoso denominado Resistive Plate Chamber (RPC) tiene una importancia muy grande en el avance científico a nivel mundial, gracias a las propiedades que posee y de la gran capacidad de adaptación experimental en diferentes áreas. El experimento CMS del CERN se utiliza en la detección y determinación de la trayectoria de muones alcanzando eficiencias de hasta el 97%. Sin embargo, el tema de investigación sigue en discusión con respecto a la optimización del detector, llegando a alcanzar tiempos de respuestas más rápidos y eficiencias mayores. Por lo que en este verano se dio a la tarea de realizar la construcción de un RPC para el estudio de los detectores de partículas modernos (una innovación para ACORDE de ALICE) y su aplicación en proyectos internacionales



METODOLOGÍA

Para la construcción de un detector de particulas tipo RPC se realizó el siguiente proceso: Marco y tapas: Se cortaron dos placas de acrílico de 22.5 cm por lado y se realizó el corte y construcción de un marco de acrílico con un ligero surco interior de 1mm de profundidad, esto con el fin de que la placa encaje de manera correcta al momento de pegarlo, a dicha placa se le hacen orificios en donde se conectaran las tomas de gas y los cables de alto voltaje. Pintura e instalación de electrodos: Se seleccionaron 3 placas de vidrio de las cuales a dos de ellas les agregaremos la instalación del electrodo ocupando cinta aislante de cobre y banda de película Polyiamide de baja estaticidad. Después se procedió a pintar las placas con una pintura resistiva, utilizando una pistola de aire y una compresora de aire, dejando un borde de 5 mm sin pintar en cada lado, la función de la pintura es crear el campo eléctrico. Se colocó de la misma manera alrededor del vidrio una pintura de plata, la cual nos ayudara a conservar el campo eléctrico en el interior de la placa de vidrio, procedemos a pintar nuevamente con la pintura resistiva y dejamos secar. Ensamble del detector: Se procede a pegar una de las placas de acrílico al marco, utilizando resina de fibra de vidrio. Una vez pegado procederemos a montar uno de los vidrios ya pintados de tal forma que la pintura resistiva este en contacto con la placa de acrílico y ayudándonos de unos espaciadores hechos de PLA (Polylactic Acid) acomodamos la placa de manera que esta quede fija en el interior. Se coloca el primer GAP ayudándonos de hilo para pescar de 1 mm de diámetro y soldando las correspondientes conexiones de alto voltaje del RPC para generar el campo dentro de este. Sobre este colocar el vidrio que se encuentra libre de pintura procurando que el hilo de pescar y los espaciadores permiten el libre flujo del gas con el cual se va a llenar el RPC y direccionándolo a su salida y entrada correspondiente. Ya hecho esto colocaremos el otro vidrio con el lado de la pintura viendo hacia afuera. Aseguraremos todo en el interior y cerraremos colocaremos la otra tapa de acrílico para cerrar el RPC y de nuevo utilizaremos la resina de fibra de vidrio y colocando un peso considerable encima de tal manera que obtengamos un sellado correcto y que el gas no vaya en otra dirección que no sea la establecida y dejaremos secar el un día entero o hasta notar que la resina ha endurecido. Una vez construido el RPC y que este se haya secado y pegado de manera correcta procederemos a limpiar el interior con Argón. El Argón es usualmente utilizado debido a que es altamente ionizable y su costo es bajo. Conectaremos el gas a las tomas de entrada y salida del gas y una vez hecho esto dejaremos que este se limpie por un día entero. Una vez hecho esto procederemos a medir las características de nuestro RPC con el uso de una fuente de alto voltaje y ahora en lugar de usar argón ocuparemos el Freón el cual es un gas cuyas características son igual de deseables que el argón puro, dada al nivel de ionización que posee, con la diferencia de que este es un poco más caro, a costo de un mejor rendimiento. También procederemos a montar el RPC dentro de una caja de metal cuya función es aislar el detector de cualquier tipo de ruido que se pueda meter debido al alto voltaje. Comenzaremos a medir las características de nuestro RPC. Empezaremos midiendo la resistividad del detector, conectando las terminales de alto voltaje del RPC a la fuente y haciendo que el gas circule de manera correcta. Iremos registrando el consumo de corriente y el voltaje utilizado. Ya hecho esto procederemos a medir la cantidad de partículas que pasan por el RPC, para esto nos ayudaremos de una contadora de partículas, en la cual irán conectados los canales del RPC con ayuda de un cable de respuesta de 5 ns, e iremos variando ambos canales de alto voltaje para apreciar la curva.


CONCLUSIONES

Debido al tiempo del cual se dispuso, no fue posible terminar de caracterizar el detector. Dado que aún faltaba la caracterización usando los PMT, la resolución espacial y temporal del detector, sin embargo, pudimos verificar que el detector construido cumple las expectativas que antes habíamos planteado, siendo bien portado en los datos que recolecta y en los valores separados para que este sea lo más eficiente posible. Podemos concluir que el desarrollo, construcción y caracterización de un RPC es un proceso complejo, el cual involucra la ayuda de muchas personas a nivel internacional para la optimización del diseño, del funcionamiento y de la eficiencia del mismo. Esto con el fin de llegar a explorar lugares inexplorados en la física, estos detectores usualmente se ocupan en la detección de muones, los cuales van a ser implementados a mayor escala en los proyectos tales como el espectrómetro de muones delantero de ALICE (un experimento de gran colisionador de iones). Estos detectores son de vital importancia en el avance científico mundial y en la aplicación de estos a otras ramas tales como la medicina.
Talamantes Herrera Ana Bertha, Universidad de Guadalajara
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))


SíNTESIS DE HIDRóXIDOS DOBLES LAMINARES (HDLS) INTEGRANDO ESTRUCTURAS DE CARBONO PARA LA ADSORCIóN DE SUSTANCIAS NOCIVAS; CROMO (〖CR〗^(6+))

García Bon Miguel Ángel, Universidad de Guadalajara. Pérez Salvador Cinthya Paola, Tecnológico de Estudios Superiores de Tianguistenco. Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México. Sánchez Duarte Soraida, Universidad Estatal de Sonora. Schmerbitz Valdés David, Universidad de Guadalajara. Talamantes Herrera Ana Bertha, Universidad de Guadalajara. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cromo es un elemento metálico inodoro e insípido que forma parte de la corteza terrestre. También se encuentra en grandes cantidades en el aire, el agua, la tierra y los alimentos. Los compuestos de cromo hexavalente son un grupo de sustancias químicas que tiene propiedades beneficiosas, como resistencia a la corrosión, durabilidad y dureza. Estos compuestos se han usado en amplia medida como anticorrosivos y para fabricación de pigmentos, acabado de metales y cromados, producción de acero inoxidable, curtido de cueros y conservantes para madera. También se han usado en procesos de teñido en la industria textil, tintas de impresión, lodos de perforación, fuegos artificiales y síntesis de sustancias químicas. Los desechos, a su vez, son vertidos en cuerpos de agua, muchas veces los mismos sin un tratamiento adecuado para su liberación. El cromo es un contaminante ambiental de fácil dispersión y de gran importancia debido a su toxicidad. El cromo hexavalente está clasificado en el grupo 1 de cancerígenos con múltiples mecanismos complejos por los cuales la enfermedad puede ser desarrollada en diferentes zonas del cuerpo. En este verano de investigación se plantea la implementación de los HDLs como absorbentes de este contaminante, experimentando con variaciones en la síntesis de estos; añadiendo estructuras diversas y/o modificando las proporciones utilizadas en su reacción.



METODOLOGÍA

Se comenzó inicialmente con la síntesis de los HDLs. El primer día se procedía a hacer los cálculos prudentes para el pesado de las muestras para obtener al final HDLs con una masa aproximada de 5 g, para esto se utilizaron  y  en una proporción molar que variaba de muestra en muestra pero siempre manteniéndose en el rango de 1:2 - 1:3, siendo el compuesto de zinc el que siempre existía en mayor proporción. Si se daba el caso en el que se requiriera adicionarle además una estructura distinta para evaluar después su repercusión en la adsorción, se procedía a pesar también una cantidad significativa del reactivo, añadiendo también las sustancias necesarias para su buena dispersión; por ejemplo, en el caso de las nanofibras de carbono, se requería funcionalizarlas primero o adicionarle   algún surfactante (SDS), además de unas horas en sonicación. Todo era mezclado en agitación, una vez el reactivo anterior se percibía completamente disuelto, se agregaba el siguiente. Esto en un volumen de agua destilada no mayor a 300 mL. Una vez se alcanzaba la homogeneidad se procedía a adicionarle , el mismo era gradualmente añadido con ayuda de una probeta, como si de una titulación se tratase. El pH de la mezcla era monitorizado con ayuda de un potenciómetro, se buscaba idealmente obtener un pH final de 9, conseguido esto se dejaba en agitación constante por un periodo aproximado de 24 h. Para el segundo día, el objetivo cambiaba a, mediante lavados en centrifugación (10,000 rpm, por 5 min), disminuir el pH de la muestra hasta neutralizarlo. A su vez, el número de lavados variaba de muestra en muestra, algunos requiriendo simplemente 3 y otros más de 6. La manera en la que se realizaban era mediante la adición de agua destilada a los tubos de centrifugación conteniendo el volumen de la muestra y el posterior desecho del sobrenadante para la repetición del proceso. Una vez el objetivo era conseguido, los HDLs limpios y húmedos eran depositados en capsulas de porcelana para someterlos a un proceso de secado en una estufa, esto también durante aproximadamente 24 h. En el tercer día de la síntesis se retiraba del secado y se procedía a moler en un fino polvo con ayuda de un mortero. Para finalmente guardar en bolsitas de plástico. Realizando este procedimiento, y haciendo más de una muestra por día, se lograron obtener más de 20, las mismas siendo casi todas distintas. Para los análisis de adsorción se utilizó la técnica de la espectrofotometría Uv-visible, previamente se habían dejado individualmente en tubos por dos días cada una de las muestras (50 mg), cada tubo tenía un volumen de 20 mL de una disolución aproximada de 300 ppm de . Esto en un estado constante de agitación. Se retiraron, y se dejaron reposar para que el HDL precipitara. Cuando esto sucedió, se siguió el método estandarizado para la colorimetría en el análisis del cromo. Se realizaron otros análisis tales como la difracción de rayos x, el XPS y el SEM para la caracterización de las muestras, revelando información muy interesante, como que el procedimiento fue el adecuado por la limpieza de las muestras. Se realizó la misma experimentación con  revelando una presunta adsorción, la misma no siendo concluyente por la necesidad de darle mantenimiento al equipo.


CONCLUSIONES

De las muestras sintetizadas, las que contenían nanofibras de carbono sin SDS fueron las que adsorbieron en mayor medida. Gracias al análisis del XPS se pudo confirmar que debido a alguna interacción con el aluminio en su composición la adsorción podría llevarse a cabo, entre otras cosas. En este verano de investigación el aprendizaje fue muy grande y variado, nos familiarizamos con todos esos métodos de análisis, su fundamento y el cómo funcionaban. Desarrollamos más destreza en el laboratorio y en el trabajo en equipo, sin mencionar todo el conocimiento teórico detrás de una quizás síntesis sencilla. Aprendimos algunas otras metodologías, como es el caso de la funcionalización de estructuras de carbono, la colorimetría del cromo, del Flúor además de cómo funciona la investigación de manera generalizada. El proyecto deja muchas cosas y datos con los cuales se podría trabajar, análisis que extras que podrían revelar información muy valiosa. Y una pregunta al aire, por la cual esta idea surgió. ¿Podrán adsorber PCBs?   https://www.sciencedirect.com/science/article/pii/S2468202019300294 https://www.sciencedirect.com/science/article/pii/B9780444594532000330 https://www.cancer.gov/espanol/cancer/causas-prevencion/riesgo/sustancias/cromo  
Tapia Flores Karen Miriel, Universidad Veracruzana
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

ANáLISIS DECADAL DE TENDENCIA DEL NIVEL DEL MAR EN EL PACíFICO MEXICANO CENTRAL.


ANáLISIS DECADAL DE TENDENCIA DEL NIVEL DEL MAR EN EL PACíFICO MEXICANO CENTRAL.

Tapia Flores Karen Miriel, Universidad Veracruzana. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal del trabajo fue comprobar la hipótesis del aumento en el nivel del mar para las costas mexicanas, concretamente para la región central de la vertiente del Pacífico. A razón de que no se cuenta con una red mareográfica completa y pública este tipo de estudios no se había realizado con anterioridad. Se busca establecer un valor numérico para la tendencia con base a los escenarios de aumento propuestos por el IPCC y que este trabajo sirva como referencia para la toma de decisiones posteriores.



METODOLOGÍA

Se obtuvieron datos de tres estaciones mareográficas las cuales fueron consideradas como el área determinada "Pacífico Mexicano Central" estas estaciones son: Manzanillo, Mazatlán y Puerto Vallarta. El pronóstico fue tratado como señal de marea y se acomodó en el mismo formato que los registros. Se realizaron diferencias entre la observación (SEMAR) y la señal de marea (CICESE) para obtener el ruido, finalmente este resultado se graficó para visualizar una tendencia. A la gráfica se le añadió una línea de tendencia con su correspondiente ecuación, cuya pendiente representa el aumento buscado en estos 10 años. Se agregó por último una media móvil para visualizar mejor los datos a lo largo del periodo.


CONCLUSIONES

Tras graficar, analizar y disctutir los resultados se puede apreciar un ligero pero constante aumento en el nivel del mar de las tres estaciones, siendo este menor hacia el sur del país y mayor hacia el norte. El aumento pertenece al intervalo estimado al inicio del trabajo, siendo congruente con los datos brindados por el IPCC. El mayor aumento se presentó en Mazatlán con 2.5 mm al año, seguido de Puerto Vallarta con 1.8 mm y por último el valor menor se dió en Manzanillo con 0.48 mm de aumento. Se recomienda realizar el mismo trabajo para una escala más local y con puntos menos espaciados entre sí para que factores como la orografía no jueguen un papel importante en el resultado. 
Tejero Vidal Pablo Antonio, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Octavio Jose Obregon Diaz, Universidad de Guanajuato

SOLUCIONES DE AGUJEROS NEGROS CARGADOS PARA UNA TEORíA DE GRAVEDAD ACOPLADA A ELECTRODINáMICA NO LINEAL


SOLUCIONES DE AGUJEROS NEGROS CARGADOS PARA UNA TEORíA DE GRAVEDAD ACOPLADA A ELECTRODINáMICA NO LINEAL

Tejero Vidal Pablo Antonio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Octavio Jose Obregon Diaz, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los agujeros negros son un tema de estudio importante en la física relativista y gravitación, después de que se propusiera la existencia de éstos a finales del siglo XVIII por John Michell y Pierre-Simon Laplace no fue hasta que se encontró la primera solución de relatividad moderna capaz de caracterizar estos entes a mano de Karl Schwarzschild en 1916 que hemos sido capaces de estudiar agujeros negros de manera eficaz, al menos teóricamente. A lo largo de 100 años de estudio la sociedad científica ha sido capaz de desentrañar varias propiedades de estos entes lo que nos ha permitido clasificarlos, dependiendo de las propiedades del agujero negro (masa, momento angular, carga) este tendrá asociada una métrica distinta. La métrica del agujero negro nos permite conocer la geometría del espacio-tiempo pues este se deforma en presencia del agujero negro, al conocer esta geometría podemos estudiar diversos fenómenos, desde cualidades intrínsecas del agujero negro como su horizonte de eventos y las singularidades. Este trabajo tiene como propósito encontrar las soluciones para la métrica de un agujero negro con masa y carga, el cual tiene asociada en principio una métrica del tipo Reissner-Nordstrom, en este caso con la particularidad de la adición de una teoría de electrodinámica no lineal (Born-Infeld) que en principio busca eliminar las divergencias que surgen al calcular la energía propia de una carga al introducir un limite superior al campo eléctrico en el origen.



METODOLOGÍA

Con tal de estudiar la métrica de este tipo de agujeros negros es necesario entender de primera mano la matemática involucrada, específicamente el calculo tensorial básico, por ello se llevó a cabo un breve repaso de las diversas propiedades del cálculo tensorial, así como su uso en relatividad general, a su vez se realizo una breve revisión de las ecuaciones de campo de Einstein y las ecuaciones de Maxwell para campo electromagnético. Una vez que se tenían claros los conceptos básicos se procedió a encontrar las soluciones para la métrica de un espacio-tiempo en la presencia de una partícula aislada simétricamente esférica, para esto partimos de una métrica con factores exponenciales con dependencia radial para las componentes temporal y radial dejando las componentes angulares en su forma original, a partir de esta métrica se calculan las componentes del tensor de Ricci para posteriormente hacer una contracción total del mismo y obtener el escalar de Ricci, también conocido como escalar de curvatura ambos entes constituyen en esencia las ecuaciones de campo de Einstein, para esta primera parte se resuelven para el caso homogéneo, es decir, cuando la parte izquierda de las ecuaciones es igual a cero. Después del análisis matemático correspondiente se encuentra la solución para esta métrica particular conocida como métrica de Schwarzschild y en general caracteriza a un agujero negro con masa, sin momento angular y sin carga. Para la segunda parte se considera una partícula con masa y carga eléctrica, se calcula la solución para una métrica similar a la de Schwarzschild pero con la diferencia de que las funciones que acompañan al elemento temporal y al elemento radial no tienen una forma particular, simplemente son funciones del radio r, se procede de forma similar calculando las componentes distintas de cero del tensor de Ricci y el escalar de curvatura derivado del mismo para este caso particular, posteriormente se calculan las soluciones de las ecuaciones de campo de Einstein no homogéneas, al contrario de las ecuaciones para el caso Schwarzschild el lado derecho de las ecuaciones de Einstein lo ocupa el tensor de energía momento asociado al campo electromagnético de la partícula, a estas soluciones se les conoce como soluciones para agujero negro de Schwarzschild cargado o bien soluciones de Reissner-Nordstrom. Con estas herramientas se procede a calcular las soluciones para un agujero negro similar al caso Reissner-Nordstrom pero ahora con la particularidad de que en lugar de tener acoplada una teoría de electrodinámica usual se procede con una teoría de electrodinámica no lineal (Born-Infeld), la métrica para este caso es similar al caso Schwarzschild pues las componentes temporal y radial contienen un término exponencial con la diferencia de que ahora carecen de un factor de 2 en la exponencial, se procede de la misma forma que en los dos casos anteriores, sin embargo se notará enseguida que las ecuaciones de campo obtenidas tienen un par de términos extra originados a partir del equivalente al tensor de energía momento para el caso Born-Infeld que lleva explícitos los términos de la lagrangiana correspondiente así como derivadas parciales de la misma. Finalmente al desarrollar los cálculos pertinentes se obtiene una expresión para el factor exponencial de la métrica aquí es importante notar que la solución depende explícitamente de una integral respecto a la coordenada radial de la lagrangiana y sus derivadas parciales, al resolver para ciertos valores de los parámetros a y b implícitos en la lagrangiana es posible estudiar el comportamiento de la métrica del agujero negro y por ende conocer las propiedades del mismo como sus singularidades y horizontes de eventos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos generales sobre calculo tensorial y relatividad general, así como el desarrollo práctico de los mismos, esto es de gran importancia en el desarrollo de los estudiantes de física. Es importante mencionar también que se trabajó con una teoría relativamente nueva que presenta formas bastante creativas de resolver problemas que se presentan en la física moderna, esto ofrece a los estudiantes una visión actual del trabajo existente en el área de relatividad general, astrofísica, gravitación entre otras áreas afines, además de que el trabajar con este tipo de teorías provee al alumno de herramientas que difícilmente le son proporcionadas en nivel licenciatura.
Terán Uribe Magdalena, Universidad de Guadalajara
Asesor: Dr. Johan Manuel Redondo Ortegón, Universidad Católica de Colombia (Colombia)

ANáLISIS DE SOSTENIBILIDAD DE UNA PROPUESTA DE APROVECHAMIENTO INTEGRAL DE RESIDUOS ORGáNICOS EN LA ZONA METROPOLITANA DE GUADALAJARA


ANáLISIS DE SOSTENIBILIDAD DE UNA PROPUESTA DE APROVECHAMIENTO INTEGRAL DE RESIDUOS ORGáNICOS EN LA ZONA METROPOLITANA DE GUADALAJARA

Espinosa Ozuna Lady Azucena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Terán Uribe Magdalena, Universidad de Guadalajara. Asesor: Dr. Johan Manuel Redondo Ortegón, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Las industrias producen grandes cantidades de desechos. En las zonas urbanas aproximadamente se producen 1.3 millones de t/año siendo un 46\% residuos orgánicos (Porras, 2016). Bajo el marco de la Economía Azul, el aprovechamiento de los residuos orgánicos resolvería problemas ambientales y sociales, además de crear empleos.  Los residuos orgánicos son desechos biodegradables de origen vegetal o animal, se componen naturalmente y tienen la propiedad de poder desintegrarse o degradarse rápidamente, transformándose en otra materia orgánica, susceptible de ser aprovechada energéticamente (Jaramillo, 2008). La adecuada gestión de los residuos orgánicos es fundamental y necesaria para garantizar un adecuado tratamiento y contribuir así, al ahorro de energía y emisiones de gases de efecto invernadero. Se entiende por destino final de los residuos al conglomerado de acciones orientadas a su eliminación o su aprovechamiento (Sierra, 2010). En este contexto, se ha propuesto como pregunta de investigación del trabajo desarrollado la siguiente: ¿Cuál es la sostenibilidad de una propuesta de aprovechamiento integral de residuos orgánicos en la Zona Metropolitana de Guadalajara? En la pregunta de investigación propuesta debe entenderse la sostenibilidad como ha sido definida en (Herman E. Daly, 1995) que enmarca la sostenibilidad como un desarrollo económico, ambiental y social. Al desarrollar la propuesta de aprovechamiento integral se busca obtener beneficios para la sociedad además de beneficios ambientales, en dicha propuesta el objetivo no fue únicamente tener beneficios económicos de los residuos orgánicos, es por ello que se crearon planes de oportunidades.



METODOLOGÍA

Utilizando el marco de la economía azul, se planteó un plan de aprovechamiento integral de los desechos orgánicos. El plan de aprovechamiento involucró la recepción de residuos orgánicos provenientes de la plaza de mercado, los residuos de las hogares, las tequileras y las maleza del bosque primavera, los cuales generan materia orgánica en descomposición, con el que, separando los residuos cítricos, se puede crear un  biodetergente y, adicionalmente, se puede producir compost, que permite la reforestación, la cual, se dará a través del bambú, para la utilización de material de construcción de colegios y de papel. La materia orgánica en descomposición, a su vez, por medio de un biodigestor, permite la elaboración de biocombustible y energía. Al juntar todas estas innovaciones se obtiene un plan de oportunidades que entreteje planes de negocios para el beneficio común de la región. Cada una de las líneas de negocio y la manera como se entretejen para dar lugar al plan de oportunidades que constituye la propuesta integral de aprovechamiento de residuos para la zona Metropolitana de Guadalajara fue representada a través de la Dinámica de Sistemas, siguiendo la metodología propuesta por (Aracil, 1995). De este modo, se obtuvo un diagrama de niveles y flujos que fue implementado en el software libre Vensim PLE 7.3.5, utilizando el método numérico Runge-Kutta 4 automático con tamaños de paso de 0,0625. Las simulaciones se realizaron para dos escenarios denominados Business As Usual BAU y Business As Vision BAV, cada uno de los cuales representaba el escenario en el que no se realizaba ninguna implementación y el escenario en el que se implementaba el plan de aprovechamiento integral propuesto, respectivamente. A partir de las simulaciones se realizaron comparaciones sobre los indicadores de sostenibilidad definidos, los cuales fueron: rentabilidad, empleo, secuestro de carbono y cantidad de residuos sólidos. De la comparación se obtuvieron las conclusiones sobre los beneficios, contra-beneficios.


CONCLUSIONES

Para la definición de un arreglo social, económico y ambiental de una propuesta de aprovechamiento integral, en el marco de la Economía Azul, se entretejieron diferentes innovaciones sobre los residuos orgánicos, las cuales fueron implementadas en una cascada de valor de la propuesta, llegándose a la conclusión que, el arreglo seleccionado daba lugar a múltiples beneficios ambientales, sociales y económicos. Para desarrollar un modelo matemático para la evaluación sistémica, se siguió la metodología de la Dinámica de Sistemas, vea (Aracil, 1995), de donde se obtuvo un sistema de ecuaciones diferenciales ordinarias de primer orden, representado a través de un diagrama de niveles y flujos. Se concluye que la Dinámica de Sistemas es la metodología más adecuada para la representación de este tipo de sistemas al permitir, no solo entretejer todos los aspectos sociales, económicos y ambientales, sino también, la revisión de su comportamiento en el tiempo. Para calcular los beneficios y contra-beneficios financieros, sociales y ambientales de la propuesta, se evaluó el sistema en los escenarios Business As Usual (BAU) y Business As Vision (BAV), comparando simulaciones preliminares. Se concluye, a partir de los resultados preliminares, que la propuesta de aprovechamiento integral de residuos orgánicos realizada para la Zona Metropolitana de Guadalajara, no solamente es más viable que la BAU, sino que también produce sostenibilidad.  
Tobal Cupul Jessica Guadalupe, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara

ANáLISIS DE ISLA URBANA DE CALOR EN PUERTO VALLARTA DE 2017 AL 2019


ANáLISIS DE ISLA URBANA DE CALOR EN PUERTO VALLARTA DE 2017 AL 2019

Tobal Cupul Jessica Guadalupe, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Fatima Maciel Carrillo González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La isla urbana de calor (UHI, por sus siglas en inglés) se define como la diferencia de temperatura (del aire) entre las áreas urbanas y sus alrededores, las cuales son provocadas por el grado de urbanización y la actividad humana y cuyas condiciones tienen que ver con factores propios del lugar tal como sus condiciones climáticas.  La UHI genera problemas relacionados con la salud de la población y el medio ambiente, ya que diversos estudios señalan que provocan afectaciones en el confort térmico, en la dispersión de contaminantes atmosféricos y en el consumo de agua y energía. Estudiar la UHI es importante para las ciudades en crecimiento pues otorga los factores a tomar en cuenta en la planeación urbana, así mismo, investigadores aseguran que su estudio ayudará a comprender el cambio climático a largo plazo. Es por esto, que la siguiente investigación tuvo por objetivo "Determinar la distribución espacial y temporal de la temperatura del aire en Puerto Vallarta, así como su relación con otras variables meteorológicas".



METODOLOGÍA

Se utilizaron los datos de enero a abril de 2017 al 2019 de tres estaciones meteorológicas automáticas que toman datos en intervalos de 10 minutos. Se conformó una base de datos con las variables de: Temperatura del aire (°C) Humedad relativa (%) Velocidad del viento (m/s) Radiación solar (W/m2) Precipitación (mm) para cada una de las tres estaciones utilizadas, las cuales, de acuerdo con el grado de urbanización de la zona en la que se encontraban, fueron clasificadas como rural o urbana, quedando de la siguiente forma: Estación meteorológica ubicada en la Preparatoria Regional de Puerto Vallarta clasificada como urbana (Prepa/Urbana1) Estación meteorológica ubicada en el Centro Universitario de la Costa clasificada como rural (CUC/Rural1) Estación meteorológica ubicada en la Universidad Tecnológica de Bahía de Bandera clasificada como rural (UTBB/Rural2). Después de conformar la base de datos, se realizó una limpieza de la misma utilizando el software R versión  3.5.1 donde también se calcularon los promedios mensuales horarios de cada variable y cada una las estaciones, así como la diferencia de temperatura entre las clasificadas como rurales y urbana. Utilizando estos resultados, se realizó un análisis espacial y temporal de la temperatura del aire así como su interacción con las otras variables meteorológicas, donde fue necesario realizar una investigación documental, así como gráficos para una mejor comprensión. También se identificó el día en el que la UHI fue más intensa en la ciudad (mayor diferencia de temperatura entre las zonas rurales y la urbana) y con los datos de temperatura, en el sofware QGIS Versión 2.18.28 se realizó un mapa de distribución de temperatura en la ciudad de Puerto Vallarta mediante interpolación por cuadrado inverso de la distancia.


CONCLUSIONES

Según el análisis realizado, en la zona de Puerto Vallarta se ha presentado el fenómeno de UHI, pues la temperatura del aire a lo largo del día en las distintas estaciones parece verse influenciada por el grado de urbanización y construcción en cada una de ellas. Este comportamiento puede verse representado en las mediciones de las distintas variables meteorológicas como la magnitud del viento, la radiación solar y la precipitación. Por ejemplo, las mayores diferencias de temperatura entre las estaciones se registraron en el mes de febrero, el cual es el mismo mes donde se registraron mayores precipitaciones en las estaciones y según autores pueden ser un factor que intensifique los efectos de la UHI. Así mismo, la hora en el que el CUC/Rural1 y Prepa/Urbana1 presentan una mayor diferencia de temperatura es en la madrugada y parece se ve relacionado con la velocidad del viento (variable a la que la UHI es muy sensible) registrada en las estaciones pues según investigadores, la urbanización en climas cálidos húmedos disminuye la velocidad del viento. Por otro lado, la UHI más intensa identificada fue de marzo de 2018 a las 8:00 h con una diferencia de temperatura entre la zona rural y la zona urbana de casi 4°C. Así mismo, la estación Prepa/Urbana1 fue la que obtuvo los mayores valores de temperatura en todos los promedios mensuales horarios en comparación con las estaciones CUC/Rural1 y UTBB/Rural2. Por último, realizar un análisis similar utilizando imágenes satelitales ayudaría a abarcar un periodo más largo de tiempo y estudiar mejor el efecto de la UHI en la ciudad.
Tolentino Vazquez Erick, Universidad Autónoma de Guerrero
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA


DISPOSITIVOS DE RECOLECCIóN DE AGUA PLUVIAL PARA CASA HABITACIóN EN LA ZONA POPULAR DE PUEBLA

Cach Alonzo Armando Ivan, Consejo Quintanarroense de Ciencia y Tecnología. Gómez Poot Francisco Israel, Consejo Quintanarroense de Ciencia y Tecnología. Hernandez Emily Stephany, Consejo Quintanarroense de Ciencia y Tecnología. Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla. Tolentino Vazquez Erick, Universidad Autónoma de Guerrero. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua es un vital líquido utilizado no únicamente por el ser humano sino para todo el planeta. El 70% de la superficie de la tierra está cubierto de agua, sin embargo, del 30% de agua dulce tan solo el 1 % es adecuado para su uso humano. Más allá del impacto del crecimiento mismo de la población por causa del mal uso que se ha dado hay muchos países que tienen menos del agua que necesitan, hoy en día este recurso a tenido ciertas dificultades perdiendo el equilibrio entre la cantidad utilizada y la demanda. La escasez afectará a un tercio de la población y un impacto enorme en diferentes sectores económicos como son la producción de alimentos. Los sistemas de aprovechamiento de agua de lluvia son el resultado de las necesidades (demanda), recursos disponibles (precipitación, dinero para invertir y materiales de construcción), y las condiciones ambientales en cada región. Sólo cuando no existe red de agua potable, el suministro es deficiente o el agua tiene un costo muy alto, se piensa en buscar sistemas alternativos de abastecimiento, por ello la documentación sobre sistemas de aprovechamiento de aguas lluvias, se limita a las acciones realizadas en las últimas décadas en zonas del planeta con las deficiencias mencionadas anteriormente. (José Alejandro Ballén Suárez, 2006) La ciudad de Heroica Puebla de Zaragoza es la cuarta ciudad más poblada de México, está ubicada al centro del país y cuenta con una población de aproximadamente 1,576,259 millones de habitante (INEGI censo 2015) que cubren una superficie de 206 km2. Donde la precipitación media es de 827 mm por año siendo el mes de junio quien presenta una mayor precipitación de 158 milímetros. Esto es considerado una buena cantidad de líquido que puede ser empleado como un extra de recurso, toda la ciudad cuenta con los servicios básicos tales como energía eléctrica, alcantarillado y agua potable, sin embargo la ciudad presenta ciertas dificultades con la distribución de la misma y no permite abastecer en su totalidad, esta problemática va de la mano con las fuertes temperaturas de verano que generalmente varía de 6°C a 42°C  ante tal situación las personas  necesitan de un mayor consumo de agua.



METODOLOGÍA

En primer lugar, se investigó sobre los antecedentes a la propuesta de solución que se iba a crear, contemplando modelos antiguos de hace más de 4 mil años, como los del Desierto de Negev hasta implementaciones recientes, por ejemplo, el proyecto Belss-Luedecke-Strasse Building State en Berlín de 2006. Más adelante se realizó la investigación sobre la falta de agua potable en la ciudad de Puebla, Puebla, así como las propiedades que contiene el agua de lluvia, considerando los factores geográficos causantes de la lluvia característica de Puebla capital. Se investigó sobre las normas correspondientes de agua potable para consumo humano, asi mismo se realizó un primer acercamiento sobre una solución para utilizar el agua pluvial y transformarla en agua potable. Más adelante tomo lugar la búsqueda de los materiales y equipos seleccionados para elaborar un dispositivo de recolección de agua pluvial. Una vez teniendo la idea clara sobre la construcción del dispositivo dio paso a la cotización de materiales, cuales cubrían las necesidades, poniendo en la balanza costo-beneficio, puesto que se trata de un proyecto enfocado al sector popular en casa-habitación de 4 personas aproximadamente. Además, se visitaron casas de barrios populares en la ciudad de Puebla, encontrando retos particulares, como el espacio demasiado reducido entre casa y casa o las distribuciones de las pendientes para cada domicilio, por mencionar algunos. Por último, se implementó de manera digital el dispositivo en una casa modelo que se ajustaba perfectamente a nuestras condiciones iniciales y cumplía con tener una estructura común de un barrio popular. En esta se trabajó la implementación y cotización de materiales, así como su mano de obra, será generándola en 2 aspectos, la primera por un plomero o albañil, y la segunda tomando en cuenta que nosotros montaríamos el dispositivo de manera gratuita.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos sobre el agua pluvial, su utilidad y los problemas que enfrenta en la ciudad de Puebla, puesto que, a diferencia de otros estados o países, en esta ciudad se encuentran particularidades que representan un problema y una adecuación a cada vivienda, por otro lado, la presencia de un volcán activo cercano a la ciudad. Por último, tomando en cuenta que esto es únicamente teórico no se tiene la posibilidad de corroborar todos los análisis y resultados esperados, o si deben realizarse correcciones con el pasar del tiempo. Hubiera sido conveniente tener el capital necesario y tiempo para considerar los ajustes, pero, aunque no es posible, en base a las deducciones, se puede apostar por resultados exitosos.
Toribio Gabriel José Raúl, Instituto Politécnico Nacional
Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México

ESTRUCTURA Y ESTUDIO POR REFLECTANCIA DE LUZ DEL ESMALTE Y LA DENTINA DEL DIENTE HUMANO (COLMILLO SUPERIOR) EN CORTE LONGITUDINAL Y TRANSVERSAL.


ESTRUCTURA Y ESTUDIO POR REFLECTANCIA DE LUZ DEL ESMALTE Y LA DENTINA DEL DIENTE HUMANO (COLMILLO SUPERIOR) EN CORTE LONGITUDINAL Y TRANSVERSAL.

Toribio Gabriel José Raúl, Instituto Politécnico Nacional. Asesor: Dr. José Reyes Gasga, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Al interaccionar con una superficie, la luz presenta reflexión, absorción y transmisión. Estas propiedades dependen de las características físicas y químicas del material que se ilumine. En este trabajo hemos usado la reflectancia de la superficie de la dentina y del esmalte de un diente humano (colmillo) para observar su respuesta en muestras cortadas en dirección transversal y en dirección longitudinal, tanto pulidas a término espejo como atacadas para exponer su estructura. La estructura del esmalte consiste en estructuras prismáticas micrométricas en forma de cerradura que van de la unión amelodentinaria a la superficie del esmalte. La dentina presenta una estructura conformada por orificios micrométricos conocidos como conductos dentinarios que van de la cámara pulpar a la unión amelodentinaria. El esmalte y la dentina en el dental humano están constituidos a nivel nanométrico por materia inorgánica en forma de cristales de hidroxiapatita (Ca10(PO4)6(OH)2). La hidroxiapatita es una fase inorgánica de la familia de los fosfatos cálcicos y es el componente principal de dientes y huesos. El contenido de material orgánico y de material inorgánico de la dentina es de 30% y 70% en peso respectivamente. Cuando la superficie del diente es pulida con acabado espejo logramos eliminar las imperfecciones presentes; y cuando esta es atacada con ácido orto-fosfórico la estructura del mismo es revelada. Por lo tanto, el objetivo principal de este trabajo es la medición de reflectancia en el dental humano en muestras pulidas y atacadas con ayuda de un espectrofotómetro. En la dentina, esta medición se realizó tanto en muestras cortadas en sección longitudinal como en muestras cortadas en sección transversal. En el esmalte, las muestras analizadas sólo fueron en dirección transversal ya que el espesor del esmalte en dirección longitudinal no cumple con las medidas requeridas por el espectrofotómetro.



METODOLOGÍA

Para la preparación de las muestras, se colocó una pieza de canino superior en resina acrílica a partir de la mezcla de polímero metil metacrilato y monómero, usado para crear un soporte. Posteriormente el diente fue cortado en dirección transversal y en dirección longitudinal con ayuda de la cortadora de la marca Buehler modelo Isomet 1000 con un disco de diamante hasta obtener cuatro muestras con un grosor aproximado de 4mm. Después del corte de las muestras se procedió a atacar dos de ellas, dejando las muestras en ácido orto fosfórico por un minuto con cuarenta segundos aproximadamente. Con esto se logró revelar la estructura del diente, para así comparar la reflectancia de un diente pulido y uno atacado. Las muestras se observaron en el microscopio óptico de la marca Zeiss modelo Axiovert 25 en los en los modos de observación de campo claro, campo oscuro y campo de luz polarizada con los objetivos 5x, 10x, 20x y 50x para comprobar que las muestras estuvieran pulidas en un caso y el comprobar que la estructura se haya revelado en el otro caso. Para la medición de la reflectancia se utilizó el espectrofotómetro de la marca Ocean Optics modelo Flame junto con las herramientas complementarias de la misma marca como lo son la fuente de luz, fibra óptica y base de reflectancia. Para conseguir medir la reflectancia se con este espectrofotómetro se usó una hoja tamaño carta de papel blanco Bond de la marca Facia como referencia. De acuerdo con las especificaciones del fabricante, este papel presenta una blancura del 99%.


CONCLUSIONES

Por lo tanto, se logró obtener gráficas que contienen información sobre el porcentaje de luz reflejada en cada muestra (según su longitud de onda) y que al iluminar el diente éste se vea brillante o del color reflejado. Se determinó que, en todos los casos de incidencia, tanto para la dentina como para el esmalte, la luz ultravioleta de longitud de onda de rango de 375nm a 400nm causaría que el diente se observe brillante; mientras que en el rango de la luz visible (en el rango de 400nm - 700nm) la longitud de onda reflejada por las muestras de dentina en dirección longitudinal fue de 595nm (luz naranja), mientras que en las muestras de dentina en dirección transversal fue de 490nm (luz azul claro). En el caso de las muestras en sección transversal se observa un rango de 550nm (luz amarilla) a 600nm (luz naranja) para la muestra atacada; y de 500 nm (luz azul verdosa) para la muestra pulida. Agradezco al Dr. José Reyes Gasga y al Dr. Arturo Rodríguez Gómez por asesorarme durante esta investigación y el apoyo técnico del Sr. Pablo López Arriaga, de la Dra. Nancy Vargas Becerril durante el transcurso de esta investigación. Agradezco el apoyo recibido por parte del Programa Delfín por darme la oportunidad de realizar esta estancia de verano en el Instituto de Física de la UNAM en el marco del XXIV Verano de la Investigación Científica y Tecnológica del Pacífico 2019.
Torres López Eduardo Antonio, Universidad Autónoma de Sinaloa
Asesor: Dr. Ma. Isabel Hernández X, Centro de Investigación en Matemáticas (CONACYT)

CLASIFICACIóN DE ÁLGEBRAS DE LIE DE DIMENSIóN 3 SOBRE CAMPOS DE CARACTERíSTICA 0 ALGEBRAICAMENTE CERRADOS.


CLASIFICACIóN DE ÁLGEBRAS DE LIE DE DIMENSIóN 3 SOBRE CAMPOS DE CARACTERíSTICA 0 ALGEBRAICAMENTE CERRADOS.

Torres López Eduardo Antonio, Universidad Autónoma de Sinaloa. Asesor: Dr. Ma. Isabel Hernández X, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las álgebras de Lie surgieron durante el estudio de los grupos de Lie.  El estudiar y clasificar las álgebras de Lie ayuda a entender los grupos de Lie. Los grupos lineales cerrados son ejemplos muy importantes de grupos de Lie al igual que sus álgebras de Lie correspondientes.  En este trabajo clasificamos las álgebras de Lie de dimensión 3 sobre un campo algebraicamente cerrado de característica cero.  Un álgebra de Lie es un espacio vectorial V con una operación bilineal, llamada corchete de Lie, el cual cumple las siguientes propiedades:  [A,B]=-[B,A], antisimetria.    [[A,B],C]+[[B,C],A]+[[C,A],B]=0, identidad de Jacobi.   Un ejemplo importante de álgebras de Lie es el que obtenemos al tomar el conmutador en el espacio vectorial de matrices cuadradas, el cual se define como: [A,B]= AB-BA.    Toda álgebra de Lie  se relaciona con un  álgebra de Lie de matrices por medio del Teorema de Ado, el cual asegura que toda álgebra de Lie de dimensión finita sobre un campo de característica 0 puede ser visto como un subalgebra de matrices cuadradas bajo la operación del conmutador. 



METODOLOGÍA

La estrategia utilizada para clasificar las álgebras de Lie fue, primeramente, separarlas de acuerdo a la dimensión de su álgebra derivada y estudiar las propiedades que cumplen.  Por ejemplo, las álgebras de Lie con álgebra derivaba de dimensión dos cumplen que el álgebra derivada es trivial y el centro del álgebra es {0}. Otra propiedad muy importante que se analizó es el operador adjunto de un vector en el álgebra de Lie ad(x), el cual se define como:                  ad(x)(w)=[x,w], para todo w en el álgebra.  Trabajar sobre los números complejos es de gran utilidad, ya que podemos describir las formas canónicas de Jordan del operador ad(x).   Para el caso donde el álgebra derivada es de dimensión 1 se observaron dos casos: el primero cuando el álgebra derivada y el centro coinciden, y el segundo cuando su intersección es el {0}.   Para el caso donde el álgebra derivada es de dimensión 2 se tomó un elemento fuera del álgebra derivada, se comprobó que su operador adjunto ad(x) tiene rango 2, de lo cual se desprenden dos casos: el primero cuando ad(x) es diagonalizable y cuando no lo es. Así se obtuvieron múltiples álgebras que dependían de los eigenvalores de ad(x). Posteriormente analizando los ideales a cada una de estas álgebras se encontró la relación tenían que tener los parámetros de dos álgebras "distintas" para que estas sean isomorfas.   Para el caso con álgebra derivada de dimensión 3 se probó que todas son isomorfas al álgebra especial lineal, encontrando las base cuyos corchetes correspondieran.   


CONCLUSIONES

Hay infinitas álgebras de Lie sobre los números complejos, las cuales se pueden describir sabiendo que existe una base {x,y,z} tal que el álgebra de Lie tenga alguno de los siguientes corchetes:  [x,y]=z , [y,z]=0 y [x,z]=0.  [x,y]=x , [y,z]=0 y [x,z]=0.  [x,y]=y , [y,z]=0 y [x,z]=kz , k distinto de 0.   [x,y]=y , [y,z]=0 y [x,z]=y+z.  [x,y]=z , [y,z]=2y y [x,z]=-2x.  Para que esta clasificación sea así es necesario que el campo sea de característica 0 y algebraicamente cerrado, las cuales son condiciones que cumple el campo de los números complejos.   
Torres López Rebeca María, Universidad Autónoma de Guerrero
Asesor: M.C. Cuitlahuac Hernandez Santiago, Universidad del Mar

ANáLISIS E IDENTIFICACIóN ESPACIAL DE ZONAS VULNERABLES A DESLIZAMIENTO DE LADERAS POR PRECIPITACIóN EN LA MICROCUENTA DE PUERTO ÁNGEL, OAXACA.


ANáLISIS E IDENTIFICACIóN ESPACIAL DE ZONAS VULNERABLES A DESLIZAMIENTO DE LADERAS POR PRECIPITACIóN EN LA MICROCUENTA DE PUERTO ÁNGEL, OAXACA.

Torres López Rebeca María, Universidad Autónoma de Guerrero. Asesor: M.C. Cuitlahuac Hernandez Santiago, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

México es uno de los países con mayor diversidad en el mundo, dentro de este concepto encontramos una diversidad climática y de relieve que incide, en gran medida, a la aparición de fenómenos meteorológicos. Por estar ubicado entre dos grandes mares (Pacífico y Atlántico), México tiende a ser vulnerable a la incidencia de estos fenómenos. Cada año, durante la temporada de huracanes, México es punto central de afectaciones por tales eventos, además de las condiciones a nivel regional que propician la descarga de energía de dichos eventos. A lo largo de su trayecto, los eventos provocan lluvias intensas que en muchas ocasiones sobre pasa los umbrales de precipitación y provocan deslizamiento de tierra o caída de bloques en puntos geoestratégicos que fueron usados para la construcción de carreteras, casas o son usados para actividades agropecuarias. La problemática de este tema se presenta en la poca información cartográfica que se tiene a escala local, pues se sabe que un deslave fácilmente puede ser representado por un punto dentro de un mapa, lo cual requiere una especificación espacial cartográfica muy específica para destapar las zonas y puntos, de ser posible, que en un espacio local previamente determinado se presentan.   



METODOLOGÍA

Fase 1: Esta primera fase se enfocó en el reconocimiento de la zona a estudiar. Primeramente, se buscó una familiarización con la zona de estudio desde el trabajo previo en gabinete. La realización de esta actividad se llevó a cabo con la recopilación de información teórica, técnica, cartográfica y estadística ya publica en los distintos portales y geoportales disponibles para el público, del territorio nacional. Se llevó una bitácora de gabinete donde se guarden y pueda estar disponible esta información para futuras consultas. Se tomaron dos metodologías encontradas dentro de la bibliografía consultada para el análisis principal de esta investigación, las que fueron: Ecuación de Figueroa, ligeramente modificada para la zona de estudio. Esta ecuación toma como principales variables la cantidad de precipitación caída en la zona de estudio del día más lluvioso en un periodo de cinco años, el grado porcentual de la pendiente y el índice de vegetación normalizado obtenido con la ayuda del programa ENVI. El resultado de la aplicación esta ecuación fue el coeficiente de susceptibilidad a deslave en la microcuenca de Puerto Ángel, Oaxaca. Metodología de Méndez. Este procedimiento requirió de trabajo de campo. Consiste en la toma de muestra de suelo correspondiente a la zona, dividas en tres horizontes A, B y C estas fueron procesadas en el laboratorio, aquí el procedimiento: Las muestras A, B y C, colocadas en diferentes contenedores de aluminio, pasaron en el horno de secado por 14 horas; Una vez secas, de cada muestra se tomaron 200g, cantidad que representaría el 100% de la muestra, y fueron tamizadas en mallas de 0.002, 0.05 y 2.0 mm, medidas que corresponden a las arcillas, limos y arenas respectivamente.; Se llevó un control de datos manual, donde se fueron anotando los pesos y porcentaje que correspondía cada porción de muestra al haber pasado por las mallas; Se aplicó el diagrama triangular para la determinación de la textura con indicación de la erosionabilidad de United States Department of Agriculture U.S.D.A. utilizando los porcentajes obtenidos de cada porción de las muestras al haber pasado por las mallas; Como resultado de obtuvo un suelo del horizonte A, Franco Arcillo Arenosa, con erosionabilidad media. Este suelo sonde elevada productividad agrícola por su textura suelta, por las arenas que lo componen, tiene una excelente retención de agua por las arcillas que contiene. La muestra del horizonte B, Franco, con erosionabilidad alta. Este suelo es de elevada producción agrícola, por las arenas y limos que contiene, mismos que le dan esa textura suelta y fertilidad procedente de limos, además de una excelente retención del agua por sus arcillas. La muestra del horizonte B, Franco Arcillo Arenoso/Franco Arenosa, con erosionabilidad alta y media. Este suelo fue una unión entre el suelo del horizonte A y B, con una proporción más alta de arenas, mismo que le da esa alta erosionabilidad por la textura suelta que las mismas presentan.   Fase 2: Esta segunda fase comprende la recolección de la base de datos correspondientes a las variables que inciden el evento principal de esta investigación. Posteriormente se comenzó a correr las capas de datos ambientales y antrópicos dentro del programa ArcGis y ENVI (el segundo solo para el caso de la vegetación). Primeramente, se están haciendo capas separadas unas de otras, en diferentes vistas del programa ArcGis para poder unirlas sin problema alguno al finalizar el preprocesamiento de estas. dentro de las variables se mantuvieron las principales que se detectaron y se dividieron en dos grandes tópicos, factores ambientales (precipitación, vegetación, suelo y topografía) y factores antrópicos (uso de suelo, geotécnia y asentamientos humanos). Fase 3: La fase final, comprende la generación cartográfica a escala local de la zona de estudio. El mapa representará en tres niveles diferentes (alto, medio y bajo), la vulnerabilidad a deslaves dentro de la microcuenca de Puerto Ángel.


CONCLUSIONES

Las metodologías utilizadas en esta investigación muestran datos ligeramente diferentes en cuanto al coeficiente y nivel de susceptibilidad a deslave en la microcuenca. La cartografía final zonifica las zonas de mayor peligro por estos eventos en descargas de lluvia que sobrepasan los umbrales de la precipitación, ubicados en mayor parte cerca de las vías de comunicación, lo cual presenta un problema de accesibilidad. El mapa generado podría ser presentado a las autoridades de la comunidad de Puerto Ángel para instruirlos sobre los posibles eventos y las zonas donde pueden ocurrir, a partir de esta información se pueden tomar prevenciones por deslaves y prevenir desastres.  
Tototzintle Ramos Tania Ixchel, Instituto Politécnico Nacional
Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE TIO2 Y TIO2:CO POR EL MéTODO SOL-GEL


OBTENCIóN Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE TIO2 Y TIO2:CO POR EL MéTODO SOL-GEL

Tototzintle Ramos Tania Ixchel, Instituto Politécnico Nacional. Asesor: Dr. José Guadalupe Quiñones Galván, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los materiales basados en óxido de titanio han incrementando su aplicación y demanda en la tecnología moderna. El óxido de titanio (TiO2) es un compuesto que puede cristalizar con estructura de anatasa (ordenamiento octaédrico) o con estructura de rutilo (ordenamiento tetragonal). Por su estructura de bandas, el TiO2 se clasifica como un semiconductor con banda de energía prohibida directa de 3.0 eV a 3.2eV.  El TiO2 es un material semiconductor versátil que ha atraído la atención por su amplia gama de aplicaciones, tales como celdas solares, dispositivos eléctricos y acústicos, sensores  químicos, dispositivos optoelectrónicos para la región UV, fotocatalizadores, transductores piezoeléctricos, electrodos transparentes, dispositivos electroluminiscentes, diodos láser en la región UV, fotodetectores, diodos emisores de luz. Este material es de particular interés por sus aplicaciones en el tratamiento de aguas donde se utiliza su propiedad fotocatalítica y fotodegradante.  Además el óxido de titanio es un material que no daña al ser humano, ni al medio ambiente. En todas estas aplicaciones, las propiedades de mayor interés, debido a su relación directa con las aplicaciones mencionadas, son las propiedades ópticas, estructurales y eléctricas. Por esta razón, es importante el estudio del comportamiento óptico, estructural y eléctrico de las películas delgadas obtenidas, con lo cual se tiene la posibilidad de diseñar el material con las características deseadas en vez de seleccionar el material entre uno de los ya existentes.



METODOLOGÍA

En base a la literatura, se prepararon soluciones precursoras empleando el método sol-gel que se utilizó para obtener películas delgadas de TiO2. Los reactivos que se utilizaron para preparar las soluciones precursoras utilizadas en la obtención de películas de TiO2 fueron Isopropóxido de titanio (Ti[OCH(CH3)2]4),  glicerina (C3H8O3), trietanolamina (C6H15NO3), agua destilada y metanol(CH3OH). Como agente dopante se utilizó nitrato de cobalto.  Se trabajó inicialmente con soluciones con concentración molar de titanio comprendida entre 1.1 y 1.2 M, con las que se obtuvieron recubrimientos uniformes y homogéneos de TiO2  a temperaturas de tratamiento térmico comprendidas entre 100° y 500°C. De las soluciones anteriores también se obtuvieron polvos de TiO2 tratados a 500°C. Se utilizaron 3 concentraciones para las muestras sin dopar y 3 más para las muestras dopadas.  Las muestras obtenidas fueron caracterizadas utilizando espectroscopìa Raman, espectroscopìa uv-vis y difracción de rayos x.  


CONCLUSIONES

Se obtuvieron muestras en forma de película delgada y polvo de TiO2 y TiO2:Co a 300° y 500°C que presentan mezclas de las estructura cristalinas anatasa y rutilo.  Para las muestras tratadas a 500°C sin dopar se observó una relación entre la concentración molar de titanio y la estructura cristalina de las muestras, para una concentración molar mayor de titanio se tiene una mayor presencia de la fase de rutilo. En el caso de las muestras de óxido de titanio dopadas con cobalto aún se están analizando los resultados de las caracterizaciones.
Tovar Ramírez María Isela, Universidad de Guanajuato
Asesor: Dr. Isidro Loza Aguirre, Universidad de Guanajuato

METODOLOGÍA PARA LA IDENTIFICACIÓN Y CARTOGRAFÍA DE UNIDADES LITOLÓGICAS EN EL SUROESTE DEL DISTRITO MINERO DE GUANAJUATO.


METODOLOGÍA PARA LA IDENTIFICACIÓN Y CARTOGRAFÍA DE UNIDADES LITOLÓGICAS EN EL SUROESTE DEL DISTRITO MINERO DE GUANAJUATO.

Saucedo Aleman Kevin Javier, Universidad de Sonora. Tovar Ramírez María Isela, Universidad de Guanajuato. Zamora Ibarra Guadalupe Citlalli, Instituto Politécnico Nacional. Asesor: Dr. Isidro Loza Aguirre, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El Distrito Minero de Guanajuato (DMG) está ubicado en el límite sur de la provincia fisiográfica Mesa Central (MC), en el sureste de la Sierra de Guanajuato (SG). La columna estratigráfica del DMG ha sido estudiada durante el último siglo donde se identificaron dos grupos de rocas: el más antiguo pertenece al Mesozoico y fue estudiado a detalle en la Sierra de Guanajuato; El segundo grupo consiste en depósitos continentales Cenozoicos, que reposan discordantemente sobre las rocas Mesozoicas. (Nieto-Samaniego, 2015) Una de las particularidades de la Mesa Central es la cantidad y variedad de yacimientos minerales emplazados en esta provincia; entre ellos algunos de los depósitos más ricos de México. Por lo que se requiere contar con una información precisa de la geología del lugar ya que, aunque se ha tenido un amplio estudio sobre el DMG y como se trata de regiones muy amplias, en algunas ocasiones los mapas realizados no concuerdan con lo observado en campo. En base a esta problemática, el objetivo de este proyecto es proporcionar al sector minero y al usuario en general una cartografía mejorada con mayor detalle y precisión. Para esto se eligió como zona de estudio el sureste del DMG, comprendido por cerro de la Bufa, Calderones y el Cubo.  



METODOLOGÍA

El desarrollo de las actividades se llevó a cabo dentro del Departamento de Ingeniería en Minas, Metalurgia y Geología, de la Universidad de Guanajuato. El trabajo consistió principalmente en cinco actividades siguiendo la siguiente metodología. La primera etapa consistió en la recopilación de información bibliográfica sobre el área en cuestión para contar con las bases necesarias sobre la geología del lugar llevando un análisis previo de las unidades litológicas más importantes, reconociendo, así como base principal a la Formación Bufa formada por flujos riolíticos piroclásticos con al menos tres horizontes principales, así como tobas y domos de la misma composición. Sobre ella yace la Formación Calderones descrita como arenisca, conglomerado, brecha y toba de composición andesítica con algunas intercalaciones de tobas dacíticas (Echegoyen-Sánchez et al 1970). En la cima de estas se encuentra la Formación Cedro formada por flujos de lava andesíticos (Nieto-Samaniego, 2015). Como segunda etapa se prosiguió con la realización de la cartografía regional previa, creando un mapa con la ayuda de los Sistemas de Información Geográfica (SIG): ArcGis (vers. 10.5) y Google Earth, para efectuar una manipulación y análisis de forma rápida, eficaz y exacta de la información geológica, estructural y minera.  Donde se interpretaron imágenes satelitales para identificar las unidades anteriormente estudiadas, así como las estructuras geológicas; redefiniendo la información en base a otros autores. Una vez teniendo la cartografía se hizo una planeación para elegir los puntos de interés a visitar en campo y se prosiguió con la creación de un itinerario. En la tercera etapa se realizó una a salida a campo  que consistió en dos fases: durante la primer fase se hizo un reconocimiento geológico minero, con muestreo representativo de  las unidades litológicas al igual que su descripción y clasificación en muestra de mano, obtención de datos estructurales  y observación de datos no pronosticados; en la segunda fase se realizó una segunda ida a campo donde se corroboró la información obtenida y la obtención de nueva para el mejoramiento de los resultados. La cuarta etapa se basa en los análisis de muestras mediante dos medios: datación de rocas y realización de láminas delgadas para su clasificación. Para la preparación de la datación de la roca, se muele un kilo de la muestra en una trituradora de quijada a un tamaño de 256 micras. Posteriormente se lleva a cabo el proceso de bateo que consiste en: mezclar alrededor de 20 grms del sedimento obtenido de la trituradora con agua y se batea con el fin de separar los minerales más pesados de los ligeros. Una vez separando los minerales pesados y usando un microscopio petrográfico se analiza el sedimento y se seleccionan los zircones y apatitos los cuales nos ayudarán a fechar nuestra roca. Dependiendo del tipo de roca será el procedimiento a datar, ya que la cantidad de zircones y/o apatitos a analizar varían en cantidad. Por otra parte, para la realización de lámina delgada se llevó acabo el siguiente procedimiento: se selecciona un fragmento de roca del tamaño de una muestra de mano y se lleva a cortar para tener como resultado un prisma rectangular de poco menos que el tamaño de un portaobjetos se corta con una cortadora de disco diamantado. Una vez obtenido el prisma se pule con abrasivo de 400 mallas para eliminar cualquier marca que deje la cortadora y se sigue con la preparación del portaobjetos, éste se marca por una de las caras con la clave de la roca, la otra de las caras se pule con abrasivo de 400 mallas, se lava y se seca, ya realizado esto se pega con resina epóxica  la roca al portaobjetos y se deja secar unos minutos al sol, ya seca se lleva a rebajar hasta un tamaño de 80 micras aproximadamente. Posteriormente se rebaja hasta el tamaño adecuado de entre 20 y 40 micras con abrasivo de 1000 y se controla el espesor mediante microscopio óptico. Ya teniendo la lámina delgada se analiza, describe y clasifica observándola en un microscopio óptico. Como última fase, se basa en la integración e interpretación de la información obtenida con la ya recabada para corroborar y/o modificar el mapa previamente creado.


CONCLUSIONES

El presente estudio y la metodología empleada demuestra la importancia de la cartografía como tal pero sobre todo, la relevancia que tienen los Sistemas de Información Geográficas (SIG); gracias a estas técnicas empleadas se ha logrado visualizar información geográfica de una forma sencilla y así lograr ajustar las edades de las formaciones, actualizar la columna estratigráfica del Distrito Minero de Guanajuato, de igual forma actualizar y añadir polígonos a trabajos previos existentes del área comprendida.
Toxqui Toxqui Ana Karen, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas

NúMEROS DE BETTI DEL IDEAL DE STANLEY-REISNER DE ALGUNOS COMPLEJOS DE INDEPENDENCIA ASOCIADOS DE UNA GRáFICA BIPARTITA.


NúMEROS DE BETTI DEL IDEAL DE STANLEY-REISNER DE ALGUNOS COMPLEJOS DE INDEPENDENCIA ASOCIADOS DE UNA GRáFICA BIPARTITA.

Toxqui Toxqui Ana Karen, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Hernán de Alba Casillas, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

En matematicas es común el estudio de ciertas propiedades de un objeto matemático que no cambia al aplicarle un conjunto de transformaciones, a estas propiedades se les conoce como invariantes. El estudio de invariantes homológicas de ideales monomiales de un anillo de polinomios con n determinadas enlaza herramientas de distintas áreas de las matemáticas, como son el álgebra conmutativa, la topología algebraica y el álgebra homológica, un invariante particular de ideales monomiales son los números de Betti. Una forma de limitar el estudio de ideales monomiales a objetos discretos es usando el ideal de Stanley-Reisner el cual asocia un ideal monomial a un complejo simplicial, este último tiene una representación geométrica. Particularmente para una gráfica podemos construir su complejo de independencia, es por lo que durante el verano de investigación se estudia la teoría necesaria para obtener los números de Betti de ideales de Stanley-Reisner para algunos complejos de independencia que fueron asociados de gráficas bipartitas.



METODOLOGÍA

Se establecieron los objetos matemáticos de interés para la investigación, para esto se dio un campo K que podía se cualquiera y se trabajó en el anillo S de n indeterminadas sobre dicho campo, con esto fue posible establecer el concepto de ideal monomial, el cual se definió como un ideal finitamente generado por un conjunto de monomios del anillo S. Con este concepto definido se realizó un análisis sobre algunas propiedades que posee, estas fueron enunciadas como teoremas y proposiciones de las cuales se obtuvo sus correspondientes demostraciones. Posteriormente se definió el concepto de complejo simplicial (abstracto) como una pareja que consta de un conjunto finito E y una familia de subconjuntos de E que es cerrada bajo contención; por medio de ejemplos gráficos se dio la comprensión de las distintas componentes que posee como son caras, vértices, no caras y se hizo mención de algunos complejos simpliciales particulares que fueron de utilidad para la investigación, así se llegó al concepto de ideal de Stanley-Reisner de un complejo simplicial. En seguida se dieron las definiciones necesarias para poder establecer el concepto de homología simplicial reducida de cierto grado para un complejo simplicial y se realizaron algunos ejemplos sobre complejos simpliciales utilizando el programa Macaulay2 el cual está enfocado a la resolución de problemas de álgebra conmutativa. Se definió el concepto de ideal de aristas y su relación con el ideal de Stanley-Reisner de un complejo de independencia, a su vez se realizó el estudio de algunos conceptos referentes a gráficas y gráficas bipartitas, así como los conceptos de números de Betti, regularidad de Castelnuovo-Mumford y dimensión proyectiva de un módulo graduado. Se utilizó un resultado particular que relaciona la homología de los complejos de independencia asociado de una gráfica bipartita con subcomplejos cuyas homologías se obtienen de manera simple, así como la fórmula de Hochster para obtener los números de Betti de un ideal de Stanley-Reisner de un complejo independencia que es asociado de una gráfica bipartita.  


CONCLUSIONES

Durante el verano de investigación se alcanzó el desarrollo de la teoría necesaria para obtener los números de Betti de ejemplos particulares, a su vez se calculo la regularidad y dimensión proyectiva de dichos ejemplos, debido al grado de complejidad del tema no se lograron resultados generales, sin embargo, se abordaron las bases teóricas que podrían facilitar la continuación de dicha línea de investigación.
Valdeolivar Benítez Gremi Verenice, Universidad Autónoma de Guerrero
Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

LA MAGNETOMETRíA COMO UNA HERRAMIENTA PRIMARIA EN LA PROSPECCIóN DE AGUA SUBTERRáNEA


LA MAGNETOMETRíA COMO UNA HERRAMIENTA PRIMARIA EN LA PROSPECCIóN DE AGUA SUBTERRáNEA

Valdeolivar Benítez Gremi Verenice, Universidad Autónoma de Guerrero. Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Una de las problemáticas más importantes en zonas áridas y semi-áridas de la Mesa Central de México es la exploración y obtención de agua subterránea, puesto que se encuentra profundidades mayores y el movimiento principalmente es por fracturas o zonas de debilidad del subsuelo. En este trabajo, se expone el caso de La Dulcita, una zona rural del Estado de San Luis Potosí, en donde existen problemas con la localización de estos recursos, se utiliza la prospección geofísica puesto que es una herramienta muy útil para este problema.



METODOLOGÍA

Para ello se plantea una metodología aplicando la prospección geofísica que pretende mostrar el potencial de combinar métodos geofísicos (métodos: magnético y eléctrico) para ubicar acuíferos confinados en zonas de falla. La metodología ocupada consiste en el procesado de la magnetometría área compilada por el Servicio Geológico Mexicano, después de procesar esta información, se planearon cuatro secciones para el trabajo de campo con la magnetometría terrestre, con estos se localizan las zonas asociadas con permeabilidad (fracturamiento) mediante su interpretación. A partir de estas interpretaciones se emplean métodos eléctricos para verificar si las zonas se correlacionan con la humedad en el subsuelo. Cuando las condiciones de permeabilidad y humedad se cumplen, se consideran zonas con altas probabilidades para la ubicación de agua subterránea.


CONCLUSIONES

Con esta metodología, se pretende mejorar o aumentar el porcentaje de pozos perforados exitosos en la prospección de agua subterránea en zonas áridas y semi-áridas, haciendo exitosa la perforación de pozos.
Valdez Zavala Karla Mishel, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara

INCENDIOS FORESTALES EN LA COSTA ALEGRE DE JALISCO Y SU RELACIÓN CON LAS ACTIVIDADES AGROPECUARIAS 2010-2018.


INCENDIOS FORESTALES EN LA COSTA ALEGRE DE JALISCO Y SU RELACIÓN CON LAS ACTIVIDADES AGROPECUARIAS 2010-2018.

Valdez Zavala Karla Mishel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La región Costa Alegre de Jalisco se ha destacado en los últimos 5 años por la aparición de incendios forestales, por lo que la pérdida de vegetación, reservas naturales y biodiversidad se encuentra en reducción. Cabe destacar, que no se tiene información abundante sobre este tema en la región, pues el monitoreo y la evaluación de daños no están completamente definidos por sectores gubernamentales o privados que manejen este tipo de problemática. Es por ello por lo que el análisis y la evaluación de criterios se reduce notablemente a evaluaciones meramente informativas y educativas. El generar análisis precisos y amplios de esta problemática forman parte de un insumo para la evaluación de los sectores invadidos por incendios forestales. Además, la caracterización del fenómeno permite en gran medida la toma de decisiones en los sectores encargados, así como en la toma de decisiones por ejidatarios, quienes son parte fundamental para la regulación de quemas agrícolas en los municipios.



METODOLOGÍA

Se realizó la descarga de puntos de calor durante el periodo 2010 al 2018 de manera anual para el área de estudio mediante la plataforma: Sistema de Alerta Temprana de Incendios por CONABIO. Mediante el software ARCGIS 10.5 se analizaron los puntos de calor para obtener la ubicación espacio-temporal de los focos activos en la zona, donde se visualizó si existía una tendencia en el registro de los puntos e identificar el municipio con mayor cantidad de puntos de calor y poder asociarlo con factores agropecuarias y facilitar el tiempo de análisis. Se utilizó la carta de vegetación y uso de suelo generada por INEGI y se procedió a verificar el tipo de vegetación dañada por la aparición de puntos de calor durante los últimos 8 años de interés. Se cuantificó por tipo de vegetación el número de focos activos, esto para dimensionar el grado de afectación natural en la zona de estudio. Para ello, se generó un script mediante el lenguaje de programación en Python (Arcpy), donde únicamente se ingresaban los archivos vectoriales de puntos de calor por año, facilitando notablemente el conteo de puntos de calor por categoría y por municipio. Posteriormente, se realizó la descarga de 2 imágenes de condiciones atmosféricas de la región Costa Alegre mediante la plataforma NOAA (National Centers for Environmental Information). Dichas imágenes fueron usadas para describir si existe relación alguna de las condiciones atmosféricas con la aparición de incendios forestales. Esta relación se describió si existían flujos de aire anormales o intensos y la aparición de precipitación en la zona. En cuanto a la relación de los puntos de calor con las actividades agropecuarias, se utilizó la plataforma Google Earth Engine, donde se realizó un script mediante el lenguaje de programación java, donde se ingresaron muestras de los puntos de calor por año, y mediante el uso de imágenes de satélite se generaron combinaciones de las propias bandas de satélite para identificar las cicatrices de posibles incendios donde se verificó el estado de la vegetación en las zonas de interés pre incendio y post incendio. Por último, se generaron las cartografías de la ubicación de puntos de calor para obtener una visualización precisa de la ubicación espacial de dichos focos. Esto se generó para cada uno de los años en análisis, por lo que, para representación esquemática, se eligieron los dos años con menor y mayor afectación de puntos de calor.


CONCLUSIONES

Al evaluar la cantidad y ocurrencia de puntos de calor en la región se obtuvo un total de 14,522 puntos de calor distribuidos a lo largo de los años de referencia. Se puede mencionar que los meses con mayor ocurrencia corresponden a mayo y junio con un registro de 8,251 y 3,698 puntos de calor respectivamente. Los dos años con el menor número de focos activos fue 2010 y 2012 con 339 puntos de calor 352 respectivamente. En cuanto a los años con mayores puntos de calor pertenecen a 2016 y 2017. En 2016 se registraron 4,998 puntos de calor, de los cuales el 48% de ellos se ubica en el municipio de La Huerta. Por su cuenta, en 2017, se registraron 3,399 puntos de calor. Dichas ocurrencias presentan el 24% del total de incendios en el periodo de análisis, por lo que también constituye una parte fundamental del fenómeno del niño y las condiciones climáticas presentes. En cuanto al análisis de vegetación, se puede mencionar que a lo largo del periodo de análisis los dos tipos de vegetación mayormente afectadas se encuentran la selva baja y el bosque, ambos representan el 31% y 24% de los puntos totales en la región de estudio. Cabe destacar que en la visita a campo en cada uno de los tres municipios del área de estudio se pudo observar que evidentemente existe una relación de los puntos de calor con los datos obtenidos por la plataforma del Sistema de Alerta Temprana de Incendios en dichos sitios. La quema agrícola por parte de ejidatarios forma parte importante en la aparición de los incendios forestales, esto para favorecer la producción y fomentar la capacidad agrícola de las parcelas. Además, el cambio de cobertura y uso de suelo en la zona de estudio, también se considera como una práctica habitual para realizar un desmonte efectivo y rápido para poder localizar nuevos asentamientos o para fines diversos que constituyen la expansión humana y económica de la región.
Valencia Méndez Alan Giovanni, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Emmanuel Lopez Neri, Universidad del Valle de México, Campus Guadalajara

CARACTERIZACIóN VIAL NODO PERIFéRICO-SUR/COLóN


CARACTERIZACIóN VIAL NODO PERIFéRICO-SUR/COLóN

Valencia Méndez Alan Giovanni, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Emmanuel Lopez Neri, Universidad del Valle de México, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El crecimiento poblacional y expansión de la mancha urbana en las grandes ciudades, incrementa la necesidad de desplazamiento humano y material, lo que ocasiona un tráfico vehicular de menor fluidez en sus principales vías, que lleva consigo distintas consecuencias, y la ciudad de Guadalajara no es la excepción en ello. En la zona de Periférico sur, justo donde termina la línea 2 del tren ligero, se presenta un congestionamiento vial, de dirección oriente a poniente, ocurriendo principalmente en tres distintos horarios del día; 8:00 a 11:00 am, 2:00 a 5:00 pm y 7:00 a 9:00 pm. Abarca una longitud en promedio de hasta 7.2 km, pudiendo variar dependiendo la hora e intensidad de vehículos. Existen diversos factores que pueden originar el embotellamiento, y es necesario caracterizar ciertos parámetros. 



METODOLOGÍA

Se determinaron, de manera empírica, los zonas de conflicto en el lugar, para posteriormente establecer los puntos de medición del flujo vehicular. Se realizaron aforamientos durante diez días, en los que se tomó en cuenta la dirección del flujo de los vehículos y su clasificación, y también se realizaron mediciones de los tiempos de entrada y salida del transporte público, para calcular el tiempo promedio que tardan estacionados, recogiendo gente. Con los datos obtenidos y su conteo general, se prosiguió a hacer un análisis general del comportamiento de los vehículos y explicar el fenómeno, mediante cálculo de intensidades, y comparaciones entre valores de flujo.


CONCLUSIONES

Se concluyó que el embotellamiento es generado principalmente por dos factores, los cuales tienen que ver con la Teoría de colas. Los transportes que llegan a la zona, invaden uno de los cuatro carriles de Periférico-Sur, esto además de reducir la capacidad de la vía, genera una cola de espera en los vehículos que vienen sobre el carril, y también cuando los transportes terminan su tiempo de espera y van a salir a cambiarse de carril, ocasionan un stop o bien, un des aceleramiento en los vehículos que venían sobre el otro carril. Además, se presenta una mezcla de flujos entre los vehículos que vienen sobre la vialidad y necesitan cambiarse de carriles para desviarse hacia otra avenida, ello ocasiona también una disminución de velocidad en quienes vienen en los otros carriles, y esto se va en cadena. En base a todo lo analizado y estudiado a lo largo de la investigación, se propusieron dos distintas soluciones para el conflicto vial.
Valencia Morales José Adán, Universidad Autónoma de Guerrero
Asesor: Dr. Nicholas Robert Varley Middle, Universidad de Colima

ESTUDIO GRANULOMéTRICO DEL FLUJO PIROCLáSTICO DEL VOLCáN DE COLIMA DURANTE EL AñO 2015.


ESTUDIO GRANULOMéTRICO DEL FLUJO PIROCLáSTICO DEL VOLCáN DE COLIMA DURANTE EL AñO 2015.

Valencia Morales José Adán, Universidad Autónoma de Guerrero. Asesor: Dr. Nicholas Robert Varley Middle, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El estudio de los flujos piroclásticos ha ido incrementado su importancia durante los últimos años, ya que estos representan uno de los mayores riesgos volcánicos que puede producir un volcán activo (Caso del Volcán de Fuego o Volcán de Colima) a poblaciones circundantes a este; además de que se sabe muy poco acerca del comportamiento de este tipo de flujos. La importancia de estudiar dichos flujos principalmente es para saber su alcance y la fuerza con la que estos pudieran llegar a tener, pero para obtener dicha información, se han hecho diversos estudios (como mecanismos de transporte y sedimentación), así como también experimentación e hipótesis para llegar a una conclusión parcial. Este trabajo se ha concentrado en estudiar la parte granulométrica de un flujo piroclástico que ocurrió en el Volcán de Colima durante el año 2015, ya que una de las divisiones de estos es de acuerdo al tamaño de partículas que lo constituyen; además como variaciones de tamaño de grano a lo largo del flujo y también variaciones verticales a escala de afloramiento utilizando herramientas estadísticas.



METODOLOGÍA

Metodología. Consistió en tres partes Primeramente, en gabinete fue la parte teórica, ya que fue importante saber cuáles son los mecanismos para formar flujos piroclásticos, qué condiciones limitan a estos, y además cómo se dividen; no solo considerando el tamaño de partículas, sino también el tipo de depósito que estos generan. Además, saber la anatomía sobre el flujo piroclástico del Volcán de Colima que ocurrió en el año del 2015. El muestreo se dividió en tres zonas a lo largo de la Barranca de Monte Grande: 1.-Inferior. 2.-Medio. 3.-Superior Anteriormente ya se tenía muestreado la zona media e inferior, dónde se tomaron muestras aproximadamente cada 200 metros y a nivel afloramiento se tomó de la parte inferior y superior. Personalmente hice el muestreo de la zona superior del flujo piroclástico, donde se recolectaron cinco muestras aproximadamente cada 200 metros. Laboratorio. 1. Se secaron las muestras aprovechando solo la energía solar 2. Posteriormente del secado de las muestras se pasaron por tamices que van de un tamaño >64 mm, <64mm - >32mm, <32mm - >16mm, <16mm - >8 mm, <8mm ->4mm, <4mm - >2mm, <2mm - >1mm, <1mm - >500 micras, <500 micras - >250 micras, <250 micras - >125 micras, <125 micras - >63 micras, a menores a 63 micras. Maquina RO -TAP usada para tamizar 3. La fracción retenida en cada tamiz se pesó con una balanza analítica. 4. Finalmente, los pesos de cada fracción fueron recalculados al 100% y se graficaron en histogramas de frecuencia.


CONCLUSIONES

De acuerdo a Capra, L., Sulpizio, R., Márquez-Ramirez, V.H., Coviello, V., Doronzo, D.M., Arambula-Mendoza, R. and Cruz, S., (2018), el flujo se define como de bloques y cenizas. Además de que en el rango de la división más general de este tipo de flujos las Corrientes de Densidad Piroclástica (PDC´S) por sus cifras en inglés; se pudo probar cuantitativamente la alta concentración de partículas sólidas que definen a una corriente de densidad Piroclástica concentrada, por eso presentan una pobre selección. De acuerdo a las gráficas existe una tendencia de distribución polimodal en el tamaño de grano que puede ser debido a fragmentación tal vez debido a la colisión entre las partículas durante el transporte. Según Capra, L., Sulpizio, R., Márquez-Ramirez, V.H., Coviello, V., Doronzo, D.M., Arambula-Mendoza, R. and Cruz, S., existe segregación de ciertos componentes y fracciones de tamaño durante el transporte y emplazamiento y abrasión (2018). Esto gracias a los registros sísmicos que se han utilizado con anterioridad para el reconocimiento, la ubicación y la duración del PDC utilizando estaciones de banda ancha utilizando geófonos ubicados en puntos estratégicos de la Barranca de Monte grande, y gracias a estos registros se puede dar a entender que existe una partición de la energía e interacciones partícula-partícula ya que la energía sísmica explica las fuerzas de fricción basales en la interfaz del canal de flujo, así como también el régimen de colisión entre partículas, que promueve la segregación de los clastos hacia arriba como se observa en los depósitos.
Valenzuela Barrón José Ángel, Universidad de Sonora
Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey

BOMBEO OPTOMECáNICO EN CIRCUITOS MICROFLUíDICOS.


BOMBEO OPTOMECáNICO EN CIRCUITOS MICROFLUíDICOS.

Valenzuela Barrón José Ángel, Universidad de Sonora. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La adjudicación de un momento lineal a las ondas electromagnéticas ha conllevado al desarrollo de diferentes tipos sistemas ópticos que buscan aprovechar de la forma más versátil esta propiedad, entre estos, se encuentran los sistemas optomecanicos que desarrollan una gran importancia en el manejo y control apropiado de la materia, por medio del empleo del rango de frecuencias de las mismas ondas. La incorporación del momento lineal es normalmente planteada en los estados sólidos, dada la importancia de su estudio se ha decido redirigir al estado líquido dando con echo en una rama de investigación en la que se sentara sus bases el mismo proyecto, los microfluidos. En presentación al proyecto estructurado en el verano de investigación ,dando énfasis en una mayor importancia a la dinámica del fluido en el sistema, buscando con ello las bases teóricas de un análisis profundo de un sistema configurado por cavidades fotónicas repartidas alrededor de un canal de microfluídico. Buscando con ello el control de flujo en el mismo.



METODOLOGÍA

Se preveo la obtención de una expresión en la que se plasmara el momento lineal de luz enfocándose en las fuerzas obtenidas por Abraham y Minkowski respectivamente, por lo que se le dio un análisis teórico riguroso de la expresión y su obtención. A partir del momento obtenido se vio que el momento depende de las variables del campo eléctrico y magnético, así mismo como del medio. Al observar que el sistema dependería de estas variables, se procedió analizar los modos en que el campo electromagnético se propaga a través de una guía de onda circular, para a si mismo proceder con el análisis de un sistema guías acopladas. Obtenidas las bases teóricas, se desarrolló un análisis numérico con el programa COMSOL Multiphysics 5.4 de una guía de onda circular y rectangular con núcleo de GaAs y envoltura del mismo con una diferencia a favor en el núcleo del índice de refracción de .05 y una potencia de una potencia de 1mW a una frecuencia de 2.6069E14 Hz. Obteniendo una fuerza constante en todo el medio. Así mismo se procedió hacer el análisis numérico para dos ondas acopladas, que, procediendo con los mismos datos en ambas cavidades, da como resultado una interacción propia del sistema, obteniendo así una oscilación de los campos electromagnéticos producidos por la misma interacción, con ello obteniendo una fuerza variable. En el sistema de tres guías se produce un efecto similar al que se encontró en el sistema de dos guías, cambiando solamente en la posición y magnitud. Calculando la fuerza necesaria para producir un movimiento en el líquido se puede prever la capacidad de las variables necesarias para que el movimiento del fluido pueda fluir a través del canal.


CONCLUSIONES

Las expresiones y análisis numéricos obtenidos durante la investigación de verano se verán como una base sistemática para un posterior análisis del sistema optomecanico de cavidades microfluídicas en el que se buscara tener ya el control optimo del sistema.
Valenzuela Celaya Adrian Eduardo, Universidad de Sonora
Asesor: Dr. Octavio Jose Obregon Diaz, Universidad de Guanajuato

GRAVEDAD MODIFICADA: SOLUCIONES ESFéRICAMENTE SIMéTRICAS


GRAVEDAD MODIFICADA: SOLUCIONES ESFéRICAMENTE SIMéTRICAS

Valenzuela Celaya Adrian Eduardo, Universidad de Sonora. Asesor: Dr. Octavio Jose Obregon Diaz, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Estamos principalmente interesados en una teoría de gravedad modificada en la forma f (R),donde f (R), es una función analítica del escalar de Ricci. Sustituimos la función del escalar de Ricci en la acción de Einstein Hilbert, y deducimos su ecuación de movimiento mediante un principio variacional. En ciertos límites damos alguna forma funcional para f (R).



METODOLOGÍA

Primero obtuvimos las ecuaciones de Einstein en el vacío a través de la acción de Einstein-Hilbert (usaremos la notación de Einstein sobre índices repetidos) G_μν = R_μν − g_μν R = 0, después obtuvimos una solución exacta a las ecuaciones de Einstein para el caso de un campo simétricamente esférico producido por un cuerpo masivo esféricamente simétrico y que este en reposo, llamada Solución de Schwarzschild. El elemento de linea de nuestro espacio-tiempo es el siguiente: ds^2 = −e^2ν dt^2 + e^2λ dr^2 + r^2 dθ^2 + r^2 (sinθ)^2dφ^2 , donde ν y λ son funciones que dependen de r. Esta métrica es válido a distancias cercanas al origen de un campo estático y es invariante en el tiempo. Encontramos que la solución al elemento de linea de nuestro sistema es ds^2 = −( 1 M/r)dt^2 + (1 M/r)^(-1)dr^2 + r^2 dθ^2 + r^2(sinθ)^2dφ^2 . Por último, obtuvimos una solución a las ecuaciones de Einstein modificadas, esto es, agregando una función f (R) que depende del escalar de Ricci, a la acción de Einstein-Hilbert. Encontramos que la ecuación de movimiento en gravedad modifica es F(r)R_νμ − g_νμf(r) − [∇_ν ∇_μF(r) − g_νμF(r)] = 0 Y utilizando la métrica de Schwarzschild para este sistema encontramos que los coeficientes del elemento de linea son e^2ν =(D/C + A/D) + 2A/3Cr - (1 - 2AC/D2)r + Br2 + (C/D2-2C3A/D4)r2ln(C+D/r), e^2λ = (e^2ν )^(-1) , donde A, B , C y D son constantes de integración.


CONCLUSIONES

Las ecuaciones de movimiento de la gravedad f (R), dispuestas en un espacio-tiempo curvo esféricamente simétrico y estático en el vacío, al ser resueltas, nos permitió investigar una rica estructura, y que bajo ciertas elecciones en las constantes de integración, nos permite empatar nuestras soluciones con la Relatividad general, además, encontramos dos soluciones linealmente independientes adicionales, que no se encuentran a nivel de la Relatividad General. Nos queda por comprobar que la métrica obtenida en gravedad modificada se reduce a la solución de Schwarzschild y Schwarzschild-Sitter, esto con una elección correcta de las constante de integración A, B, C y D.  
Valenzuela Ruiz Carlos Gabriel, Universidad Autónoma de Sinaloa
Asesor: Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)

ESPACIO DE N-TUPLAS QUE CONMUTAN DE GRUPOS COMPACTOS DE LIE BAJO LA ACCIóN NATURAL DEL GRUPO CíCLICO DE ORDEN N.


ESPACIO DE N-TUPLAS QUE CONMUTAN DE GRUPOS COMPACTOS DE LIE BAJO LA ACCIóN NATURAL DEL GRUPO CíCLICO DE ORDEN N.

Valenzuela Ruiz Carlos Gabriel, Universidad Autónoma de Sinaloa. Asesor: Dr. Jose Maria Cantarero Lopez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El espacio de n-tuplas que conmutan de SU(2) (Hom(Zn,SU(2)) ha sido de especial importancia para la física de supersimetría, en especial cuando el grupo SU(2) actúa por conjugación sobre este. Se plantea el estudio de este espacio con un enfoque más elemental, que es cuando el grupo Zn actúa de manera natural sobre Hom(Zn,SU(2)). El estudio de este espacio se ha visto reflejado en los artículos de distintos investigadores alrededor del mundo, tales como E. Torres Giese y D. Sjerve que en su artículo Fundamental groups of commuting elements in Lie groups dan una construcción explícita para el grupo fundamental de Hom(Zn,G) así como los grupos de homología de Hom(Z2,G) donde G es SU(3), SU(2) y U(2); Thomas Baird, Lisa C. Jeffrey y Paul Selick en su artículo The space of commuting n-tuples in SU(2) hacen una descomposición por sumas de cuña de Hom(Zn,SU(2)) y calculan la cohomología entera de este espacio.



METODOLOGÍA

Se empezó revisando los productos cíclicos de la n-esfera, primero se calculó el caso para el producto cíclico de dos 1-esferas mediante topología y luego se calculó para el caso general utilizando lo expuesto en el artículo de Minoru Nakaoka Cohomology theory of a complex with a transformation of prime period and its applications. El propósito de revisar los productos cíclicos de esferas fue porque hay cocientes análogos cuando se estudia el espacio de tuplas que conmutan. Después de esto se revisó la teoría de G-CW complejos, para intentar darle una estructura celular a Hom(Zn,SU(2)) de tal manera que se comportara de manera natural respecto a la acción natural del grupo Zn, esta estructura se le dio basándose en el trabajo desarrollado en la tesis de Trefor Bazett The equivariant K-Theory of commuting 2-tuples in SU(2).


CONCLUSIONES

-Se obtuvo una descomposición de Hom(Z2,SU(2)) que es compatible con la acción natural de Z2 y se calculó la homología de este espacio utilizando la sucesión exacta de Mayer-Vietoris. -Se va a escribir con detalle el caso de Hom(Z2,SU(2))  y se pensará en el caso general Hom(Zn,SU(2)) con la acción de Zn.
Valenzuela Terán Jonás, Universidad de Sonora
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

TDOA DE DESCARGAS ELéCTRICAS


TDOA DE DESCARGAS ELéCTRICAS

Ramirez Diaz Jose Luis Aramis, Instituto Tecnológico de Tepic. Valenzuela Terán Jonás, Universidad de Sonora. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las estaciones meteorológicas monitorean y registran constantemente el comportamiento del clima en una región para obtener información sobre qué riesgos se presentan, su frecuencia y como mitigarlo.     En esta ocasión, el objetivo es detectar la posición y el tiempo de descargas eléctricas en una ciudad, y así conocer la inversión necesaria para protegerse de estas. Esto haciendo uso de sensores y placas SBC de bajo costo.



METODOLOGÍA

El sensor utilizado fue el AS3935 Franklin Lightning Sensor, que funciona a base de un resonador LC paralelo, con una frecuencia de resonancia de 500 kHz, esto para evitar ruido ocasionado por señales de radio. Este se coloca en 3 ubicaciones diferentes en la ciudad, y las coordenadas de la descarga eléctrica son calculadas con la diferencia de tiempo de llegada de la señal (TDOA).     La placa SBC utilizada fue la Raspberry Pi 3 Model B V1.2, donde se controla y obtiene datos de el sensor con programación en lenguaje Python 3.7 bajo el protocolo I2C.     Se creó un programa en el lenguaje de programación Python para procesar los datos obtenidos que cumple con las siguientes funciones: - Seleccionar datos tomados dentro de un intervalo de tiempo especificado - Detección de eventos registrados por las 3 ubicaciones - Cálculo de coordenadas de eventos por TDOA     Para obtener un entorno visual más cómodo para el usuario se realizo la programación de una página web por medio del lenguaje de programación Php 7.2.18 y JavaScript y para la gestión de base de datos se utilizó MySQL 5.7.26 - Registro y gestión de datos por medio de Base de datos  - Visualización de eventos vía web con formato adecuado para visualización en Google Maps.     Se implementó además una alternativa de sincronización automática de datos en la nube, utilizando un repositorio github, y comandos shell dentro de crontabs, scripts que se ejecutan periódicamente en el sistema operativo linux.     Se creó un programa html, como alternativa para la visualización de datos en Google Maps, utilizando el lenguaje de programación JavaScript.


CONCLUSIONES

Debido a la eficiencia del sensor para detectar una descarga eléctrica (30% para una distancia de 15 km y ruido típico), la eficiencia de que un sistema de 3 ubicaciones con n sensores en cada una, se calcula con la probabilidad que al menos 1 sensor de cada ubicación detecte la descarga, es decir, con distribución binomial. Se obtiene que para un sensor en cada ubicación la eficiencia es de 2.7%, para pares es de 7.41% y para ternas 8.58%.     Esto no brinda la suficiente información útil para una estación meteorológica, sin embargo, si se cambia sensor con uno de mayor eficiencia de detección, el sistema de sincronización, procesamiento, y visualización de datos que fue desarrollado puede seguir siendo utilizado y queda abierto a la comunidad científica bajo el repositorio Github: https://github.com/24jonas/TDOA-de-Descargas-Electricas para crear estaciones meteorológicas de monitoreo y localización de descargas eléctricas en distintas ciudades.
Valles Silva Jorge Miguel, Universidad de Guanajuato
Asesor: Dr. Roberto Ivan Cabrera Munguia, Universidad Autónoma de Ciudad Juárez

ANáLISIS CLáSICO Y RELATIVISTA DE GEODéSICAS.


ANáLISIS CLáSICO Y RELATIVISTA DE GEODéSICAS.

Valles Silva Jorge Miguel, Universidad de Guanajuato. Asesor: Dr. Roberto Ivan Cabrera Munguia, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Por muchos años se utilizó la mecánica clásica para el estudio del movimiento y la gravedad, sin embargo, hubo experimentos que esta teoría no podía explicar, por lo cual se propuso la relatividad general. La comparación de las ecuaciones de movimiento de los planetas del sistema solar muestra algunas de las diferencias entre ambas teorías, además de poner en evidencia nuevas aportanciones de la relatividad general, tal como la precesión del perihelio de las órbitas planetarias.



METODOLOGÍA

Las órbitas plantarias se modelaron en un principio con mecánica clásica como la trayectoria de un cuerpo bajo una fuerza central inversamente proporcional al cuadrado de la distancia (producida por la atracción gravitacional del sol). Con este modelo se encontraron las constantes de movimiento y se dedujeron las leyes de Kepler. Luego se hizo una clasificación de las trayectorias en función de la energía total, siendo en cualquier caso una sección cónica. Para los planetas del sistema solar son elipses. Al tomar en cuenta las fuerzas que ejercen los demás planetas del sistema solar la elipse ya no es estable, encontrando así la precesión del perihelio. Para hacer una estimación de la precesión del perihelio de un planeta, se modelan los demás planetas como anillos concéntricos y con masa uniforme, de radio igual al promedio del radio orbital respectivo. Además, se propone que las órbitas son casi circulares y el valor del radio orbital es un oscilador armónico. De esta manera se obtiene una fórmula sencilla para la precesión. Esta fórmula depende del potencial gravitacional, el cual se calculó por medio de una serie de potencias computacionalmente. Para la parte de relatividad, se dieron los postulados de la relatividad especial y con ellos se hizo una deducción de las transformaciones de Lorentz. Con ellas se derivaron algunos resultados como la dilatación del espacio y del tiempo, la adición y transformación de velocidades y las expresiones para el ímpetu y la energía. Además se hizo una introducción al uso de tensores, seguido de un análisis de las ecuaciones de Maxwell para luego escribirlas en términos de tensores y en forma covariante. Ya que relatividad general requiere de más tiempo para formular matemáticamente, se dio una breve introducción a la misma.Se derivó la ecuación geodésica usando el principio de mínima acción y se realizó un somero análisis de la deducción de la métrica de Schwarzschild. El uso de esta métrica de como resultado ecuaciones de movimiento que describen una órbita no elíptica. Esto ofrece una aportación puramente relativista a la precesión del perihelio de los planetas que se puede calcular por medio de una integral definida. Como la integral no es analítica, por medio de aproximaciones se le dio una forma analítica.


CONCLUSIONES

Los resultados obtenidos con la aproximación clásica de la precesión del perihelio para los planetas del sistema solar se muestran a continuación en arcosegundos por año terrestre: Mercurio: 5.53 Venus: 12.05 Tierra: 12.79 Marte: 17.68 Júpiter: 7.51 Saturno: 18.57 Urano: 2.75 Neptuno: 0.67 La aproximación de la aportación relativista fue la siguiente: Mercurio: 0.43 Venus: 0.086 Tierra: 0.038 Marte: 0.014 Júpiter: 6.2x10-4 Saturno: 1.4x10-4 Urano: 2.4x10-5 Neptuno: 7.8x10-6 Por otra parte, los datos observados por la NASA son: Mercurio: 5.75 Venus: 2.04 Tierra: 11.45 Marte: 16.28 Júpiter: 6.55 Saturno: 19.5 Urano: 3.34 Neptuno: 0.36 En su mayoría las aproximaciones clásicas fueron buenas, a expeción de Venus y Neptuno. Esto se debe a la baja excentricidad de sus órbitas y por tanto alta sensibilidad en los cálculos. Podemos notar en los cálculos que entre más lejos del sol la aportación relativista a la precesión es menor. Esto ocurre porque las ecuaciones del movimiento relativistas tieneden a las clásicas cuando la distancia tiende a infinito.  Haciendo una aproximación más sofisticada a la precesión del perihelio de Mercurio se obtiene un valor aproximado de 5.3 arcosegundos por año, que sumados con la aportación relativista da 5.73, un valor bastante cercano al observado. Es por esto que esta aportanción relativista es de suma importancia histórica.
Valois Suarez Jonathan, Universidad Autónoma de Guerrero
Asesor: Dr. Rosario Vázquez Morales, Universidad Nacional Autónoma de México

SIMULACIÓN NUMÉRICA DE FLUJOS DE LAVA PARA EL COMPLEJO VOLCÁNICO TACANÁ


SIMULACIÓN NUMÉRICA DE FLUJOS DE LAVA PARA EL COMPLEJO VOLCÁNICO TACANÁ

Valois Suarez Jonathan, Universidad Autónoma de Guerrero. Asesor: Dr. Rosario Vázquez Morales, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

México, por el contexto tectónico en el que se encuentra, es propenso a tener una actividad volcánica constante, que se ha presentado a lo largo de millones de años tanto explosiva como efusiva; en este proyecto de investigación, se abordó la actividad efusiva desarrollada por el Complejo Volcánico Tacaná (CVT), localizado en el sureste de la República Mexicana, en el límite entre el estado de Chiapas y Guatemala. El CVT está compuesto por cuatro estructuras volcánicas alineadas en dirección NE-SW, denominadas de la más antigua a la más joven: Chichuj, Tacaná, Domo las Ardillas y volcán San Antonio. Böse (1902,1903) y Waibel (1933) consideraron como un volcán inactivo, pero no extinto; prueba de ello es que en 1949 y en 1986, el complejo tuvo explosiones freáticas cerca de la cima, actividad que le mereció ser incluido en el catálogo de volcanes activos del mundo. Aunque en tiempos modernos el CVT no ha presentado actividad efusiva ni explosiva, este volcán no está exento de desarrollar una erupción importante en un futuro; por lo que actualmente se está buscando integrar un mapa de peligros volcánicos. Para ello, en este trabajo se abordó en particular el fenómeno de los flujos de lava, eventos que arrasan con todo a su paso dejando terrenos infértiles y lugares inhabitables por varios cientos de años. El estudio presentado aquí sobre la distribución y alcances de futuros de flujos de lava en el CVT a partir de simulaciones numéricas servirá para la planificación territorial, así como también, para implementar estrategias de prevención y planes de respuesta en el caso que el volcán presentará una erupción de tipo efusiva. De hecho, hoy en día no se cuenta con un mapa de peligros actualizado del CVT que describa las zonas que podrían resultar afectadas tanto por flujos de lava como por otros fenómenos volcánicos, a pesar de que en la actualidad existen varias poblaciones asentadas en el edificio volcánico.



METODOLOGÍA

La metodología utilizada en este trabajo se dividió en seis etapas principales, que a continuación se describen: 1.REVISIÓN BIBLIOGRÁFICA: En primer lugar, se llevó a cabo la recolección y revisión de todo el material bibliográfico disponible del área de estudio, como fueron: artículos científicos, tesis, mapas y publicaciones referentes a la historia eruptiva del CVT; así como también, en la recopilación de la cartografía geológica y topográfica digital (insumos en formato ráster y vectorial). 2.DEFINICIÓN DE LOS ESCENARIOS VOLCÁNICOS: Con el análisis de la información recolectada tanto de la historia eruptiva como de los diferentes flujos de lava cartografiados, la distribución, sus características morfológicas y químicas, se logró identificar y definir al menos dos posibles escenarios eruptivos: I) El primero consiste en una actividad efusiva caracterizada por flujos de lava de longitud máxima entre 3.5 y 4 km; II) El segundo escenario consiste en actividad efusiva caracterizada por la emisión de flujos de lava de longitud máxima de entre 7 y 8 km. 3.ELECCIÓN DEL TIPO DE MODELO A UTILIZAR: Existen dos categorías en los modelos numéricos de flujos de lava: los modelos determinísticos, que se basan en la modelización de la teoría del transporte mediante ecuaciones diferenciales que describen la conservación de la masa y el balance de energía (i.e. FLOWFRONT, LAVASIM, FLOWGO, etc.); y los modelos probabilísticos, que se basan en el modelo de Macedonio, asumen que la topografía es el input que juega el mayor papel en el control de la traza que sigue la lava y zonas potencialmente a ser invadidas por lava (i.e. VORIS, DOWNFLOW, ELFM, etc.). La elección del tipo de modelo está condicionada por los escasos datos de entrada con los que se cuenta para las simulaciones. Es por ello que, para este trabajo de investigación, se optó por utilizar el Etna Lava Flow Model (ELFM), ya que es un modelo probabilístico que puede ser utilizado con un enfoque determinístico. 4.DIGITALIZACIÓN DE MAPAS GEOLÓGICOS-ESTRUCTURALES: A los mapas geológicos estructurales que se obtuvieron, se les hizo un proceso de georreferenciación (utilizando el sistema de coordenadas Universal Transversal Mercator (UTM) con el datum WGS84, para la zona 15 Norte) y digitalización mediante el sistema de información geográfica (SIG) ArcGIS versión 10.4.1. 5.OBTENCIÓN DEL DEMs: Los DEMs de alta resolución (5 m) tanto en formato GRID como ASCII, que se utilizaron en la realización de las simulaciones numéricas mediante en código ELFM, se obtuvieron a partir del SIG Global Mapper versión 20.0.0. 6.VALIDACIÓN DEL MODELO PARA EL CASO DEL CVT: A partir de la cartografía de los flujos de lava se realizó el proceso de validación de resultados del modelo ELFM para cada uno de los escenarios eruptivos considerados. Para el escenario eruptivo con emisión de lavas largas, el cual está basado en la extensión y distribución del flujo de lava Agua Zarca, se requirió de la construcción de un paleo-relieve. Para ello, se realizaron alrededor de 50 perfiles topográficos transversales al flujo de lava Agua Zarca, los cuales sirvieron para la generación de un nuevo DEM con la información de la topografía extraída. Con dicho DEM se llevó a cabo el proceso de calibración para el escenario de emisión de lavas largas del CVT.


CONCLUSIONES

Durante la estancia de verano, y en la realización de este trabajo de investigación; se llevó a cabo un análisis de la historia eruptiva del CVT, con lo que se lograron definir dos escenarios eruptivos posibles para la futura actividad efusiva del volcán. Considerando dichos escenarios, se planeó la simulación de estos utilizando el código ELFM, logrando calibrar ambos escenarios eruptivos con alrededor de 150 simulaciones numéricas. Con el uso del código de ELFM, se espera obtener un mapa de peligros por flujos de lava de corto y largo alcance del CVT, que servirá para implementar posibles rutas de evacuación, así como para actualizar los planes operativos de emergencia volcánica.
Vargas Cholula Naomi, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ana Carolina Ruiz Fernandez, Universidad Nacional Autónoma de México

EVALUACIóN DE NIVELES DE RADIOACTIVIDAD NATURAL EN DIVERSOS COMPARTIMIENTOS AMBIENTALES EN SISTEMAS ACUáTICOS


EVALUACIóN DE NIVELES DE RADIOACTIVIDAD NATURAL EN DIVERSOS COMPARTIMIENTOS AMBIENTALES EN SISTEMAS ACUáTICOS

Vargas Cholula Naomi, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ana Carolina Ruiz Fernandez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Desde el 2015 se ha dado un arribazón de sargazo en las costas de México, el cual está provocando diversas afectaciones en las actividades turísticas y de conservación de la fauna local. La acumulación masiva de sargazo en los litorales y su posterior descomposición puede provocar varios efectos negativos tales como la acidificación del medio por producción de ácido sulfhídrico (H2S), así como el aumento de las concentraciones de nutrientes (nitrógeno y fósforo) y elementos potenciales tóxicos como metales pesados y radionúclidos. El estudio de las concentraciones del radionúclido natural polonio-210 en los ambientes marinos, es de particular interés debido a su importante contribución a las dosis de radiación natural al ser humano, mediante el consumo de especies marinas, lo que podría implicar riesgos para la salud.



METODOLOGÍA

Se analizaron 6 muestras de sargazo provenientes de Puerto Morelos, Quintana Roo. Las muestras de sargazo se molieron y digirieron en una mezcla de ácidos concentrados (HCl, HNO3 y HF) al interior de contenedores de teflón de cerradura hermética, en plancha de calentamiento, a 150°C durante 15 horas. Los digeridos se evaporaron y tras lavados sucesivos con HCl 0.5N, se centrifugaron y se eliminó el residuo sólido. La solución fue utilizada para separar los isótopos de polonio presentes en la muestra mediante depósito espontáneo sobre discos de plata, a los cuales se les determinó la actividad mediante espectrometría de partículas alfa.


CONCLUSIONES

De las seis muestras analizadas de Sargassum sp. de Puerto Morelos, Quintana Roo, sólo se tienen resultados de dos de ellas, en las que se observa que los niveles de actividad de polonio-210 son comparables dentro de la incertidumbre analítica (<10%): 89.9±5.7 y 95.5±6.1 Bq kg-1. El intervalo de valores de polonio-210 reportados para otras partes del mundo, para especies como S. vulgare, S. sp., S. wightii, S.boreanum, S. oligocystum y S. linearifolium es amplio, y abarca desde 2.8±0.5 Bq kg-1 para S. wightii en el Golfo de Bengala, en India (Suriyanarayanan, 2008), hasta 93±3 Bq kg-1  para S. vulgare de la Isla de las Canteras, en España (Tejera, 2019). Las actividades de polonio-210 observadas en este estudio se ubican entre los valores más altos encontrados en la literatura internacional. 
Vargas Navarro Luis Gabriel, Universidad de Guadalajara
Asesor: Dr. Astrid Lorena Giraldo Betancur, Centro de Investigación y de Estudios Avanzados (IPN)

INFLUENCIA DE LA TEMPERATURA Y EL TIEMPO DE SINTERIZACIóN DE BHAP OBTENIDA A PARTIR DE HUESO BOVINO


INFLUENCIA DE LA TEMPERATURA Y EL TIEMPO DE SINTERIZACIóN DE BHAP OBTENIDA A PARTIR DE HUESO BOVINO

Gómez González Araly, Universidad de Guadalajara. Vargas Navarro Luis Gabriel, Universidad de Guadalajara. Asesor: Dr. Astrid Lorena Giraldo Betancur, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La hidroxiapatita (HAp) es un material de alto interés en el sector biomédico considerando que es el principal componente mineral del hueso. Este puedo ser extraído de fuentes sintéticas a partir de reactivos en las proporciones indicadas; y, de fuentes naturales, donde usando biodesechos y llevando a cabo diferentes procesos, se eliminan los componentes orgánicos del material base y se conserva lo que comúnmente se conoce como bio-hidroxiapatita o BHAp. En este último caso, la  BHAp es un material de gran interés debido a que es química y térmicamente estable, al igual por su gran dureza y osteoconducción, las cuales son propiedades que le permiten tener un enlace químico con el tejido huésped.



METODOLOGÍA

Considerando la importancia de establecer los cambios físicos y químicos en función de la temperatura para una BHAp obtenida a partir de fuente de bovino, se realizó un estudio térmico determinando los cambios estructurales, morfológicos y de composición en función de la temperatura de tratamiento térmico y el tiempo. Este proceso llevó a cabo mediante un diseño de experimentos (DoE) factorial 22; para esto se usaron dos niveles: alto y bajo para las variables temperatura y tiempo. 


CONCLUSIONES

Las variables de respuesta evaluadas fueron cambios estructurales, morfología y composición, evaluados mediante difracción de rayos X (DRX) y espectroscopía infrarroja por transformada de Fourier (EITF), microscopía electrónica de barrido (MEB) y espectroscopia de energía dispersiva de rayos X (EEDX), respectivamente. Las respuestas obtenidas permitieron establecer que altas temperaturas y tiempos, favorecieron la aparición de fases en solución sólida dentro de la estructura de la BHAp, derivadas de los elementos presentes en la estructura primaria del material de partida. Durante estas siete semanas se realizaron dos revisiones, una a la mitad de la estancia y la otra al finalizar, que permitieron evaluar los avances y las conclusiones obtenidas durante la estancia.
Vasquez Geron Ayhra Jethzell, Universidad Veracruzana
Asesor: Dr. Carlos Manuel Welsh Rodriguez, Universidad Veracruzana

PERCEPCIóN LOCAL SOBRE EL CAMBIO CLIMáTICO Y LOS GEOPELIGROS EN EL PARQUE NACIONAL PICO DE ORIZABA


PERCEPCIóN LOCAL SOBRE EL CAMBIO CLIMáTICO Y LOS GEOPELIGROS EN EL PARQUE NACIONAL PICO DE ORIZABA

Vasquez Geron Ayhra Jethzell, Universidad Veracruzana. Asesor: Dr. Carlos Manuel Welsh Rodriguez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es el mayor desafío de nuestro tiempo y nos encontramos en un momento decisivo. Desde pautas meteorológicas cambiantes, que amenazan la producción de alimentos, hasta el aumento del nivel del mar, que incrementa el riesgo de inundaciones catastróficas, los efectos del cambio climático son de alcance mundial y de una escala sin precedentes (ONU, 2019), actualmente las líneas de investigación de la Universidad Veracruzana y del Centro de Ciencias de la Tierra, es la Climatología en el Glaciar Pico de Orizaba; en el marco del proyecto GEO-HAZARDS se realizará una evaluación de los posibles efectos del calentamiento global en la zona del Parque Nacional Pico de Orizaba para identificar los Impactos locales y regionales del cambio global de la región.



METODOLOGÍA

Se realizaron encuestas a 150 personas, distribuidas en localidades alrededor del Parque Nacional del Pico de Orizaba; 3 localidades ubicadas en el estado de Puebla y 3 localidades ubicadas en el estado de Veracruz. A través de un estudio estadístico y con ayuda de la topografía se seleccionaron 3 comunidades de ambos estados que representan el trayecto de ascendencia al Glaciar del Pico de Orizaba las cuales se ubican entre 1500 y 3500 m.s.n.m. Asi mismo para la obtención de resultados se agruparon en dos categorías: baja altitud (aprox. 1500-2500 m.s.n.m) y gran altitud (aprox. 2500-3500 m.s.n.m.) Las respuestas recolectadas se obtuvieron de 19 indicadores, 11 enfocados al cambio climático, 5 sobre el uso de suelo y sus afectaciones y 3 sobre geopeligros. Los encuestados fueron personas mayores de 30 años, en donde el principal objetivo era enfocarnos  en las personas mayores de 60 años que radicaran en su localidad igual o más de 10 años, asi mismo se relataron historias de vida sobre cómo ha sido el cambio de temperatura y como les ha afectado en sus actividades y la forma de producción económica. El cuestionario fue estructurado con preguntas de opción múltiple dando más de 3 opciones de respuestas para no limitarlos; Si, No, No lo sé y Tal vez.


CONCLUSIONES

Como parte integral de la investigación se obtiene diversos resultados, A través del enfoque de la geografia de la percepción con ayuda de las estadísticas y de acuerdo a los estudios previos, se obtiene que la sociedad cree que si existe un calentamiento global, en donde ha aumentado el calor del suelo y de la atmosfera lo cual provoca el derretimiento del glaciar (ultimo glaciar a nivel nacional), en primera instancia se obtuvo que Los encuestados percibieron cambios notables en las condiciones climáticas locales, la frecuencia de los desastres naturales y los procesos ecológicos; aparición de nuevas especies florísticas y frutales, así como la desaparición de especies animales, la percepción del calentamiento en los últimos 10 años ha sido drástica y ha modificado su forma de adaptación. Se obtuvo que un 95% de los encuestados si cree que existe un calentamiento global y que por ende el Parque se ve afectado por el mismo, 80% de la población encuestada cree que el principal efecto del calentamiento es la disminución de lluvias en un 99% ya que este se ve atemporal de acuerdo a las estaciones del año y a la altitud de cada localidad, por lo que afecta a un 60% de la economía, puesto que el principal recurso de los pobladores de las localidades encuestadas está destinada a la agricultura y ganadería, por lo que el calentamiento afecta a sus cultivos provocando apariciones de plagas, inadaptación de los cultivos o una temporalidad mayor a la prevista, a esto se le suma la escases de servicios de poseen, tales de infraestructura, comunicaciones y sector salud, agravando más la situación de la sociedad que habita las localidades cercanas al Parque. Cabe mencionar que dichos resultados serán complementados con otra metodología para corroborar datos, ya que es un trabajo de largo plazo. Actualmente se sigue trabajando para la obtención de escenarios a futuro para complementar con los resultados obtenidos en campo y que estos resultados solo son una pequeña parte de una análisis minucioso.
Vásquez Rosas Brenda, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur

COMPARACIóN DE LA ABUNDANCIA DE MICROPLáSTICO EN ARRECIFES DE LA ISLA ESPíRITU SANTO


COMPARACIóN DE LA ABUNDANCIA DE MICROPLáSTICO EN ARRECIFES DE LA ISLA ESPíRITU SANTO

Vásquez Rosas Brenda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Héctor Reyes Bonilla, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

El descubrimiento de los polímeros plásticos revolucionó la vida de las sociedades humanas, esto debido a sus bajos costos de producción, durabilidad y la diversidad de productos que permiten manufacturar. Sin embargo, estas mismas características que en principio se consideraban positivas, han derivado en una problemática mundial de contaminación por plásticos. En 2011, se calculaba una producción de 280 millones de toneladas, de las cuales entre 4.8 y 12.7 terminan en el mar. Para 2015, se estimaban 5 trillones de piezas plásticas flotando en el océano. Es conocido que estos polímeros poseen largos tiempos de degradación, y y que pueden fotodegradarse o fragmentarse durante el trayecto que toman una vez que entran al mar. Sin embargo, a la fecha no se ha logrado entender completamente los mecanismos de transporte que rigen su movilidad, desde su ingreso hasta que se sedimentan, ya que factores como el viento, las corrientes superficiales y la adherencia de algas o percebes, afectan el transporte, concentración y hundimiento de los plásticos. Por otra parte, se sabe que en su camino a la degradación las piezas pueden llegan a tener tamaños microscópicos, por lo cual  se les ha nombrado microplásticos. El tamaño que deben tener las partículas para ser consideradas como tal es <5 mm, y existen en forma de fibras, pellets y fragmentos, de diversos colores y tamaños. La creciente ola de estudios sobre la interacción de los microplásticos con la biota marina, se debe a la capacidad del plástico de adsorber toxinas. Además, la hidrofobicidad de los contaminantes orgánicos persistentes (COP’s) facilita su concentración en la superficie la superficie de los plásticos; aunado a esto, fungen como vectores de dichas sustancias para la fauna marina, tal que se ha reportado que la ingesta de fragmentos plásticos contaminados con otras sustancias produce patologías en el hígado de peces. Finalmente, la propia naturaleza tóxica de los plásticos, debida a los derivados del petróleo utilizados durante su manufactura, tales como la acrilamida y el cloruro de vinilo, los han convertido en importantes objetos de estudio. En la actualidad, la mayoría de las investigaciones se enfocan en la cantidad de microplásticos contenidos en los sedimentos costeros y de los flotantes en la columna de agua. Sin embargo, no se ha prestado atención a aquellas partículas que pueden estar sedimentándose en las zonas arrecifales y que también tiene contacto con la fauna propia del lugar. En 2016 se publicó un estudio para la determinación de microplásticos en la bahía de Huatulco, en el cual solo se tomaron muestras a lo largo de la línea de pleamar. Por otra parte, entre 2015 y 2016 se realizó una investigación en la cual se comparó la presencia de microplásticos en 21 playas de la península de Baja California. En este estudio, la recolección de muestras también se llevó a cabo en la línea de pleamar. Es por ello que durante el verano de investigación se pretendió determinar y comparar la cantidad de microplásticos concentrados en sedimentos costeros y arrecifales en diversas zonas del Parque Nacional Archipiélago Espíritu Santo, en La Paz, Baja California Sur.



METODOLOGÍA

Para el estudio, un total de 30 muestras de sedimento fueron tomadas a lo largo del Parque Nacional Archipiélago Espíritu Santo en La Paz, Baja California Sur, en las playas de El Candelero, Punta Raya, El Cardonal, El Corralito y San Gabriel (esta última catalogada como zona núcleo). En cada uno de los puntos se tomaron, de forma aleatoria, 3 muestras de sedimento en la línea costera y 3 más en la zona arrecifal. Para el tratamiento de las muestras, cada una fue lavada con agua corriente, filtrada y secada a temperatura ambiente, y posteriormente se separaron los fragmentos de coral, roca y partículas de materia orgánica de gran tamaño. Luego de esta limpieza se pesaron 30 gramos de cada una de las muestras para realizar el análisis. La separación de los microplásticos se llevó a cabo con la técnica de diferencia de densidad. Para ello se preparó una solución hipersalina (1.2 g de NaCl/mL) a temperatura ambiente para cada una de las muestras, se agregaron los 30 gramos de sedimento seco y se agitó la mezcla durante 2 minutos, posteriormente, se dejaron reposar durante 2 horas. Pasado el tiempo de reposo, se utilizaron filtros comerciales para cafetera para separar el sobrenadante y se dejaron secar durante 24 horas a temperatura ambiente. Debido a las variaciones de la temperatura, algunos filtros requirieron hasta 28 horas de secado. Se obtuvieron 30 filtros que fueron revisados con un estereoscopio a 10x y 30x para hacer la identificación de los microplásticos. Estos se clasificaron por forma y color, además, en el caso de las fibras y fragmentos se midió el largo de cada una de las piezas, mientras que en el caso de los pellets, se midió el diámetro. Durante la examinación las piezas difíciles de determinar, fueron expuestas a la flama para comprobar que se trataba de plástico.


CONCLUSIONES

Se puede reportar el hallazgo de partículas plásticas en todas las zonas muestreadas, tanto en la zona costera como arrecifal. Además, la mayoría se presentaron en forma de fibras plásticas. El Cardonal es la zona con mayor abundancia de microplásticos en la zona arrecifal con una media de 44 piezas/30 g de sedimento; seguida de Punta Raya y San Gabriel con 40 y 39 piezas/30 g de sedimento, respectivamente; en El Candelero se registraron 28 piezas/ 30 g de sedimento y El Corralito fue la zona con menor presencia de microplásticos con 27 piezas/30 g de sedimento. En cuanto a la zona costera, de los cuatro sitios analizados hasta el momento, en El Cardonal se registró una presencia media de 43 piezas/30 g de sedimento; seguido de El Candelero con 38 piezas/30 g de sedimento; después se encuentra El Corralito con 35 piezas/30 g de sedimento; finalmente, en Punta Raya se obtuvo una media de 24 piezas/ 30 g de sedimento. Se puede concluir la existencia de una relación entre la abundancia de microplásticos y la actividades antropogénicas, ya que El Candelero, El Cardonal y San Gabriel son los sitios más utilizados con fines turísticos.
Vázquez García Luis Fernando, Universidad de Guadalajara
Asesor: Dr. Maria Rocio Alfaro Cruz, Universidad Autónoma de Nuevo León

PELíCULAS DELGADAS DE óXIDOS DE VANADIO OBTENIDAS POR EL MéTODO SOL-GEL Y SU APLICACIóN COMO FOTOCATALIZADORES EN PROCESOS FOTO-INDUCIDOS


PELíCULAS DELGADAS DE óXIDOS DE VANADIO OBTENIDAS POR EL MéTODO SOL-GEL Y SU APLICACIóN COMO FOTOCATALIZADORES EN PROCESOS FOTO-INDUCIDOS

Vázquez García Luis Fernando, Universidad de Guadalajara. Asesor: Dr. Maria Rocio Alfaro Cruz, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La contaminación ambiental, es producto de la incorporación al medio ambiente de una serie de agentes tóxicos, ya sea en estado biológico, físico y químico, los cuales, han contribuido al deterioro del medio ambiente contaminando en mayor proporción el aire y el agua. En este sentido la contaminación del aire es producida por la incorporación a la atmósfera de gases de efecto invernadero, producto de las emisiones que deja la obtención de combustibles fósiles. Por otro lado, la contaminación del agua es producida principalmente por el desecho de sustancias contaminantes como productos químicos y residuos industriales en mantos acuíferos, lo que ha provocado que en algunas regiones ya no se pueda utilizar el agua como recurso natural. Actualmente, se han propuesto diferentes soluciones para contribuir a la descontaminación ambiental, los cuales se fundamentan principalmente en el uso de energías limpias y renovables. En este sentido, la fotocatálisis heterogénea se presenta como una de las alternativas más promisorias y efectiva para contribuir en la descontaminación ambiental, ya que se fundamenta en el uso de semiconductores como fotocatalizadores. Los fotocatalizadores al estar en contacto con una fuente de luz, como la luz UV o luz solar, producen reacciones de oxidación y reducción, las cuales contribuyen a la descontaminación ambiental. Ya que, mediante la conversión fotocatalítica del H2O se puede producir hidrógeno (H2) para su uso como vector energético, mientras que de la reducción fotocatalítica del CO2 es posible producir combustibles como metano (CH4), monóxido de carbono (CO), metanol (CH3OH), ácido fórmico (HCOOH) y formaldehído (HCHO), los cuales pueden ser utilizados como combustibles alternos de base solar. Por otra parte, la fotocatálisis contribuye a la descontaminación de aguas mediante la eliminación de compuestos orgánicos. Es por ello que, el proceso de fotocatálisis es una opción limpia, eficiente y viable para la descontaminación del medio ambiente.



METODOLOGÍA

El depósito de las películas delgadas de óxidos de Vanadio por el método Sol-Gel se realizó siguiendo la siguiente metodología: Se utilizaron portaobjetos de vidrio de borosilicato como sustratos para el depósito de las películas de óxidos de Vanadio. Los sustratos fueron limpiados en soluciones de acetona, isopropanol y agua desionizada en ultrasonido por 10 minutos con cada solución. Después de esto los sustratos fueron secados con aire. Para un depósito más homogéneo, los sustratos se sumergieron en una solución de Hidróxido de Sodio (NaOH) al 10% por 24 horas, para después ser enjuagados con agua desionizada y secados en aire. La solución se preparó utilizando 0.8 g de Pentóxido de Vanadio (V2O5) y Peróxido de Hidrógeno (H2O2) al 15%. El H2O2 fue vertido lentamente en el precursor de Vanadio hasta disolverse totalmente. Una vez que se vertió todo el H2O2, la solución fue llevada a 70 °C con agitación constante. El Sol se deja envejecer a temperatura ambiente por 24, 48 y 72 horas previo a su depósito. Los depósitos fueron realizados utilizando un equipo de Dip-Coating de la marca Nadetech Innovations. Las películas fueron depositadas con tiempos de envejecimiento del Sol de 24, 48 y 72 horas. Las películas fueron recubiertas con 1, 2, 3 y 4 capas. Entre cada capa se le dio un precalentamiento de 100° C por 5 minutos para homogeneizar la película sobre el sustrato. Las películas fueron tratadas en un horno tubular a 500°C por 30 minutos. Las propiedades estructurales, morfológicas y ópticas de las películas se caracterizaron por los métodos: Difracción de Rayos X, Microscopía Electrónica de Barrido, Espectroscopía UV-Vis, Espectroscopía de Infrarrojo, Espectroscopía de Fotoluminiscencia y Elipsometría. Las pruebas de fotoreducción de CO2 se llevaron a cabo en un reactor tipo batch de 200 ml utilizando una lámpara de halógeno de 15 W. El reactor se purgó con CO2 por 15 minutos y se llevó a una presión de 2 psi empleando el mismo gas. Las películas dentro del reactor fueron irradiadas con luz visible por 3 horas. Con esta prueba se pudo analizar la absorción de CO2 y su foto-conversión en otros combustibles de base solar como formaldehído. Se evaluó la capacidad de las películas en la degradación de colorantes orgánicos (azul de metileno, índigo carmín, etc). Las películas se colocaron dentro de un reactor, con una solución de 5 ppm del colorante deseado. Se irradiaron con lámparas LED de 7 W de 6000 lúmenes HTC durante 12 horas y se tomaron alícuotas de la solución cada 2 horas. La reacción de degradación fue monitoreada utilizando un Espectrómetro de UV-Vis Lambda 35 de la marca Perkin-Elmer.


CONCLUSIONES

Se obtuvieron películas de óxidos de Vanadio por el método Sol-Gel. Las películas presentaron la fase β-V2O5 con una estructura tetragonal. El ancho de banda prohibida fue calculado utilizando la gráfica de Tauc obteniendo valores entre 2.3 a 2.5 eV. Todas las películas mostraron capacidad de absorber entre 0.5 y 1 psi de dióxido de carbono (CO2) en un tiempo de 3 horas, además, fueron capaces de producir de 1 a 3 µmol de formaldehído. Los resultados de la degradación de colorantes orgánicos. Por lo que las películas de óxido de Vanadio son una buena opción para ser utilizadas como fotocatalizadores en diferentes procesos foto-inducidos. Finalmente, durante la estancia aprendí el uso y manejo de equipos de: Difracción de Rayos X (DRX), Microscopía Electrónica de Barrido (SEM), Espectroscopía de Infrarrojo de Transformada de Fourier (FT-IR). A realizar las pruebas de degradación de CO2 y colorantes orgánicos. El manejo del horno tubular y el equipo Dip-Coating. El depósito de películas por el método Sol-Gel.
Vega Acosta Roberto, Universidad Autónoma de Tamaulipas
Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

PROSPECCIÓN GEOFÍSICA PARA LA DETECCIÓN DE AGUA SUBTERRÁNEA EN AMBIENTES ÁRIDOS; CASO: EL RODEO, MEXQUITIC DE CARMONA, SAN LUIS POTOSÍ, MÉXICO


PROSPECCIÓN GEOFÍSICA PARA LA DETECCIÓN DE AGUA SUBTERRÁNEA EN AMBIENTES ÁRIDOS; CASO: EL RODEO, MEXQUITIC DE CARMONA, SAN LUIS POTOSÍ, MÉXICO

Vega Acosta Roberto, Universidad Autónoma de Tamaulipas. Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La presente investigación es un estudio de caso para la detección de agua subterránea en la localidad El Rodeo, que se ubica en el municipio de Mexquitic de Carmona, en la región Centro del Estado de San Luis Potosí, específicamente al Norponiente de la capital potosina; debido a que esta zona rural, perteneciente a la región hidrológica El Salado (RH37), se enfrenta constantemente a serios problemas de desabasto de este vital liquido, al no poseer corrientes superficiales de gran importancia que sean capaces de satisfacer dicha necesidad, por esta razón, exististe una situación de sobre dependencia del agua que se encuentra por debajo de la superficie terrestre. Ante tal circunstancia, es oportuno aludir a la aplicación de métodos geofísicos, que desempeñan una labor trascendental en la exploración del recurso hídrico, porque permiten identificar las zonas de mayor interés, a partir de la estimación indirecta de los parámetros físicos del subsuelo. En el mejor de los casos, esto significa que este conjunto de técnicas brindan la capacidad de decretar si existen las condiciones necesarias para que una formación geológica sea explotable como un acuífero.



METODOLOGÍA

La metodología desarrollada es teórico - experimental, por ello implica conocer los principales componentes de los equipos, las múltiples formas de operación, los principios físico - matemáticos de medición, la obtención de los datos y el procesado de la información con el aprovechamiento de softwares especializados, para finalmente llegar propuestas de interpretación mediante el uso del razonamiento lógico - deductivo. Esta obra inició con el reconocimiento geológico del área de estudio, a través de numerosas visitas de campo. Al mismo tiempo, se consultaron trabajos previos de carácter regional para proporcionar un soporte teórico. Posteriormente, la implementación de los métodos geofísicos se dividió en dos fases: Primera fase: esta consistió en llevar a cabo la magnetometría terrestre (semidetalle), con la intención de observar de manera local las diferentes respuestas de las rocas. Segunda fase: esta radicó en la ejecución de sondeos eléctricos verticales (detalle), para hacer una caracterización puntual de litología existente.


CONCLUSIONES

Del presente trabajo se ha logrado concretar de manera satisfactoria las distintas campañas de levantamiento, tanto de magnetometría terrestre como de sondeos eléctricos verticales, así como la descarga y la corrección de los valores recopilados. Actualmente, se desarrollan las tareas de procesamiento computarizado. Al respecto, como producto del análisis magnetométrico, se espera obtener diversos mapas magnéticos, creados con ayuda de la herramienta Geosoft, que permitan delimitar los dominios asociados a las diferentes unidades geológicas. También, con ellos será posible determinar los lineamientos vinculados a contactos geológicos, fracturas y fallas. Por otro extremo, de la evaluación geoeléctrica, se tiene como objetivo final generar una curva de resistividad aparente para cada una de las secciones, con la puesta en marcha del programa IX1D, esto para realizar un corte geoeléctrico, en el cual se haga visible el número de capas y los espesores; un vez se tenga todo esto, podrá ser técnicamente viable proponer un corte geológico, respaldado por un amplio conocimiento de la geología de la zona de estudio. No obstante, la investigación aún no se declara como concluida, ya que todavía es necesario llevar efecto de manera detallada el complejo proceso de interpretación de los diferentes mapas y curvas establecidas, así mismo es sustancial otorgar los medios de validación correspondientes.
Velasco Bolom Guadalupe Lizbeth, Universidad Autónoma de Chiapas
Asesor: Dr. Jesús Rogelio Pérez Buendía, Centro de Investigación en Matemáticas (CONACYT)

MONOIDES Y VARIEDADES TóRICAS


MONOIDES Y VARIEDADES TóRICAS

Velasco Bolom Guadalupe Lizbeth, Universidad Autónoma de Chiapas. Asesor: Dr. Jesús Rogelio Pérez Buendía, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Objetivo: Construir y estudiar la estrecha relación entre las estructuras algebraicas llamadas monoides y la geometría algebraica a través de las variedades tóricas.  Planteamiento del problema: La geometría algebraica fue desarrollada enormemente  a principios del siglo XX, años más tarde los matemáticos de la época se dieron cuenta de que esta disciplina necesitaba refundarse mediante el álgebra conmutativa.  En los años 1950 y 1960, los matemáticos rehicieron los fundamentos haciendo uso de la teoría de haces. Más tarde, se desarrolló la idea de los esquemas, conjuntamente con el refinado estudio del álgebra homológica. Las variedades tóricas han recibido diversos nombres y definiciones, desde la primera definición formal por Demazure. Es necesario resaltar la importancia de las variedades t'oricas, que radica en establecer una conexi'on entre la combinatoria y la geometría algebraica. Se han observado aplicaciones de las variedades tóricas en la programación entera, la solución de sistemas de ecuaciones polinomiales, la teoría de códigos, el modelado geométrico y la combinatoria. 



METODOLOGÍA

Metodología El método empleado constituyó en el estudio necesario para comprender y dar respuesta al problema. Particularmente, se trabajó con lecturas de libros y artículos para obtener los conocimientos necesarios, también se realizaron sesiones de dudas y retroalimentación  de los conceptos adquiridos, mesas de discusión además de resolver ejercicios para consolidar el aprendizaje.


CONCLUSIONES

Conclusiones Para construir una variedad tórica afín asociamos sucesivamente a un cono σ en el espacio euclídeo Rn , su cono dual ˘σ en (Rn ) * , lo cual nos permite construir un monoide Sσ = ˘σ ∩ M con M simorfo a Z n un retículo en (Rn ) * . El ideal Iσ, que define la variedad algebraica Xσ se obtiene a partir de un sistema de generadores del monoide Sσ. Es decir, dado un conjunto de generadores de un cono poliédrico racional σ, podemos obtener su cono dual  ˘σ, que pertenece al espacio dual. A éste le asociamos un monoide, Sσ, al que llamamos el monoide asociado al cono σ, de modo que los elementos generadores del monoide provienen de los generadores del cono. Tomando un cono finitamente generado; su monoide es finitamente generado. En adelante solo se considerará monoides finitamente generados. Los polinomios de Laurent son una herramienta muy importante en la teoría de variedades tóricas. Un polinomio de Laurent en varias variables sobre un campo K es una combinación lineal de potencias positivas y negativas de las variables con coeficientes en el campo. Los polinomios de Laurent en la variable Z con coeficientes en el campo K forman un anillo y es denotado por K[Z, Z-1 ]. Estudiando la correspondecia θ : Zn → C[Z, Z-1 ] entre el grupo aditivio Zn y el grupo multiplicativo de polinomios de Laurent, este morfismo nos permite construir la relación entre el anillo de monomios de Laurent asociados al monoide de un cono poliédrico racional con elementos del conjunto algebraico definido por  {(a1, a2, ..., ak) ∈ Ck |f(a1, a2, ..., ak) = 0, ∀f ∈ I(X)}, el cual queda completamente determinado por el anillo cociente Rσ = C[ξ1, ξ2, ..., ξn]/Iσ donde Iσ es el ideal del conjunto algebraico Xσ en Ck . Definimos como SpecM(R) := {M ⊂ R : M ideal maximal} el conjunto de ideales maximales para R un anillo cualquiera. Nos centraremos en trabajar en el ideal asociado al conjunto algebraico Xσ asociado al cono. Dado σ un cono racional, la variedad tórica afín correspondiente a σ es Xσ := SpecM(Rσ) Observemos que la variedad tórica queda determinada por los generadores de su anillo y sus relaciones, por tanto todas las representaciones son isomorfas. Con esto, terminamos la construcción de una variedad tórica afín de un cono poliédrico racional. Un abanico ∆ es la unión finita de conos poliédricos racionales estrictamente convexos, tal que cada cara de un cono vuelve a ser un cono en el abanico, y la intersección de dos conos es una cara común de cada cono. Por ejemplo el espacio C2 se puede cubrir por cuatro conos σ1 =< e*1  , e*2  >, σ2 =< e*1  , −e*2  >, σ3 =< −e*1   , −e*2   >, σ4 =< −e*1  , e*2  >, claramente la union de estos forma un abanico. Bajo una cierta relación entre variedades tóricas afines asociadas a un cono y una cara de éste, se tiene un isomorfismo Xτ ∼= Xσ{uk = o} del cual podemos dar un criterio de pegado entre dos variedades t´oricas af´ınes a lo largo de una parte com´un; la variedad t´orica af´ın de la cara que comparten. Es decir, daremos un isomorfismo entre ambas variedades a trav´es de la variedad de la cara. Donde (u1, u2, ..., uk) y (v1, v2, ..., vl) son las coordenadas de Xσ,Xσ0 respectivamente, se tiene. Ψσ,σ0 : Xσ{uk = 0} → Xτ → Xσ{vl = 0} Puesto que en Xτ podemos hacer el cambio de coordenadas. Con lo anterior podemos definir lo siguiente. Sea ∆ un abanico en Rn . Tomando la unión disjunta `Xσ con σ en el abanico , donde los puntos x ∈ Xσ y x' ∈ Xσ' son identificados si Ψσ,σ'(x) = x' .El espacio resultante X∆ es una variedad tórica Durante la estancia de verano se logró obtener conocimientos de la teoría de variedades tóricas  complejas y su relación con los monoides. Como trabajo a futuro se espera poder hacer un enlace entre variedades tóricas de un conjunto algebraico partiendo solo de un monoide en cualquier campo K, lo cual daría hincapié en la teoría de categorías y esquemas, dando un gran acercamiento a los conceptos de Geometría Logarítmica. 
Velasquez Murrieta Norma Briseyda, Universidad de Sonora
Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara

ANáLISIS ESTADíSTICO DE SERIES DE TIEMPO GENERADOS POR UNA ESTACIóN METEOROLóGICA(LLUVIA)


ANáLISIS ESTADíSTICO DE SERIES DE TIEMPO GENERADOS POR UNA ESTACIóN METEOROLóGICA(LLUVIA)

Velasquez Murrieta Norma Briseyda, Universidad de Sonora. Asesor: Dr. Antonio Velázquez Ruiz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Se considera al clima en un sentido estricto como el promedio del estado del tiempo" o más correctamente como una descripción estadística en términos de valores medios y de variabilidad de las cantidades de interés durante un período que puede abarcar desde algunos meses hasta miles o millones de años. El periodo clásico es de 30 años según la Organización meteorológica mundial(OMM).  Las mediciones climáticas mediante estaciones automáticas pueden presentar irregularidades que son fuente de incertidumbre, por lo que la estadística nos permite describir datos, cuantificar la incertidumbre, así como poder realizar correcciones e hipótesis. El objetivo de este trabajo consiste en un análisis asociado a la variable de precipitación, para esto se usó una serie de datos obtenidos de una estación meteorológica automática marca Davis ubicada en el municipio de Puerto Vallarta con el objetivo detectar irregularidades y posteriormente ser corregidas.



METODOLOGÍA

Con los datos proporcionados de la estación meteorológica automática CUC, se graficaron los datos crudos y se empezó a hacer el análisis donde se pudieron observar algunas irregularidades por lo que los datos se empezaron a filtrar y así se corrigieron algunos huecos, después se capturó la serie de tiempo agrupando los datos por hora, día y año, analizarla y seguidamente graficarla para así poder llegar a una conclusión precisa acerca del trabajo realizado. Para encontrar el hueco de datos más grande de la serie de tiempo del CUC se utilizó la base de datos de precipitación de la estación prepapv. Con esto se logró ver que la mayor cantidad de ausencia de datos se presentaban en diciembre de 2016 pero ese es uno de los meces donde menos llueve. Para rellenar otros huecos de ausencia de datos se utilizó el método de los promedios.


CONCLUSIONES

Comparando los resultados de la estación CUC con los de otra estación (estación prepaPV) se puede decir que, aunque los datos de las dos estaciones presentan gran similitud, la estación de la preparatoria que se encuentra a 4km hay una mayor precipitación. Gracias a estos análisis se identificó que la temporada de lluvia se presenta durante el verano, entre los meces de junio a octubre. También se tiene una temporada seca que se presenta en los meces de noviembre a mayo. Para la población de Puerto Vallarta conocer la variabilidad anual de la precipitación tiene importancia por los ciclos agrícolas y por los problemas de inundación urbana.   
Velázquez Cabrera Jaime Mauricio, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional

CONTROL Y DISEñO EN 3D DE VEHíCULO AéREO NO TRIPULADO


CONTROL Y DISEñO EN 3D DE VEHíCULO AéREO NO TRIPULADO

Carrillo Hernández Karen Guadalupe, Universidad Veracruzana. Mondragón Enríquez Leonel Martín, Instituto Tecnológico de Tláhuac. Velázquez Cabrera Jaime Mauricio, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La tecnología avanza a pasos agigantados. Los medios de transporte, sean para trasladar personas u objetos, también lo hace con ella. Uno de ellos son los vehículos aéreos no tripulados (VANT).  Existen VANT de usos tanto civiles como comerciales, pero sus primeros usos fueron en aplicaciones militares, en este caso llamados Vehículos Aéreos de Combate No Tripulados. Con la progresiva popularización del uso civil de los drones sus aplicaciones varían, ampliándose el número de consumidores más allá del terreno militar. Este crecimiento tan acusado ha llevado a que surjan cada vez más empresas para beneficiarse de este nicho de mercado. Por lo que estos Vehículos son utilizados en misiones especificas adaptadas a las necesidades de la industria. Con el propósito de cubrir el requerimiento especifico en la misión de un VANT, se parte de un problema específico y se propone una solución. La cual conlleva al diseño preliminar de la propuesta, modelado matemático, simulación del modelo y validación de resultados. Esta simulación nos permite saber el desempeño que tendrá la solución propuesta en el problema especificado permitiendo variar parámetros sin poner en riesgo la integridad del sistema y manteniendo los costos al mínimo posible. Finalmente, ésta será comparada con el modelo físico, permitiendo conocer las posibles variaciones para su futura optimización.



METODOLOGÍA

Planteamiento del problema y objetivo Modelado y control de Motores Brushless utilizados en un Vehículo Aéreo No Tripulado. Objetivo: Diseñar un sistema de control para un Motor Brushless el cual irá montado en un Dron Cuadrirotor. Modelado matemático Partiendo de las ecuaciones que rigen el comportamiento del problema propuesto, se obtuvo el modelo matemático para representar el motor de corriente continua. Adaptación del modelo matemático a un programa de modelado en computadora A partir de distintos métodos matemáticos y teoría de control. Utilizando el Software Simulink de Matlab se obtiene un modelo que permite representar el modelo matemático en la computadora; representando el modelo de motor en su parte eléctrica y mecánica. Variación de parámetros a partir de hojas de especificación de componentes seleccionados Una vez seleccionados los componentes necesarios para la creación del modelo, se investiga las especificaciones técnicas de los mismos para permitir variar los parámetros   Reducción de complejidad en el sistema Debido al grado de complejidad en las ecuaciones utilizadas para el modelado matemático, es deseable reducir este sistema a los componentes más elementales posibles. Lo cual fue posible aplicando diversas metodologías de diseño. Detección de porcentaje de error y propuesta de control para reducción del mismo. Una vez realizando una primera simulación se obtuvo un porcentaje de error comparando la salida obtenida con los datos de entrada. Con lo cual se propuso un controlador que permite reducir el error al mínimo posible para desarrollar un sistema fiable. Desarrollo de sistema embebido a partir de elementos básicos. Una vez obtenido un modelo con un control que permita el mínimo error. Se debe desarrollar el modelo en componentes básicos que nos permitirá la construcción física del mismo y validación de los resultados de simulación. Creación de un modelo en 3D con ayuda de la herramienta de CAD Solidworks Empleando la herramienta de CAD Solidworks se realizan los trazos por separado de brazos, tren de aterrizaje y del plato superior e inferior para luego poder realizar el ensamblaje del Dron. En un archivo diferente realizamos el ensamblaje del motor y de nuestra la hélice, para luego proceder a colocar este ensamblaje en cada uno de los brazos del Dron. Exportación del modelo CAD a un entorno de realidad virtual Una vez ensamblado el Dron procedemos a guardar una copia tipo .wrl, lo que nos permite tener el modelo del Dron en una versión VRML 1 aunque debido a fines que ser verán más adelante haciendo uso del software AC3D exportamos nuestro archivo a una versión de VRML 2. Modificación de los centros de rotación de las hélices Para poder darle movimiento de manera virtual a nuestro Dron debemos primero modificar los centros de rotación de este por lo que empleando la herramienta vrbuild2 que nos facilita MATLAB modificamos lo necesario en cada hélice. Debido a que no es exacto el movimiento realizado, por medio de cálculos utilizando nuestro modelo del Dron en SolidWorks tomamos medidas del centro de nuestras hélices. Corrección de los centros de rotación en el código programable empleando WinEdt 10 Con los cálculos obtenidos con anterioridad modificamos el código en cada sección de las hélices para de esta manera tener los adecuados para después agregar la rotación en cada una de ellas. Sistema de adquisición de datos creado en Simulink aplicando un filtro para reducción de ruido Empleando la librería de Simulink 3D Animation se requiere agregar nuestra señal obtenida del control del sistema del motor, un filtro de reducción de ruido considerando que cualquier sistema se ve afectado por este mismo y una señal que le permite moverse de manera mas cercana a la realidad. Conexión del sistema de adquisición de datos a un modelo de simulación en 3D cargando el modelo de realidad virtual Simulación final en realidad virtual obteniendo valores a partir del trazado físico de la trayectoria del dron por medio del sistema de adquisición de datos.


CONCLUSIONES

Hasta el momento podemos concluir que las herramientas con las que actualmente contamos nos permiten trabajar de manera efectiva y eficaz, creando espacios y objetos y sistemas casi idénticos a los de la realidad para poder probarlos con lo que se reducen costos y se evita poner en riesgo nuestro sistema.  
Velazquez Limón Leslye Berenice, Universidad de Guadalajara
Asesor: Dr. Horacio Pérez España, Universidad Veracruzana

PROPUESTA DE CIRCUITO ECOTURISTICO EN VERACRUZ


PROPUESTA DE CIRCUITO ECOTURISTICO EN VERACRUZ

Velazquez Limón Leslye Berenice, Universidad de Guadalajara. Asesor: Dr. Horacio Pérez España, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El turismo es una rama de la actividad económica que representa aproximadamente el 10% del PIB mundial y esta participación viene creciendo en los últimos decenios. Las cifras que anualmente registra el ingreso mundial por turismo internacional refleja la importante contribución a la dinámica económica que esta actividad representa para muchas regiones en el mundo (Brida, 2011). En México la actividad turística contribuye con 8.7% del Producto Interno Bruto (PIB) lo que significa que 8.7 pesos de cada 100 provienen de este sector (INEGI 2015). Como parte de sus beneficios, se generan empleos de manera directa o indirecta. Actualmente México se ha vuelto un país de gran interés para turistas nacionales y extranjeros por su riqueza natural y cultural. Debido al desarrollo social y de infraestructura sobreponen proyectos sobre espacios de importancia ambiental, destruyendo zonas de bosque, mangle, selva, etc. El objetivo del desarrollo turístico sustentable, es fomentar la preservación de patrimonios naturales y culturales sin necesidad de tanta infraestructura o factores que perjudiquen los patrimonios, se pueda trabajar fomentando el desarrollo local, sin perjudicar las generaciones futuras. Veracruz cuenta con una gran extensión de ecosistemas acuáticos naturales, por lo que me pareció interesante implementar un circuito en el que ´puedan conocerlos, trabajando en colaboración con empresas locales generando vínculos entre diferentes ofertas turísticas (Kayak, buceo, viajes en lancha) con el objetivo de realizar ecoturismo, fomentar actividades sustentables de recreación e interpretación ambiental y la promoción y desarrollo de empresas locales.



METODOLOGÍA

El circuito se realizará en los sitios permitidos por la CONANP para realizar actividades de snorkel y buceo y en sitios que colindan con el manglar de Mandinga. Se realizaron tres tipos de encuestas. 1) Una para los prestadores de servicios de los cuales se entrevistaron siete empresas; tres empresas de buceo, dos de kayak, dos cooperativas de lancheros y pescadores. Con las respuestas se valoró el interés de los prestadores de servicios, el costo y las zonas específicas en las que se trabajaría. 2) Encuesta para turistas ubicados en las playas, restaurantes, cercanos al puerto de Veracruz y Boca de Rio, en su mayoría eran personas que venían en familias de tres a cinco integrantes y se quedaban por un tiempo de un día y medio a dos días máximo. Se encuestaron a 30 turistas. 3) La última encuesta fue para locales aplicada a personas con rango de 20 a 30 años, se entrevistaron 30 personas ubicadas en diferentes puntos del bulevar y en restaurantes. Se revisaron documentos sobre manglares de Veracruz, proyectos ecoturísticos en manglares y el programa de manejo del sistema arrecifal veracruzano.


CONCLUSIONES

Las empresas locales de ecosturismo mostraron disponibilidad e interes para vincularse con otras empresas para lograr un circuito que fomente el turismo sustentable, la educación ambiental y el flujo de los turistas en estos destinos naturales.  De acuerdo con los precios de cada empresa, se podrian armar paquetes con un precio entre       $900.00 y $2000.00 dependiendo de las actividades. Según las encuestas realizadas a los visitantes, los turistas estarían dispuestos a pagar entre $600.00- $700.00 por las dos actividades de recorrido en manglar y snorkel, se quedarían dos dias como máximo; y vienen en grupos de 3 a 7 personas. Por parte de los turistas locales, se ve mas interes sobre la propuesta del circuito, sobre todo en edades de 20 - 30 años, la mayoria estaria dispuesto a pagar un máximo  de $1500.00 se quedarían un fin de semana entero para realizar actividades en la naturaleza e incluso aportar realizar actividades como limpiezas de playas y voluntariado. En conclusión, con los precios manejados por las empresas, los paquetes solo podrían ser accesibles para locales, Para los visitantes sería necesario hacer viajes solamente con una empresa.
Velázquez López Marco Antonio, Universidad Autónoma del Estado de México
Asesor: Dr. Gustavo Lòpez Velàzquez, Universidad de Guadalajara

PROGRAMACIóN DE UN SISTEMA DE 2,3 Y 4 QUBITS


PROGRAMACIóN DE UN SISTEMA DE 2,3 Y 4 QUBITS

Romero Gaytan Jorge Antonio, Universidad Autónoma del Estado de México. Sánchez Velázquez Aldo Daniel, Universidad Autónoma del Estado de México. Velázquez López Marco Antonio, Universidad Autónoma del Estado de México. Asesor: Dr. Gustavo Lòpez Velàzquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cómputo cuántico es un área de investigación donde se analiza y trabaja con la parte computacional que involucra las compuertas lógicas cuánticas y así poder expresar de forma clara los principios fiscos que ocurren en ella. Una característica notoria de la computación cuántica es que se apoya en la física moderna para analizar la interacción entre moléculas y así poder generar un procesador lógico. En la computación clásica solo se puede representar 0 o1 mientras que en la computación cuántica se pueden trabajar de forma simultánea. Es en este momento donde surge la unidad lógica del cómputo cuántico llamada qubit y con esto se llega a la posibilidad del paralelismo cuántico masivo, pero para conseguirlo de forma adecuada se requiere un medio físico o entorno adecuado para la computadora cuántica. Se descubrió que el diamante puede servir para la elaboración de nuevas tecnologías en la computación cuántica. El sistema propuesto se basa en una estructura de una red cristalina de diamante que contiene una cadena unidimensional de isótopos 13C (carbón 13). Se puede sugerir parámetros externos (como la temperatura y el ruido) para poder obtener resultados confiables del rendimiento de este sistema físico como una computadora cuántica; sin embargo, estudiaremos el sistema como un sistema completamente aislado. Este es una generalización para N isótopos 13C en la estructura cristalina del diamante. Y para poder observar el comportamiento de dicho sistema se requiere realizar una simulación de compuertas cuánticas de 2 qubits, 3 qubits y 4 qubits.



METODOLOGÍA

El sistema se generaliza con N isotopos carbono 13, Esto se puede llevar a cabo mediante un sistema de procesos, sometido a un campo magnético el cual varia por el componente z y θ = ωt + ϕ. ω es la frecuencia del campo magnético y ϕ es la fase, campo magnético. B(z,t) = (b cos(θ),-b sin(θ),B0(z)) para considerar cada interacción. U(t)= - ∑nn=1 Mn •B(Zn) Que viene siendo igual a; U(t)= - ∑Nn=1 Ω/2([eiθ S+i i+e-iθ S-i] + WnSnz) Donde la energía potencial es expresada de la siguiente forma, donde J y J’ son las constantes de acoplamiento. V = - J/h ∑N-1i=1 (Siz Si+1z) - J'/h ∑N-2j=1 (Siz Si+2z)                            Fórmula para expresar el sistema hamiltoniano. w(t)= - ∑Nn=1 Ω/2(eiθ Sn+ i+eiθ  Sn-) Es muy necesario resolver el eige, y para esto encontraremos primero la energía asociada en los estados. Siz | αN αN-1 ... α2 α1 ⟩ = h/2(-1)αi | αNαN-1 ...α2α1⟩  Una vez que se conoce el estado de cada energía es necesario realizar un cambio de nomenclatura. | 00 ... 000i → |1i          •          •          • | 11 ... 111 i → |2n Donde se usó la ecuación de Schodinguer, con la finalidad de dar forma a todos los coeficientes y crear un sistema de ecuaciones complejos. iℏḊk(t)= - ∑Nn=1 (Dn (t) ⟨ k |W(t) |n ⟩ eitwk,n  Los pasos anteriormente explicados son necesarios de seguir para poder elaborar los sistemas de 2 qubits, 3 qubits y 4 qubits. Con el sistema de 2 qubits se busca simular la compuerta Control Not y el Entrelazamiento cuántico, mientras que el sistema de 3 qubits se usara para la compuerta Control Control Not y la Teleportación Cuántica. Con el sistema de 4 qubits se demostrará la compuerta Control Control Control Not y Teleportacion Cuántica de 4 qubits.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos como: Fundamentos de la computación cuántica. Diferencias entre mecánica clásica y mecánica cuántica. Compuertas cuánticas: control not(CNOT), intercambio (SWAP), half-adder(HA), control control not(CCN), full-adder(FA). Posteriormente se analizó el sistema físico de la computadora cuántica de diamante de espín1/2, se realizó 3 programas de cómputo que simulan una computadora cuántica de 2, 3 y 4 cubits respectivamente. Con el simulador de 2 cubits se representó la compuerta cuántica control not(CN) y el entrelazamiento cuántico(estados de Bell), con el sistema de 3 cubits se simulo la compuerta cuántica control control not(CCN) y el fenómeno de teleportación cuántica con 3 cubits, para el sistema cuántico de 4 cubits se representó la compuerta cuántica control control control not(CCCN), sin embargo la teleportación cuántica de 4 cubits se encuentra en desarrollo.
Velazquez Vega Joel Calep, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

USO DE FIBRAS NATURALES DE OCOXAL COMO REFUERZO EN CONCRETO HIDRáULICO.


USO DE FIBRAS NATURALES DE OCOXAL COMO REFUERZO EN CONCRETO HIDRáULICO.

García Álvarez José Alfredo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Velazquez Vega Joel Calep, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

A partir de que las fibras de asbesto fueron relacionadas con potenciales peligros para la salud se inició la búsqueda de posibles sustitutos que le proporcionaran al concreto las propiedades tan favorables que el asbesto le daba, además de ser competitivos en calidad y precio. Las fibras de acero, de vidrio y más recientemente las de polipropileno, son alternativas viables para reforzar al concreto. Sin embargo, otro grupo de fibras llamadas naturales o vegetales han sido motivo de varios estudios para su posible aplicación como refuerzo del concreto. Materiales reforzados con fibras naturales se pueden obtener a un bajo costo usando la mano de obra disponible en la localidad y las técnicas adecuadas  para  su obtención. Estas  fibras son llamadas típicamente fibras naturales no procesadas. Sin embargo, las fibras naturales pueden ser procesadas químicamente para mejorar sus propiedades. Estas fibras son generalmente derivadas de la madera. Estos procesos son altamente industrializados y no se dispone en los países en desarrollo. A tales fibras se les conoce como fibras naturales procesadas.



METODOLOGÍA

La metodología llevada a cabo por este trabajo consistió en la elaboración de una mezcla de concreto con una agregado de ocoxal de porcentaje variado con relación a los agregados de cemento, grava y arena, considerando la longitud de la fibra y el porcentaje de adición de la fibra como variables. Con respecto al tratamiento de la fibra de ocoxal, se tomó como un aislante de humedad la rebaba de nopal, exprimiendo el nopal, sumergiendo el ocoxal justo antes de realizar la mezcla con los demás agregados. En las dosificaciones de cada cilindro fueron 29.16% de arena, 41,66% de grava, 12.4% de agua y 16.66% de cemento con respecto a un bote, y 10% de fibra de ocoxal en el primero, 15% en el segundo y 20% de fibra en el tercer cilindro.  Se hicieron especímenes para pruebas a comprensión, al ensayarlos se observó que la mezclas que contenían mayor cantidad de ocoxal resistan mas en fracturarse completamente.


CONCLUSIONES

Con base en las pruebas realizadas a los tres cilindros de concreto, con agregado de ocoxal se obtuvo lo siguiente: Cilindro 1: 1793.7 kgf=101.5 kgf/cm2 Cilindro 2: 24816.5 kgf=140.4 kgf/cm2 Cilindro 3: 26601.734 kgf=150.5 kgf/cm2 Tras la obtención de los resultados mostrados anteriormente, podemos observar que no se tiene un resultado muy favorable, ya que la dosificación se realizó con una resistencia a obtener de 250 kg/cm2, sin embargo se realizó un análisis de los resultados y se obtuvo que las fuerza no es trasmitida directamente ya que las fibras de ocoxal las desplazan con forme estén ubicadas en el cilindro.
Veytia Ramírez Héctor Fernando, Universidad de Guadalajara
Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara

EVALUACIÓN DE LA MIROALGA(CHHLORELLA VULGARIS) EN DIFEREN TES COMPOSITOS


EVALUACIÓN DE LA MIROALGA(CHHLORELLA VULGARIS) EN DIFEREN TES COMPOSITOS

Veytia Ramírez Héctor Fernando, Universidad de Guadalajara. Asesor: Dr. Cesar Gomez Hermosillo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema No es novedad que cada día sea mayor la dependencia del ser humano hacia los productos eléctricos; no obstante, sí lo es el cambio de la fuente de adquisición de la energía para alimentar estos productos, debido a que la forma de conseguir esta energía llega a perjudicar de manera significativa al medio ambiente. Actualmente, la preocupación de la población acerca de los problemas que involucran al medio ambiente es mucho más notoria que hace unos años y, ante el aumento de los mismos, cada vez se apuesta más a tecnologías que faciliten la solución de éstos. La biotecnología dentro de sus múltiples aplicaciones, da pauta a muchas alternativas energéticas, entre las cuales se encuentra el uso de microorganismos para la adquisición de energía. Un ejemplo de ello es la chlorella Vulagaris que a pesar de que no es una microalga nueva para la comunidad científica, el descubrimiento de las diversas aplicaciones que puede aportar, ha dado paso a su utilización para la producción de biocombustibles. Cuando se habla de seres vivos, la cantidad de desperdicios que éstos pueden producir son mucho menores si se comparan con los que resultan de los procesos industriales actuales, por lo que es interesante y de gran utilidad, la reproducción más consciente de este organismo para que se puedan producir combustibles más amigables y satisfacer la demanda energética que se alza cada día, evitando contribuir al incremento de los desechos que se generan actualmente. Se planteó utilizar compositos hechos con fibras y polímeros como “catalizadores” del crecimiento bacteriano. Cabe mencionar que estas fibras las cuales son de caña, agave y plátano son comúnmente utilizadas en la región por industrias que los desechan como restos y desperdicios por lo que se pretenden reutilizar.



METODOLOGÍA

Metodología Los compositos se prepararon previamente añadiendo agentes espumantes para reforzar sus propiedades. Los polímeros empleados fueron “Polietileno” y “Poliestireno de alto impacto”, los agentes adicionales fueron “AZODICARDONAMIDA” (como agente de expansión) y entre los espumantes están el óxido de Zinc y el Estereato de Zinc. Los porcentajes de éstos se resguardan para el autor. Las fibras utilizadas fueron fibra de plátano, de agave y de roble de plátano. Éstas se lavaron y se tamizaron previamente para obtener un tamaño de partícula adecuado para el experimento. Los compositos y las fibras se mezclaron mecánicamente y se introdujeron en un extrusor (perfil de temperatura de 190 - 200C° y 50rpm) para producir el composito que sería utilizado en la investigación para la alimentación del alga. Una vez obtenidas las “fibras” se procedió a “peletizarlo” para obtener un tamaño más adecuado formando pellets . Una vez obtenidos los plásticos, se continuó a añadir un pretratamiento químico y térmico a las fibras antes de ponerlas en contacto con las algas. El tratamiento térmico consistió en colocar las fibras en un baño de 300ml de NaOh (1M) durante alrededor de 1 hora, con agitación y calor constante; hasta que empezara a bullir, con la intención de eliminar todas las imperfecciones, además de eliminar la lignina, ya que comprometería la medición de los datos. Más adelante, se procedió a someter los tratamientos térmicos que consistieron en añadir agua destilada y alcanzar el punto de ebullición con la intención de hacer la solución lo más clara posible. Una vez alcanzado el objetivo se procedió a secar al aire libre para proceder a utilizar un horno, con el objetivo de obtener un peso constante en las fibras. Para el “pre-crecimiento de las algas”, se propuso utilizar un medio de cultivo propuesto por (Aslan y Karapinar,2006) de la Universidad “Dokuz Eylu”, en Turquía. El cual se compuso de MgSO4·7H2O, 1000mgl−1; CaCl2, 84mg l−1and 0.5 ml de oligoelementos: H3BO3, 57mgl−1; FeSO4·7H2O, 25mgl−1; ZnSO4·7H2O, 44mgl−1; MnCl2·4H2O, 7mg l−1; MoO3, 35mg l−1; CuSO4·5H2O, 8mg l−1; Cu(NO3)2·6H2O, 2.5mgl−1; Na2EDTA, 250mgl−1; and NaHCO3, 2500mgl−1. Como fuente de Nitrógeno y Fósforo se utilizaron NH4Cl KH2PO4. También se cuidó el PH, utilizando un medio aproximadamente de 7, debido a que anteriormente se concluyó que era el medio más amigable para el desarrollo de la chlorella, controlándolo con NaOH y HCL. Se inocularon 10ml a un matraz con 500ml de medio, y se dejó con agitación aireación de CO2 (como única fuente de Carbono) constante durante varios días hasta que la microalga alcanzó una mayor población. Imagen 11 Día 8 de crecimiento I


CONCLUSIONES

Conclusiones : Durante la estancia de verano, se logró producir los composites para completar el trabajo del crecimiento de la microalga, sin embargo, al ser un trabajo extenso no se ha logrado aún conseguir nueva información más concisa para determinar cuál tipo de composito es más beneficioso para la microalga. Se espera tener más información dentro de los siguientes meses. Como dato adicional se pretende añadir más fibras a futuro como coco o fibra de cascara de plátano al proyecto.
Villanueva Mejia Eva Julissa, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. David Carlos Avila Ramírez, Universidad de Guadalajara

TEMA: “PROPUESTA URBANO-ARQUITECTONICA DE VIVIENDA SUSTENTABLE, INCLUYENTE Y ADECUADA: ESTRATEGIA DE REGENERACION DE VIVIENDA ABANDONADA EN TLAJOMULCO DE ZÚÑIGA” SUBTEMAS: TALLER DE DISEÑO PARTICIPATIVO EVALUACION SOCIAL DEL PROYECTO URBANO


TEMA: “PROPUESTA URBANO-ARQUITECTONICA DE VIVIENDA SUSTENTABLE, INCLUYENTE Y ADECUADA: ESTRATEGIA DE REGENERACION DE VIVIENDA ABANDONADA EN TLAJOMULCO DE ZÚÑIGA” SUBTEMAS: TALLER DE DISEÑO PARTICIPATIVO EVALUACION SOCIAL DEL PROYECTO URBANO

Buenfil Carmona Lorena, Consejo Quintanarroense de Ciencia y Tecnología. Dorantes López Pablo Deiner Alexis, Consejo Quintanarroense de Ciencia y Tecnología. Villanueva Mejia Eva Julissa, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. David Carlos Avila Ramírez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El enfoque social es una etapa principal que consta de retomar información de la experiencia y conocimiento de personas que forman parte de un grupo afectado por situaciones que perjudican su calidad de vida y que requieren un análisis por parte de personas profesionistas en la materia, que toman el papel de coordinadores analíticos. La problemática que se presenta dentro del fraccionamiento analizada desde un enfoque social involucra distintos factores como: Falta de comunicación entre las autoridades y los habitantes, La incertidumbre generada por el desconocimiento sobre temas relacionados con la seguridad de tenencia La ayuda inexistente en temas de protección jurídica  El ser catalogado como un grupo social vulnerable a situaciones de extorsión, invasión de la privacidad y por ultimo; El habitar un espacio que no cumple con las condiciones de una vivienda digna.  



METODOLOGÍA

Metodología aplicada para el proyecto específico de Planificación y aplicación de talleres de diseño participativo (charretes) como parte del desarrollo de estrategias para la vivienda sustentable Definición de conceptos  Generación de estrategias que cumplan con las condiciones de vida digna establecidas por la CONAVI Consulta pública primera sesión Generación de alternativas como posibles soluciones Consulta pública segunda sesión Retroalimentación y refinamiento de estrategias Consulta pública tercera sesión Integración de propuestas urbano - arquitectónicas y de espacios interiores Consulta pública cuarta sesión Estrategias y generación final de propuestas urbano - arquitectónicas Consulta pública quinta sesión Presentación final del proyecto urbano - arquitectónico Metodología aplicada para evaluación social del proyecto urbano - arquitectónico Etapa de recopilación de información, datos estadísticos y antecedentes Etapa de análisis de la información recopilada Etapa de análisis de la situación actual de la zona de estudio Etapa del análisis de la situación sin proyecto de inversión Etapa de análisis de la situación con proyecto de inversión Análisis de costo - beneficio con y sin proyecto de inversión Mejoras y posibles soluciones Viabilidad del proyecto  


CONCLUSIONES

-Después de concluir una evaluación social aplicada al proyecto urbano arquitectónico en base a las etapas indicadas por la metodología de evaluaciones, se concluyó que el proyecto puede ser viable, teniendo, así como resultado del análisis Costo - Beneficio que el total de inversión requerida para poder llevar a cabo esta intervención traerá mayores beneficios sociales no solo a los habitantes del fraccionamiento lomas del mirador, sino también al gobierno municipal de Tlajomulco. Gracias a las optimizaciones propuestas, así como a la reactivación de las zonas en abandono, se proyectó que con dicha intervención los índices de inseguridad de la zona, los índices de abandono de vivienda y se rezago social podrán disminuir hasta en un 70%. Por último, con este proyecto no solo se podrán maximizar los beneficios sociales por medio de la liberación de recursos públicos, si no que se podrán disminuir los costos de mantenimiento gracias a las propuestas de vivienda y mobiliario sustentable que se fundamentan en el uso de materiales económicos, duraderos, nativos de la región, etc. Del costo total de la inversión total dividido entre el número de viviendas proyectadas a ser beneficiadas se tiene como dato final que: Por cada vivienda beneficiada se deberá realizar una inversión de $ $                                                                                          254,044.66 El costo total de la inversión final será de: $ 334322766.2231   Se pudo observar la escasez de proyectos de rescate de vivienda abandonada, como parte del cambio a esta situación se elaboró una investigación urbano-arquitectónica de rescate de viviendas en Tlajomulco de Zúñiga, teniendo como resultados esperados la rehabilitación de los inmuebles y del espacio urbano, propiciando sentido de pertenencia de los espacios en todos los habitantes. Un proyecto realizado mediante el diseño participativo permite a la sociedad, adentrarse en temas más allá de su visión como ciudadano ya que mediante su participación, pueden generarse mecanismos para la transformación de su calidad de vida, su contexto, su ciudad. El enfoque social fue el arranque inicial para esta investigación, el cual es considerado como un eje rector, este enfoque fue de vital importancia porque se determinaron las problemáticas en conjunto con las personas afectadas y en base a la información recolectada de los talleres de diseño participativo, se crearon las estrategias y soluciones. Estos talleres fueron el eje rector de esta investigación pues en ellos se pudo obtener un acercamiento productivo afectado-profesionista para analizar, explicar y orientar sobre las polémicas presentadas. Los resultados obtenidos en conjunto con los habitantes del caso de estudio mediante la reflexión son favorables ya que, mediante la retroalimentación de cada taller de diseño participativo, los afectados se iban percatando de los resultados e iban señalando sus inquietudes, y lo más importante, indicando sus ideas sobre el proyecto para obtener resultados más acordes a sus necesidades Partiendo de los resultados y conclusiones expuestos en apartados anteriores, se sugieren algunas prospectivas de investigación para futuros proyectos de investigación: Al realizarse el proyecto la zona generara beneficios sociales, como seguridad, vivienda digna y espacios urbanos confortables. Siguiendo con el método participativo se pueden generar soluciones de acuerdo a las necesidades reales de los habitantes de las viviendas, empleando los talleres se logra conocer a fondo las problemáticas principales de la comunidad. Otra línea de investigación se podría dirigir hacia los planes de mantenimiento para las viviendas con el propósito de rehabilitar aquellas que se encuentren en mal estado, debido a diversos factores.  
Villanueva Umanzor Angel Manuel, Universidad Autónoma de Chiapas
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

DISEÑO DE ESTRUCTURA INTERNA DE ACERO (ENDOESQUELETO) QUE PERMITA AL SISTEMA CONSTRUCTIVO TAPIAL, MEJORAR SUS CARACTERISTICAS ESTRUCTURALES.


DISEÑO DE ESTRUCTURA INTERNA DE ACERO (ENDOESQUELETO) QUE PERMITA AL SISTEMA CONSTRUCTIVO TAPIAL, MEJORAR SUS CARACTERISTICAS ESTRUCTURALES.

Villanueva Umanzor Angel Manuel, Universidad Autónoma de Chiapas. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. Herwin Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca. Estudiante: Villanueva Umanzor Angel Manuel, Universidad Autónoma de Chiapas planteamiento del problema:  En México y en el mundo la construcción con tierra ha estado presente en grandes civilizaciones y en grandes objetos arquitectónicos que hasta la fecha siguen en pie. hoy en día la construcción con tierra es un método subestimado, debido a las normas de construcción vigentes y a las clasificaciones de viviendas dignas, donde se menciona que las viviendas construidas con tierra son clasificadas como ''no dignas'' En la actualidad las construcciones con tierra han estado apareciendo en diferentes partes de México y en diferentes géneros arquitectónicos, ya sean casas, bibliotecas, centros culturales, etc. En la ciudad de Oaxaca de Juárez, existen una serie de construcciones con tierra, en diferentes aplicaciones como lo son el bajareque, adobe y el muro tapial. Entendiendo al muro tapial como un sistema constructivo de una sección mínima de 30cm en donde se aplican capas de tierra compactada a cada 10, 15 y 20 cm de espesor. Dependiendo la aplicación y la búsqueda del acabado final. En el terremoto del 2017 una cantidad importante de construcciones fueron dañadas, construcciones privadas y públicas como museos e iglesias. En nuestro caso de estudio específico se tomó a consideración la falla de la escuela de artes plásticas de Oaxaca, proyecto desarrollado por el despacho arquitectónico de mauricio rocha, donde se utilizaron muros tipo tapial y por efectos del terremoto estos colapsaron, el tema de investigación se basa en la búsqueda un sistema que en combinación al muro tapial permita soportar estos efectos telúricos, que sea eficiente y de fácil aplicación.



METODOLOGÍA

Para el desarrollo de la investigación habría que pasar por una serie de procesos para un resultado de mayor precisión y veracidad, para esto se siguieron los siguientes pasos. - Granulometría de la tierra seleccionada por el investigador. - Selección del posible sistema estructural interno del muro tapial - Desarrollar las dosificaciones para la mezcla del muro tapial de acuerdo a los datos obtenidos de la granulometría de la tierra. - Fabricación de cimbra para la prueba piloto. - Aplicación y desarrollo del muro tapial, con el sistema estructural interno. - Prueba de compresión. - Prueba de tensión. Una vez desarrollada esta serie de pasos, tenemos como resultado la cantidad de los agregados a utilizar durante el desarrollo del muro tapial como prueba piloto. Para esta prueba se determino una muestra de 30*30*15 cm, esto en consideración a las medidas reales de un caso a una escala 1:1, para la fácil elaboración y manipulación de los elementos y del producto terminado.   En el proceso de elaboración de la prueba piloto, contando con la cimbra terminada se comenzaron a desarrollar las mezclas para cada una de las capas, en este caso las capas fueron aplicadas a cada 4cm que es cuando se aplicara el refuerzo estructural interno, el cual en este caso se trata de una malla metálica No 40 aplicada horizontalmente. La cual ayudara a contener la tierra, trabajando a tensión. Para la compactación de las capas de tierra se utilizo un pizon de tierra, para alcanzar el punto relativamente máximo de la compactación de la tierra.


CONCLUSIONES

En el proceso de la elaboración del muro tapial con el refuerzo interno, se fueron cuidando los recubrimientos a manera que el acero sea bien recubierto y evitar futuras corrosiones.   Por cuestiones de tiempo y de calidad no se pudieron aplicar las pruebas de compresión y tensión, debido a que la prueba piloto tiene que lograr un secado de aproximadamente 3 días para alcanzar su mayor resistencia, sin embargo, se logro el descimbrado, en cuestiones esteticas el muro tapial alcanzo las caracteristicas de uno, las cuales son las capas definidas de las tierras y la consistencia. Aunque no se logro obtener los resultados que buscabamos por cuestion de tiempo se le dará seguimiento al proceso de resultados, así como del proyecto, debido al gran impacto social que podría lograr y la aportacion academica en mi formacion como arquitecto.  
Villarreal Zapata Alejandra María, Universidad Autónoma de Tamaulipas
Asesor: Dr. Daniela Reyes Gasperini, Centro de Investigación y de Estudios Avanzados (IPN)

UNA INTERRACCIÓN DE LAS SITUACIONES DE APRENDIZAJE


UNA INTERRACCIÓN DE LAS SITUACIONES DE APRENDIZAJE

Villarreal Zapata Alejandra María, Universidad Autónoma de Tamaulipas. Asesor: Dr. Daniela Reyes Gasperini, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La Matemática Educativa (ME) es una disciplina científica que se encarga de estudiar los procesos en el ámbito de la matemática escolar, centrándose tanto en el estudiante como en el profesor y su objeto de estudio es analizar las problemáticas que surgen dentro del aula. Actualmente los investigadores están generando situaciones de aprendizaje que induzcan a que el alumno genere una construcción del conocimiento que le permita comprender temas que se encuentran en los contenidos de los planes y programas de estudio. Una de las situaciones de aprendizaje que los investigadores del Programa Interdisciplinario para el Desarrollo Profesional Docente en Matemáticas (PIDPDM) del Área de Educación Superior del Departamento de Matemática Educativa del Cinvestav proponen es llamada Vamos de compras en la cual los estudiantes de primaria resuelven problemáticas relacionadas con la compra y la venta de carne. Uno de los cuestionamientos que más llamó mi atención fue uno donde se le señalan tres ofertas al estudiante, éste tiene el encargo de comprar medio kilo de carne, y en las tres propuestas ofrecen el medio kilo de carne, sin embargo, éste está expresado de distintas formas, es decir, en 500 gramos, en 1/2 kg, y por último en 250 gramos más 1/4 kg.  Al investigar más sobre tal cuestión se pudieron detectar cinco items dentro de la prueba PLANEA 2015 y que es consecuente en la prueba 2016, relacionadas con dicho tema, sin embargo, una en particular genera más controversia debido a que está plasmada para estudiantes de primaria. Esta, específicamente, solicita que los estudiantes conviertan cantidades de metros a kilómetros. En esta pregunta, sin embargo, se sitúa con el contexto de 3,456 metros de cable para un alumbrado de puestos, donde la pregunta final es ¿Cuántos kilómetros de cable compraron? Es aquí donde entra la descontextualización de los cuestionamientos que se encuentran dentro de algunas interrogantes de PLANEA 2015, de los cuales sería importante investigar a futuro.      



METODOLOGÍA

La metodología empleada fue la asistencia a los seminarios realizados por los investigadores, donde se trabajó con los diseñadores de dichas situaciones de aprendizaje. En cada una de las discusiones se abordaron diversas cuestiones. Cómo resolvieron los problemas matemáticos cada uno de los participantes del seminario, de los cuales se integraron por un aproximado de 15 implicados que se comprendían en Doctores en Ciencia, Maestros en Ciencia y Licenciados. Queé complicaciones tuvo al resolverlas Comentarios acerca de experiencias obtenidas en la práctica docente, que es lo que se considera que va a pasar cuando los estudiantes resuelvan la situación. Problemáticas existentes en cada contexto de los participantes del seminario. Problematización del saber matemático. En estas discusiones se destacó acerca de la problemática anteriorimente mencionada, en la cual se distinguieron obstáculos que los estudiantes pudieran presentar, como el desconocimiento que 500 gr representan medio kilo, o de igual forma, que 250 gr más un cuarto es equivalente a medio kilo, por tal motivo podría ser una dificultad para que el estudiante no logre responder a esa pregunta.        


CONCLUSIONES

Mis conclusiones se basan en seguir analizando el trasfondo de estas interrogantes, generar cambios en mis clases que permitan que el educando logre no solo responder estas interrogantes, si no que los analice y logre comprenderlos para que adquiera su aprendizaje y no le sea complicado a lo largo de su trayectoria educativa, además de ésta manera logre adaptar estos conocimientos en su vida, puesto que son aspectos que seguirá analizando en toda su educación y su vida social, aspecto que se vincula con la Teoría Socioepistemológica de la Matemática Educativa (TSME)      
Villaseñor Sereno Adriana, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)

EXPLORACIÓN DE AGUA SUBTERRANEA POR METODOS GEOFISICOS: MAGNETOMETRIA Y SEV EN UNA ZONA ARIDA


EXPLORACIÓN DE AGUA SUBTERRANEA POR METODOS GEOFISICOS: MAGNETOMETRIA Y SEV EN UNA ZONA ARIDA

Villaseñor Sereno Adriana, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Héctor López Loera, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La exploración de agua subterránea en México y el mundo cada vez toma más importancia debido a que la mayor parte de agua superficial ya cuenta con niveles altos de contaminación además de que en zonas áridas es difícilmente encontrarla. El agua de los acuíferos tiene buena calidad y es más pura que en la superficie  debido a los procesos de filtración que sufre durante su desplazamiento a través de las rocas y sedimentos. En el presente trabajo se implementan las técnicas de Magnetometría con el fin de detectar las variaciones en las unidades geológicas de las propiedades magnéticas presentes en el subsuelo y Sondeos Eléctricos Verticales SEVs, donde la técnica radica en medir la resistividad eléctrica de las rocas del subsuelo, lo que permite detectar las heterogeneidades presentes.La exploración de agua subterránea en México y el mundo cada vez toma más importancia debido a que la mayor parte de agua superficial ya cuenta con niveles altos de contaminación además de que en zonas áridas es difícilmente encontrarla. El agua de los acuíferos tiene buena calidad y es más pura que en la superficie  debido a los procesos de filtración que sufre durante su desplazamiento a través de las rocas y sedimentos. En el presente trabajo se implementan las técnicas de Magnetometría con el fin de detectar las variaciones en las unidades geológicas de las propiedades magnéticas presentes en el subsuelo y Sondeos Eléctricos Verticales SEVs, donde la técnica radica en medir la resistividad eléctrica de las rocas del subsuelo, lo que permite detectar las heterogeneidades presentes. La exploración de agua subterránea en México y el mundo cada vez toma más importancia debido a que la mayor parte de agua superficial ya cuenta con niveles altos de contaminación además de que en zonas áridas es difícilmente encontrarla. El agua de los acuíferos tiene buena calidad y es más pura que en la superficie  debido a los procesos de filtración que sufre durante su desplazamiento a través de las rocas y sedimentos. En el presente trabajo se implementan las técnicas de Magnetometría con el fin de detectar las variaciones en las unidades geológicas de las propiedades magnéticas presentes en el subsuelo y Sondeos Eléctricos Verticales SEVs, donde la técnica radica en medir la resistividad eléctrica de las rocas del subsuelo, lo que permite detectar las heterogeneidades presentes.



METODOLOGÍA

La metodología utilizada para la exploración geofísica fue práctica y de campo donde se realizaron 9 secciones en la comunidad del Rodeo, perteneciente al municipio de Mexquitic en San Luis Potosí, siendo una zona árida, donde empleamos los principios geofísicos del funcionamiento de los equipos de magnetometría y SEVs. Los levantamientos magnetométricos consisten en realizar mediciones de la intensidad del campo magnético sobre la superficie terrestre, con instrumentos denominados magnetómetros, en intervalos de distancia aproximadamente constantes a lo largo de una línea denominada perfil. Por otro lado en SEV se permitieron medir las variaciones verticales de resistividad aparente. Se mantiene constantes las distancias entre los electrodos M y N y se va aumentando la distancia entre A y B, lo cual corresponde al arreglo tipo Schlumberger.


CONCLUSIONES

De la presente estancia se ha logrado desarrollar el manejo y metodología de aplicación de los métodos geofísicos superficiales que se puede realizar relativamente rápido y a bajo costo, de tal forma que se puede tener una gran cantidad de datos que permiten caracterizar a detalle un área, encontrar recursos y conocer cómo se comporta el subsuelo. Falto realizar la interpretación de datos pero es importante conocer y que nos hayan explicado en qué tipo de software lo realizan. Es sustancial mencionar que gracias a IPICYT tengo otra perspectiva de la geofísica y me genera mucho entusiasmo poder llevar a la práctica actividades que muchas veces sólo podemos leer mediante libros.
Yahia Keith Nadia Amina, Universidad de Sonora
Asesor: Dr. Heinz Joachim Andernach, Universidad de Guanajuato

UNA BÚSQUEDA SISTEMÁTICA DE RADIOGALAXIAS REMANENTES


UNA BÚSQUEDA SISTEMÁTICA DE RADIOGALAXIAS REMANENTES

Yahia Keith Nadia Amina, Universidad de Sonora. Asesor: Dr. Heinz Joachim Andernach, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las radiogalaxias de doble lóbulo originan de la eyección de dos chorros de partículas relativistas en lados opuestos a su galaxia huésped. Estos chorros se propagan a distancias mucho mayores al tamaño de la galaxia huésped, y terminan en radiofuentes compactas (llamadas hotspots) donde chocan con el medio intergaláctico y se diluyen para crear los llamados radiolóbulos. Con el tiempo los núcleos de las galaxias dejan de eyectar los chorros, tal que los hotspots desaparecen y los lóbulos disminuyen en brillo superficial, tanto por la pérdida de energía de las partículas por radiación, y la expansión adiabática. En este estado final de la vida de una radiogalaxia es difícil de detectarlas, ya que los radiointerferómetros de alta resolución no tienen la sensibilidad para detectar fuentes difusas de bajo brillo, y los rastreos de baja resolución, aunque detectan los lóbulos, no permiten distinguir entre las radiogalaxias con hotspots activos y los genuinamente difusos, los cuales suelen designarse en la literatura como "radiogalaxias moribundas" o, más recientemente, como "remanentes". Publicaciones recientes sugieren que la deteccion de estas "remanentes" requiere de instrumentos novedosos que observan en bajas frecuencias, como el radiointerferómetro LOFAR en los Paises Bajos y vecinos. Sin embargo, en el presente proyecto aprovechamos de la existencia de rastreos en alta frecuencia tanto de baja resolución como el NVSS y de alta resolución como el FIRST y el muy reciente VLASS, para detectar una población de radiogalaxias remanentes de manera semiautomática.



METODOLOGÍA

El rastreo NVSS cubre 82 porciento del cielo (Decl>-40 deg) a 1.4 GHz y una resolución angular de 45''.  Aparte de imágenes, se creó un catálogo de 1.8e6 fuentes con posición, flujo, eje mayor y orientación, medido por su "ángulo de posición" (PA). Dado que los lóbulos de una radiogalaxia tienden a ser relativamente alineados, extraímos todos los pares de radiofuentes NVSS dentro de 3', con la condición que ambas componentes tengan un tamaño 30'' o más, y distancia entre ellos de 1.5' a 3.0', y flujos no difieren por más de un factor 5, y con un flujo mínimo de 10 mJy. Sus PAs individuales no deben diferir por más de 25 grados, y cada una de las componentes debe estar orientada dentro de 35 grados del radiovector que conecta sus posiciones. Para facilitar la identificación óptica de los objetos se excluyeron aquellos dentro de 8 grados del plano de la Vía Láctea, y se excluyeron todas las radiogalaxias ya registradas en una recopilación mantenida por el asesor. La muestra resultante de 406 objetos fue filtrado además por (a) obvios artefactos causados por fuentes muy fuertes, (b) fuentes muy extendidas en nuestra Galaxia, (c) pares de fuentes que con partes de lóbulos de fuentes aún mayores que ya se habia recopilado por el asesor. Tras esta filtro quedaron 356 objetos para los cuales se utilizaron las imágenes NVSS, FIRST, TGSS y en especial las recientes imágenes del VLASS con una resolución angular de 2.5'' la cual permite ubicar (si fuera presente) el núcleo con tal precisión posicional para identficar sin duda el objeto huésped. Para ello se hizo una búsqueda de objetos coincidentes (usando el servicio VizieR del centro de datos astronómicos, CDS) en rastreos ópticos (como el SDSS y PanSTARRS) e infrarrojo (AllWISE), lo cual permite también una estimación de su distancia, p.e. mediante su brillo aparente en estas bandas o con base en corrimientos al rojo fotométricos publicados en varios catálogos. Con ayuda de imágenes de rastreos en radio de menor resolución angular, aunque más sensibles para emisión difusa, (NVSS y TGSS) se clasificó cada candidato en radiogalaxias físicas o en caso contrario rechazándolos como fuente conectada. En ausencia de un radionúcleo se tuvo que buscar el huésped óptico y/o infrarrojo en un radio de aproximadamente un cuarto de la extensión total de la fuente, para permitir una cierta asimetría de los radiolóbulos.  Se recopiló en una tabla la información sobre la radiofuente (p.e. su tamaño angular) y de su huésped, como su posición celeste, brillo en óptico e infrarrojo, corrimiento al rojo si fuera disponible y posibles peculiaridades.  Debido a la escasez de objetos con corrimientos al rojo fotométricos en esta zona, se tuvo que estimar de manera "cruda" este corrimiento para la mayoría de los huéspedes. Además se le dió un clasificación morfológica a cada una de las fuentes, con respecto al grado de dilución (ausencia de hotspots) para posteriormente estudiar estadísticamente las fuentes con lóbulos genuinamente difusas (del tipo "remanente").


CONCLUSIONES

Hasta el momento se han inspeccionado 137 de los 356 candidatos, clasificando 55 de ellos como radiogalaxias remanentes. Esto comprueba la viabilidad y eficiencia del sencillo método de la selección de la muestra original. Aparte, se encontraron varias radiogalaxias cuyo tamaño lineal proyectado en el plano del cielo, excede un megaparsec (3.26 millones de años luz) las cuales son conocidas en la literatura como radiogalaxias gigantes. Estos tamaños son bastante inusuales para radiogalaxias del tipo remanente. Tanto la existencia de tamaños muy grandes como el número de este tipo de radiogalaxias (según nuestros resultados mucho mayor a lo anteriormente supuesto) tendrá consecuencias para las teorías cuantitativas de evolución de radiogalaxias. Hay que recordar que la selección de la presente muestra fue restringida a candidatos con una geometría muy especifica. En el futuro se podria extender el rango de estos parámetros para encontrar mayores números de este tipo de objetos. Tras terminar el estudio de la primera muestra de 356 objetos, se espera haber comprobado alrededor de 150 radiogalaxias remanentes, lo cual representa un aumento significativo en el número de tales objetos. Se pretende presentar los resultados en el congreso "Science at Low Frequencies VI" en Tempe, Arizona, EUA, 9-11 de diciembre de 2019.
Yaxi Corona Oscar Rafael, Universidad Autónoma del Estado de México
Asesor: Dr. Maria Vicenta Esteller Alberich, Universidad Autónoma del Estado de México

CONTAMINACIóN DE ACUíFEROS. ESTUDIO DEL ACUíFERO DE SAN JUAN DEL RíO.


CONTAMINACIóN DE ACUíFEROS. ESTUDIO DEL ACUíFERO DE SAN JUAN DEL RíO.

Yaxi Corona Oscar Rafael, Universidad Autónoma del Estado de México. Asesor: Dr. Maria Vicenta Esteller Alberich, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Los acuíferos son formaciones geológicas que son capaces de almacenar y transmitir agua (permeables). La distribución vertical del agua se puede dividir en Zona no Saturada (ZNS), aquella que en cierto volumen contiene poros con aire y agua, comprende la desde la zona superficial, capas edáficas hasta su frontera con alguna zona impermeable y la Zona Saturada (ZS); volumen de roca con poros completamente llenos de agua, hay saturación. La demanda hídrica del recurso, se ha incrementado debido al abastecimiento poblacional, desarrollo tecnológico e industrial. Por ello es importante su estudio, ya que experimenta diversos procesos como descensos en el nivel del agua, subsidencia y alteración físico-química del agua. El Acuífero Del Valle De San Juan del Río involucra importantes asentamientos como; San Juan del Río, Pedro Escobedo. El crecimiento acelerado de la población, el desarrollo industrial, el aumento de servicios y la agricultura ubicadas en el valle, han provocado una competencia en el uso del agua subterránea, lo que ha ocasionado sobreexplotación en dicho acuífero. Debido a esto la zona de estudio se concentra en el acuífero de San Juan del Río se estudia la composición química del agua, así como los parámetros físicos y calidad.



METODOLOGÍA

Se ha realizado una campaña de muestreo en el Acuífero de San Juan del Río. El protocolo para el muestreo se tomó como base la NORMA OFICIAL MEXICANA NOM-014-SSA1-1993. PROCEDIMIENTOS SANITARIOS PARA EL MUESTREO DE AGUA PARA USO Y CONSUMO HUMANO EN SISTEMAS DE ABASTECIMIENTO DE AGUA PUBLICOS Y PRIVADOS. Se utilizaron 20 botellas para muestrear agua de pozos de 1 Lt, para analizar aniones y 20 botellas de 250 ml para cationes. Las botellas se deben enjuagar 3 veces antes de tomar la muestra y se cubrieron con parafilm, de manera que no quede aire dentro de las botellas y así no afecte a la muestra. Se llenaron filtrando el agua a través de una jeringa, con un portafiltro adaptado para que retuviera las partículas suspendidas, esto se realizó al momento de llenado de todas las botellas de agua. Por pozo se llenaron 2 botellas, una de 1 Lt y otra de 250 ml. Se utilizaron 2 equipos portátiles de la marca Thermo Scientific Orion, uno para medir REDOX ORP y otro para medir Potencial de hidrógeno (pH), Conductividad Eléctrica (CE), Salinidad y Total de solidos disueltos (TSD). Posteriormente se utilizó el Kit de alcalinidad para su determinación, contiene 2 recipientes de 15 ml que se utilizaron como indicadores, el primero con un pH de 8.3, el segundo con pH de 4.5, reactivo de titulación de alcalinidad de 60 ml, tubo de ensayo con tapa y orificio y un valorador de lectura directa (jeringa) con rango de 0-200. Para determinar la alcalinidad por carbonatos, se llenó el tubo de ensayo hasta la línea de 5ml con agua de la muestra, posteriormente se agregaron 3 gotas del indicador de alcalinidad 1 y se mezcló, este viro a un color rojo, lo que indico la presencia de la alcalinidad. Se lleno el titulador de lectura directa (jeringa) con el reactivo, sin que entrara aire a la jeringa. Mientras se giró suavemente el tubo de ensayo se agregaban gotas hasta que desapareciera el color rojo, y se tomó la lectura. Un ejemplo: La punta del pistón marco 2 divisiones menores por debajo de la línea 80, cada línea equivale a 4 ppm. El resultado fue 80+(2X4) =88 ppm. Procedimiento para alcalinidad por bicarbonatos. En caso de que no virara a color rojo (sin presencia de alcalinidad por carbonatos) el proceso es igual, pero se agregaron 2 gotas del indicador de alcalinidad 2, hasta que viro a azul. Así mismo se insertó el valorador en el orificio central de la tapa del tubo de ensayo. Mientras se giró suavemente, se presionó el embolo hasta que el color azul cambio a verde, y finalmente se tomó lectura de la prueba como alcalinidad T, en ppm de CaCO3.  Las medidas in situ de las características físico-químicas, deben hacerse en el mismo momento de recolección de la muestra ya que las características originales cambian. En laboratorio de Calidad del Agua del IITCA solo se analizaron los NO3- con el equipo de foto espectrometría de UV. Se utilizo una micropipeta para extraer 1 ml de la muestra, esta se coloca en un tubo de ensayo y se introduce en un compartimiento en el fotoespectrómetro y se presiona cero, indica que la cantidad de nitratos es igual a 0. Se toma un sobre con nitrato cromatrópico que provoca reacción exotérmica con los nitratos, una vez que se agregó, se inicia un temporizador de 5 minutos en el fotoespectrómetro, terminado este tiempo arroja el resultado. En laboratorio se realizó el análisis de nitratos, los encargados del laboratorio, realizaran los estudios faltantes para los aniones: (SO42-), (HCO3-), (CO₃²⁻) y (Cl-). Las muestras para analizar los cationes fueron entregados al departamento del Laboratorio de Geoquímica del agua, Campus Juriquilla UNAM Geociencias. Los cationes a analizar son: Ca, Na, K y Mg.  Los parámetros de pH se mantienen en un rango de 8.4 a 6.3 y el más alto de 8.9 en el pozo CSJR0726. La CE de 302 a 494 y el más bajo de 77mS/cm en el pozo CSJR0774. La salinidad de 0.095 a 0.337. Alcalinidad más baja en el pozo CSJ R0774 de 32, el resto de 116 a 384. Para los valores Potencial REDOX el más bajo de -37 mV en el pozo CSJR0750, el resto con un rango de 99 a 298 mV. Clave del COTAS San Juan del Río. (CSJ…). Temperatura del agua de 20 a 40 °C. Demostrando cualidades de aguas termales en algunos casos. Temperatura ambiente de 17 a 28.5°C.


CONCLUSIONES

Se ha adquirido durante la estancia en el IITCA, conocimientos teóricos sobre la Hidrogeología e Hidrogeoquímica, que es de gran importancia para el estudio de los acuíferos, desde el protocolo para la recolección de muestra, conocimientos de la composición química del agua, sobre aniones, cationes y elementos traza, calibración del equipo multiparamétrico. Se puso en práctica las habilidades para llevar a cabo el trabajo de este tipo. Se esperan resultados del análisis químico, para seguir interpretando los datos por medio de un diagrama de Stiff y con el apoyo de cartografía. Debido a que el trabajo es extenso se estudiara que las concentraciones no superen el límite permisible por la NORMA OFICIAL MEXICANA NOM-127-SSA1-1994, SALUD AMBIENTAL, AGUA PARA USO Y CONSUMO HUMANO-LIMITES PERMISIBLES DE CALIDAD Y TRATAMIENTOS A QUE DEBE SOMETERSE EL AGUA PARA SU POTABILIZACION. Y determinar la calidad del agua con base en resultados
Yepiz Mendez Gustavo Rafael, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara

FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO


FABRICACIóN DE MEMBRANAS A BASE DE ÓXIDO DE GRAFENO

Castro Rojas Ricardo Antonio, Universidad de Guadalajara. Diaz Morfin Elidia, Instituto Tecnológico de Colima. Reséndiz Marroquín Kevin Said, Universidad Autónoma de Guerrero. Yepiz Mendez Gustavo Rafael, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. María Olga Concha Guzmán, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente nos enfrentamos a una problemática ambiental mundial, la escasez de agua potable, que desencadena una serie de problemáticas sociales. Por lo que la Organización de las Naciones Unidas (ONU) lleva mucho tiempo abordando la crisis mundial derivada de un abastecimiento de agua insuficiente y la creciente demanda de agua para satisfacer las necesidades humanas, comerciales y agrícolas. La cantidad de agua se encuentra dividida en los siguientes porcentajes 96.5% salada y 3.5% dulce. De esta última el 69% de agua dulce se encuentra congelada, porcentaje que va disminuyendo con el paso de los años debido a cuestiones climáticas. En la actualidad, varios millones de personas viven en regiones que sufren una grave escasez de agua, incluyendo a comunidades y ciudades de México. La desalación supone una manera de incrementar la oferta de agua potable. Teniendo en cuenta que 42 ciudades de más de un millón de habitantes se encuentran en la costa y que la mayoría de la población mundial vive a menos de 50 km de las costas marítimas, algunos expertos prevén que el agua de mar desalada se convertirá en una importante fuente de agua en el siglo XXI. Debido a esto se han buscado alternativas para la desalación del agua, desafortunadamente la mayoría de los métodos son costosos, sobre todo el de osmosis inversa. Uno de materiales novedosos es el óxido de grafeno (GO) debido a sus propiedades fisicoquímicas, anti-bactericidas y es de bajo costo. Sin embargo, la estabilidad del GO en soluciones acuosas es un requisito previo para su aplicación, ya que estará en contacto con agua. A consecuencia de la dificultad de la elaboración de la membrana hecha a base de GO, es necesario usar otros compuestos para mejorar la estabilidad en ambientes acuosos y a la vez proporcionar resistencia mecánica. En experimentaciones anteriores han empleado Nafión que es un compuesto muy caro y contaminante. Por otro lado, los biopolímeros como el galactomanano que es un material amigable con el ambiente, económico y fácil acceso, ya que se encuentra en el fruto del mesquite. Este árbol es nativo de la región Norte del estado de Jalisco. Es por eso que, en esta estancia de verano de investigación, se experimentó con la fabricación de membranas de óxido de grafeno y biopolímeros. De esta manera se pretende proponer una membrana que pueda emplearse para filtrar agua o biorremediación de agua residuales e industriales.



METODOLOGÍA

La experimentación partió de materiales sintetizados en el laboratorio. El proceso de experimentación se dividió en 2 etapas: La fabricación de membranas de GO. Prueba de filtración en la que se incluye el diseño y elaboración del prototipo para colocación de membranas. Fabricación de membranas Para fabricar la membrana a base de GO obtenido por medio del método de Hummers modificado, se emplearon galactomananos (GA) y/o glutaraldehído(G), glicerol, ácido acético, y papel filtro Whatman No.4 y milipore de 0.45 µm. El proceso consistió en la filtración tintas de GO y biopolímeros por gravedad y de vacío, en esta última se utilizó una bomba. El procedimiento fue el siguiente: Se emplearon tres tintas a base de GO, la primera fue hecha con 30 mg de GO y 40 mL de agua, etiquetándola como Tinta 1 (T1). Para la preparación de la segunda Tinta (T2) se utilizaron 120 mg de GO y 40 mL de agua. La última Tinta (T3) se prepraró con 2.1 mg de GO y 50 mL de agua. Las tres tintas se sonicaron 9 ciclos de 30 minutos cada uno. A las tintas de GO se le agregaron sustancias químicas para la elaboraron de  diferentes membranas de las cuales  la 1 y 2, se sometieron a vortex para asegurar una correcta combinación, se vertieron en cajas Petri y se dejaron secar a temperatura ambiente. Mientras que para las  3, 4, 5 y 6, se usó una parrilla eléctrica a una temperatura de 80°C y agitación contante para mezclar las sustancias, hasta que se observaron cristalinas. Después se vertieron en una caja Petri para dejar secar a temperatura ambiente. A todas las membranas se les realizó una prueba mecánica antes de llevar a cabo la filtración. La prueba consistió en someter 1 cm2 de la membrana en H2O y después ultrasónicar durante 10 minutos. Fabricación del dispositivo para filtración La filtración se realizó mediante el fenómeno de gravedad. La fabricación del dispositivo consistió en cortar la parte inferior del vial y a su tapa, a la que se le realizó un orificio de 3 cm de diámetro aproximadamente, la cual fue pegada con silicón frío en la boca principal. Posteriormente, se selló el contorno externo de la tapa con silicón frío. La membrana se pegó en los bordes de la parte exterior de la tapa con el orificio, se recortó el sobrante y se selló por la parte exterior nuevamente con silicón frío. Se preparó una solución electrolítica acuosa con cloruro de sodio (NaCl) a una concentración de uno molar (1 M). A la cual se le midió y registro la conductividad eléctrica antes y después de ser filtrada. En cada filtración se utilizaron 50 mL del electrolito acuoso para probar la capacidad de desalación de las membranas a base de GO. Se realizaron varios experimentos de los cuales se obtuvierón buenos resultados con las membranas 8 y 9, obteniendo una desalación del 8% y 16% respectivamente.


CONCLUSIONES

El óxido de grafeno es inestable en el agua. Se fabricaron membranas a base de óxido de grafeno empleado materiales biopolímeros. Se obtuvo una desalación del 16% con la membrana 9. Estas membranas pueden tener mayor eficiencia, si se aumenta la concentración de óxido de grafeno, así como asegurar que este se encuentre bien disperso en la solución acuosa y ligado a un componente que le brinde estabilidad.
Yoval Pozos Irandheny, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

SIMULACIóN DE PROCESOS FíSICOS PARA LA DETECCIóN DE PARTíCULAS


SIMULACIóN DE PROCESOS FíSICOS PARA LA DETECCIóN DE PARTíCULAS

Yoval Pozos Irandheny, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estudio de los procesos físicos de interacción de radiación con la materia y sus aplicaciones en la detección de partículas ha sido una de las actividades primordiales de los complejos experimentales, puesto que estas investigaciones son de gran ayuda para la Física de Altas Energías y el mejoramiento en la evaluación del Modelo Estándar de la Física de Partículas. El propósito de este proyecto es presentar un panorama al conocimiento de la Física de Altas Energías haciendo énfasis en el conocimiento de la interacción de partículas cargadas con la materia en específico con un plástico centellador, para ello se hizo uso de paqueterías como Geant4 y MPDROOT para la simulación y el análisis de datos. Cabe destacar que el estudio del fenómeno anteriormente mencionado es de suma importancia para el desarrollo y mejoramiento de detectores que se emplean para el estudio de los procesos físicos relacionados con la Física de Altas Energías.



METODOLOGÍA

Para comprender de forma más clara los temas relacionados con la Física de Altas Energías nos fue impartido un curso en el que se abordaron temas como partículas y sus correspondientes clasificaciones, detectores, perdida de energía, rayos cósmicos, interacción de partículas cargadas con materia, entre otros, con el fín de ampliar nuestro panorama en relación con los temas de ésta área. Posteriormente se prosiguió a realizar la instalación de las paqueterías de GEANT4 y MPDROOT. Al contar con éstos programas se comenzaron a trabajar las simulaciones, en las cuales se incidían partículas cargadas como muones y piones a un plástico centellador (BC422 o BC404) a distintas energías. Por último, a partir de las simulaciones obtenidas se realizó un ajuste Gaussiano de los datos para obtener la resolución temporal de los eventos efectuados en las simulaciones.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sólidos en el área de Física de Altas Energías tanto teóricos como experimentales, además de saber utilizar programas que son empleados en complejos experimentales.
Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

THE GALAXY MAQUILA


THE GALAXY MAQUILA

Gocobachi Lemus Jesús Abel, Universidad de Sonora. González Quiterio Adrián, Benemérita Universidad Autónoma de Puebla. Jiménez Valdez, Miriam, Benemérita Universidad Autónoma de Puebla. López Alcantar Miguel Ángel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. López Gerónimo Arianna, Benemérita Universidad Autónoma de Puebla. Pérez Leyva Marco Antonio, Universidad Autónoma de Sinaloa. Solar Becerra Beleni, Benemérita Universidad Autónoma de Puebla. Zaldívar Vázquez Juan José, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar López Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las áreas de estudio de la Astronomía, en nuestros días, se pueden categorizar en temas bien diferenciados, uno de ellos es la astronomía extragaláctica, este es de gran interés para este trabajo pues fue el punto de partida para esta investigación. El estudio de las galaxias puede servirnos para obtener diversas propiedades de estas, en específico nos ayuda a entender la dinámica propia de cada una, así como de sus componentes estelares; por ello, el estudio que se realiza ayuda a entender la formación y evolución de galaxias cercanas y así se apoya a las hipótesis que se tienen sobre estos temas.           Se tiene como objetivo generar la distribución espectral desde el ultravioleta hasta el lejano infrarrojo para una muestra de galaxias cercanas de la muestra KINGFISH y THINGS.



METODOLOGÍA

El grupo de trabajo hizo investigación astronómica usando bases de datos multifrecuencia, para cubrir la emisión de luz debido a las estrellas calientes, hasta la emisión del polvo en galaxias cercanas (d < 30Mpc). Se utilizó una muestra de 45 galaxias pertenecientes al catálogo KingFish, las cuales se encuentran en la base de datos NED y fueron observadas con los telescopios: SDSS, WISE, 2MASS, Spitzer y Herschel; cada uno diseñado con instrumentos especiales para cubrir ciertos rangos de frecuencia. Para el fin de nuestro proyecto se les aplicó fotometría, de esta manera se obtiene el flujo que emite cada una de ellas y este representa la energía que pasa por segundo a través de la superficie cerrada que lo contiene. Para realizar la fotometría se utilizaron dos programas los cuales fueron Aperture Photometric Tools (APT) y Galfit. APT es un software para la investigación astronómica, la visualización y el refinamiento de los análisis de la fotometría de la apertura [1]. Galfit es una herramienta para extraer información sobre galaxias, estrellas, cúmulos globulares, discos estelares, etc., mediante el uso de funciones paramétricas para modelar objetos tal como aparecen en imágenes digitales bidimensionales [2].


CONCLUSIONES

El fin es estimar las masas estelares, las tasas de formación estelar y las masas de polvo de las galaxias cercanas. Así́ como generar una base de datos con los cuales anclar la evolución de las galaxias. La contribución de este proyecto ha sido la obtención de magnitudes y flujos de una región dentro del radio efectivo de las galaxias, así́ pues, considerando que el método empleado en la realización del análisis fue sencillo se han podido obtener buenos ajustes. Por otra parte, hemos podido ampliar la muestra de galaxias del catálogo KINGFISH abarcando diferentes tipos morfológicos exceptuando galaxias irregulares. Bibliografía [1] © Aperture Photometry Tool. (2019). Home. Recuperado de: http://www.aperturephotometry.org    [2] Peng, C.(s/f). GALFIT USER’S MANUAL. Recuperado de: https://users.obs.carnegiescience.
Zamacona Ríos Jesús Fernando, Universidad Autónoma de Sinaloa
Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato

DARKOGENESIS


DARKOGENESIS

Zamacona Ríos Jesús Fernando, Universidad Autónoma de Sinaloa. Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se estudiará primero los requisitos que los candidatos a materia oscura deben que cumplir y como se podría usar la materia oscura para producir la asimetría bariónica del Universo. Este mecanismo es lo que se llama Darkogenesis.



METODOLOGÍA

En un comienzo se empieza a utilizar la formula exponencial gravitatoria posterior a ello la de plank, la ecuación de schrodinger y a partir de allí se llega a la Ecuación de Dirac. Había muchos problemas de cómo resolver algunos misterios del universo que no daban matemáticamente con números, entonces una persona llamada Paul Dirac se le ocurrió sino se puede resolver con números porque no usar matrices, entonces a partir de allí se vio integración de grupos y dio origen al langrangiano y a la vez a través del tiempo el modelo estándar llegando a un modelo muy preciso. más sin embargo aún le hace falta la conexión de la gravedad, existen 3 tipos de simetrías la C, P, y T.   La C es simetría de carga, la P simetría de Paridad y la T simetría temporal. Entonces Se estudia la composición del Universo, se tiene un conocimiento actual del Universo que es constituido de 4% de la materia conocida, 25 % de materia oscura y 71% de energía oscura (la composición de la materia y energía oscura es desconocida). Respecto a la materia conocida, no se puede explicar porque hay más materia que antimateria (conocido como asimetría bariónica del Universo).


CONCLUSIONES

Educación: [Al iniciar el verano el maestro les compartió a sus alumnos un documento que contiene la notas que se iban a utilizar para el desarrollo del modelo estándar, basadas en estas, y con ayuda de información en internet, se organizaron reuniones para ayudar a los alumnos a entender las principales interacciones fundamentales de la naturaleza] Investigación: [Los alumnos debieron analizar las notas otorgadas por el maestro, llevar dudas sobre conceptos y procedimiento matemático para la siguiente reunión que se agendaba para el día siguiente, además de esto el estudiante contaba con la responsabilidad de extraer información de libros y/o documentos que presentarán de manera clara y entendible los conceptos a trabajar] Comunicación: [Se fomentó siempre el trabajo en equipo, en donde estudiantes de otros veranos trabajaron de la mano con los estudiantes Veranos UG para enriquecer el conocimiento entre todos, al final, los estudiantes UG decidieron hacer una presentación con ayuda de medios audiovisuales y un poster para explicar de manera dinámica el conocimiento adquirido]
Zamora Ceja Antonio, Instituto Tecnológico de Lázaro Cárdenas
Asesor: M.C. Aideé Montiel Martínez, Benemérita Universidad Autónoma de Puebla

ASESINATOS CONTRA PERSONAS DEFENSORAS DEL MEDIO AMBIENTE EN MéXICO: ¿DóNDE ESTáN SUCEDIENDO?


ASESINATOS CONTRA PERSONAS DEFENSORAS DEL MEDIO AMBIENTE EN MéXICO: ¿DóNDE ESTáN SUCEDIENDO?

Echeverria Rivera Oscar Eduardo, Instituto Tecnológico de Lázaro Cárdenas. Zamora Ceja Antonio, Instituto Tecnológico de Lázaro Cárdenas. Asesor: M.C. Aideé Montiel Martínez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

México es uno de los países más peligrosos para las personas defensoras del medio ambiente, es por ello que estudios que realicen la localización de estos crímenes son necesarios. La localización puede utilizarse para detectar zonas problemáticas y así, aplicar acciones concretas en lugares específicos para solucionar o disminuir los conflictos. El objetivo del presente trabajo es realizar un mapa de México con la ubicación de los asesinatos hacia personas o grupos relacionados con conflictos ambientales con la finalidad detectar zonas de riesgo. Los datos se obtuvieron a través de medios de noticias impresos y digitales, tesis, tesinas relacionadas con el tema y bases de datos realizadas de 2014 a 2019.



METODOLOGÍA

Se realizó una hoja de datos en Excel en la que se ubicaron los casos con nombre de la víctima, estado, municipio, coordenadas del municipio donde se registró el asesinato, la etnia a la que pertenecía la víctima, la fecha y el link a la nota completa. El mapa con la ubicación de los asesinatos se realizó en la aplicación Mapa Digital de México del INEGI, asimismo, se usó un mapa de las áreas protegidas de México para mostrar su relación con las zonas donde los crímenes fueron cometidos.


CONCLUSIONES

Los resultados mostraron que, del total de 66 casos encontrados, el 21.21% de los casos pertenecen al estado de Oaxaca, siendo el Estado con mayor número de asesinatos de personas defensoras del medio ambiente entre los años mencionados anteriormente. Chihuahua, Veracruz y Michoacán presentaron el 18.18%, el 16.67 y el 10.61%, respectivamente. Además, se concluyó que una gran cantidad de los asesinatos están cercanos a las áreas nacionales protegidas e incluso unos se encuentran dentro de dichas áreas por lo que es prioritario que además de proteger los recursos naturales se implementen programas que protejan a todos los ciudadanos que habitan y protegen estas áreas.
Zamora Ibarra Guadalupe Citlalli, Instituto Politécnico Nacional
Asesor: Dr. Isidro Loza Aguirre, Universidad de Guanajuato

METODOLOGÍA PARA LA IDENTIFICACIÓN Y CARTOGRAFÍA DE UNIDADES LITOLÓGICAS EN EL SUROESTE DEL DISTRITO MINERO DE GUANAJUATO.


METODOLOGÍA PARA LA IDENTIFICACIÓN Y CARTOGRAFÍA DE UNIDADES LITOLÓGICAS EN EL SUROESTE DEL DISTRITO MINERO DE GUANAJUATO.

Saucedo Aleman Kevin Javier, Universidad de Sonora. Tovar Ramírez María Isela, Universidad de Guanajuato. Zamora Ibarra Guadalupe Citlalli, Instituto Politécnico Nacional. Asesor: Dr. Isidro Loza Aguirre, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El Distrito Minero de Guanajuato (DMG) está ubicado en el límite sur de la provincia fisiográfica Mesa Central (MC), en el sureste de la Sierra de Guanajuato (SG). La columna estratigráfica del DMG ha sido estudiada durante el último siglo donde se identificaron dos grupos de rocas: el más antiguo pertenece al Mesozoico y fue estudiado a detalle en la Sierra de Guanajuato; El segundo grupo consiste en depósitos continentales Cenozoicos, que reposan discordantemente sobre las rocas Mesozoicas. (Nieto-Samaniego, 2015) Una de las particularidades de la Mesa Central es la cantidad y variedad de yacimientos minerales emplazados en esta provincia; entre ellos algunos de los depósitos más ricos de México. Por lo que se requiere contar con una información precisa de la geología del lugar ya que, aunque se ha tenido un amplio estudio sobre el DMG y como se trata de regiones muy amplias, en algunas ocasiones los mapas realizados no concuerdan con lo observado en campo. En base a esta problemática, el objetivo de este proyecto es proporcionar al sector minero y al usuario en general una cartografía mejorada con mayor detalle y precisión. Para esto se eligió como zona de estudio el sureste del DMG, comprendido por cerro de la Bufa, Calderones y el Cubo.  



METODOLOGÍA

El desarrollo de las actividades se llevó a cabo dentro del Departamento de Ingeniería en Minas, Metalurgia y Geología, de la Universidad de Guanajuato. El trabajo consistió principalmente en cinco actividades siguiendo la siguiente metodología. La primera etapa consistió en la recopilación de información bibliográfica sobre el área en cuestión para contar con las bases necesarias sobre la geología del lugar llevando un análisis previo de las unidades litológicas más importantes, reconociendo, así como base principal a la Formación Bufa formada por flujos riolíticos piroclásticos con al menos tres horizontes principales, así como tobas y domos de la misma composición. Sobre ella yace la Formación Calderones descrita como arenisca, conglomerado, brecha y toba de composición andesítica con algunas intercalaciones de tobas dacíticas (Echegoyen-Sánchez et al 1970). En la cima de estas se encuentra la Formación Cedro formada por flujos de lava andesíticos (Nieto-Samaniego, 2015). Como segunda etapa se prosiguió con la realización de la cartografía regional previa, creando un mapa con la ayuda de los Sistemas de Información Geográfica (SIG): ArcGis (vers. 10.5) y Google Earth, para efectuar una manipulación y análisis de forma rápida, eficaz y exacta de la información geológica, estructural y minera.  Donde se interpretaron imágenes satelitales para identificar las unidades anteriormente estudiadas, así como las estructuras geológicas; redefiniendo la información en base a otros autores. Una vez teniendo la cartografía se hizo una planeación para elegir los puntos de interés a visitar en campo y se prosiguió con la creación de un itinerario. En la tercera etapa se realizó una a salida a campo  que consistió en dos fases: durante la primer fase se hizo un reconocimiento geológico minero, con muestreo representativo de  las unidades litológicas al igual que su descripción y clasificación en muestra de mano, obtención de datos estructurales  y observación de datos no pronosticados; en la segunda fase se realizó una segunda ida a campo donde se corroboró la información obtenida y la obtención de nueva para el mejoramiento de los resultados. La cuarta etapa se basa en los análisis de muestras mediante dos medios: datación de rocas y realización de láminas delgadas para su clasificación. Para la preparación de la datación de la roca, se muele un kilo de la muestra en una trituradora de quijada a un tamaño de 256 micras. Posteriormente se lleva a cabo el proceso de bateo que consiste en: mezclar alrededor de 20 grms del sedimento obtenido de la trituradora con agua y se batea con el fin de separar los minerales más pesados de los ligeros. Una vez separando los minerales pesados y usando un microscopio petrográfico se analiza el sedimento y se seleccionan los zircones y apatitos los cuales nos ayudarán a fechar nuestra roca. Dependiendo del tipo de roca será el procedimiento a datar, ya que la cantidad de zircones y/o apatitos a analizar varían en cantidad. Por otra parte, para la realización de lámina delgada se llevó acabo el siguiente procedimiento: se selecciona un fragmento de roca del tamaño de una muestra de mano y se lleva a cortar para tener como resultado un prisma rectangular de poco menos que el tamaño de un portaobjetos se corta con una cortadora de disco diamantado. Una vez obtenido el prisma se pule con abrasivo de 400 mallas para eliminar cualquier marca que deje la cortadora y se sigue con la preparación del portaobjetos, éste se marca por una de las caras con la clave de la roca, la otra de las caras se pule con abrasivo de 400 mallas, se lava y se seca, ya realizado esto se pega con resina epóxica  la roca al portaobjetos y se deja secar unos minutos al sol, ya seca se lleva a rebajar hasta un tamaño de 80 micras aproximadamente. Posteriormente se rebaja hasta el tamaño adecuado de entre 20 y 40 micras con abrasivo de 1000 y se controla el espesor mediante microscopio óptico. Ya teniendo la lámina delgada se analiza, describe y clasifica observándola en un microscopio óptico. Como última fase, se basa en la integración e interpretación de la información obtenida con la ya recabada para corroborar y/o modificar el mapa previamente creado.


CONCLUSIONES

El presente estudio y la metodología empleada demuestra la importancia de la cartografía como tal pero sobre todo, la relevancia que tienen los Sistemas de Información Geográficas (SIG); gracias a estas técnicas empleadas se ha logrado visualizar información geográfica de una forma sencilla y así lograr ajustar las edades de las formaciones, actualizar la columna estratigráfica del Distrito Minero de Guanajuato, de igual forma actualizar y añadir polígonos a trabajos previos existentes del área comprendida.
Zárate Zavala Luis Uriel, Universidad de Guadalajara
Asesor: Dr. Sofía Ortega Castillo, Centro de Investigación en Matemáticas (CONACYT)

MEDIDA DE HAUSDORFF: CURVAS QUE LLENAN EL ESPACIO Y EL CONJUNTO DE BESICOVITCH


MEDIDA DE HAUSDORFF: CURVAS QUE LLENAN EL ESPACIO Y EL CONJUNTO DE BESICOVITCH

Alvarado Garduño Omar, Instituto Politécnico Nacional. Morales Jimenez Rafael, Universidad de Colima. Zárate Zavala Luis Uriel, Universidad de Guadalajara. Asesor: Dr. Sofía Ortega Castillo, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El estudio de las matemáticas se inició con la geometría, y la geometría la entendemos como la ciencia que estudia los objetos geométricos; es decir, objetos que podemos medir.  Cuando uno piensa en medir lo más natural en el plano es tomar dos puntos y calcular la distancia entre estos puntos. Si estamos en una esfera tomamos la distancia mínima de los arcos que unen dichos puntos. Así, sabemos de forma intuitiva como medir o calcular distancias en ciertos conjuntos, aunque, lo último no siempre sea sencillo. Con el paso del tiempo, gracias a A. Cauchy (1789-1857) y B. Riemann (1826-1866) fuimos capaces de formalizar está idea de medir, lo cual nos ayudó a resolver el problema de calcular distancias sobre conjuntos más complicados que una esfera o un plano. Sin embargo, está integral tenía varios defectos; por ejemplo, ciertos subconjuntos de conjuntos con integral nula no son necesariamente integrables. Este y otros problemas se llegaron a resolver con la medida de Lebesgue.   Sin embargo, un estudio más profundo de las propiedades geométricas de ciertos conjuntos muchas veces requiere del análisis de su "masa" más allá de lo que se puede obtener en términos de la medida de Lebesgue. Es aquí donde la medida de Hausdorff con la noción de dimensión (que puede ser fraccionada) y su medida asociada juegan un rol crucial. Recientemente la medida de Hausdorff ha tenido un gran incremento en la importancia dentro de las ciencias. Mandelbrot fue de los primeros en deducir su uso en modelos de distintas áreas de estudio; algunas de sus aplicaciones son, por ejemplo, el movimiento Browniano de partículas, turbulencia en fluidos, crecimiento de las plantas, la distribución de las galaxias en el universo, e incluso la fluctuación del precio en el mercado de valores. En 1890 Giuseppe Peano construyó una curva continua que llena completamente un cuadrado en el plano como contraejemplo de que una curva continua no puede ser encerrada en una región arbitrariamente pequeña. Este fue un ejemplo temprano de lo que hpy se conoce como fractal.  En 1917 Besicovitch mientras trabajaba en problemas de integración de Riemann se encontro con la pregunta: ¿existe algún conjunto compacto que contenga un segmento de línea en cada de dirección tal que su medida de Lebesgue sea cero? Después, en 1919 logró construir dicho conjunto el cual conocemos como "el conjunto de Besicovitch" Existe una condición de regularidad que satisfacen los subconjuntos medibles (con medida finita) en Rd cuando d>2.  Sin embargo, esta condición no se satisface para d=2 por la existencia del conjunto de Besicovitch. Esta condición está relacionada con la transformada de Radon. Esta se usa aquí para calcular la medida de conjuntos en Rd interceptados con ciertos planos en la medida natural sobre dicho plano. 



METODOLOGÍA

Primero estudiamos la medida de Lebesgue y la teoría de la medida general. Enseguida se estudió la teoría de la medida de Hausdorff, así como algunos conjuntos cuya dimensión es fraccionaria, entre estos se encuentra el conjunto de Cantor y la curva de Von Koch. Luego de esto se realizó la construcción de la curva de Peano, la cual es una curva que tiene varias propiedades particulares pero la más interesante es que es una curva que llena por completo el cuadrado unitario en el plano. Para la construcción de esta curva se tuvieron que introducir los conceptos de intervalos cuarticos, cuadrados diádicos y correspondencia diádica y también se probaron varias propiedades de estos, las cual se necesitan para la construcción y prueba de las características de la curva de Peano. También, se estudió análisis de Fourier sobre el espacio de Schwartz para, después, extenderlo al espacio de funciones integrables, L1. Esto ayudó con el estudio de análisis de la transformada de Radón para funciones continuas de soporte compacto.  Se estudiaron también ciertas propiedades de la transformada de Radón para funciones sobre Rd con d>2 que serán cruciales para mostrar que cierta condición de regularidad para subconjuntos de Rd no se satisface cuando d=2. Para finalizar, gracias a esta condición de regularidad es posible comprobar la existencia de los conjuntos de Besicovitch, así como, la construcción de uno de ellos. Lo cual, realizamos haciendo uso del conjunto de Cantor.


CONCLUSIONES

Estudiamos la teoría de medida de Hausdorff, con la cual fuimos capaces de calcular la dimensión de Hausdorff para el conjunto de Cantor, el triángulo de Sierpinski y la curva de Von koch. Se comprobó que cada uno de estos conjuntos tienen asociados funciones de auto-similitud. Para el último conjunto usamos estás funciones para calcular su dimensión. También, realizamos animaciones de estos conjuntos con ayuda del lenguaje de programación java. La propiedad de auto-similitud es de gran ayuda al momento de calcular la dimensión de un conjunto, ya que en ciertos casos estas funciones y los conjuntos abiertos asociados tienen restricciones débiles, lo cual, las hace más fácil de encontrar. Al estudiar la curva de Peano nos dimos cuentas que las propiedades que estudiamos de esta curva coinciden con la teoria que desarrollamos sobre la medida. Además, de que corroboramos que esta curva efectivamente cubre al espacio, es decir, tiene dimensión de Hausdorff dos y medida positiva. La transformada de Radon resultó ser una herramienta natural para probar que la dimensión de los conjuntos de Besicovitch en el plano tienen dimensión dos, ya que cualquier segmento de longitud unitaria se puede pensar como un segmento perpendicular a algún vector en S1.  Así, también se construyó un conjunto de Besicovitch como rotaciones del conjunto de líneas que unen el conjunto de Cantor con disección un medio sobre el eje x y sobre la recta y=1 escalado un medio.
Zavala Téllez Danya Berenice, Instituto Tecnológico de Pachuca
Asesor: Mtro. Rodolfo Jimenez Cavieres, Universidad de Santiago de Chile (Chile)

EVALUACIóN Y ANáLISIS DE SISTEMAS CONSTRUCTIVOS


EVALUACIóN Y ANáLISIS DE SISTEMAS CONSTRUCTIVOS

Zavala Téllez Danya Berenice, Instituto Tecnológico de Pachuca. Asesor: Mtro. Rodolfo Jimenez Cavieres, Universidad de Santiago de Chile (Chile)



PLANTEAMIENTO DEL PROBLEMA

Desde mediados de los años 80 y hasta principios de los años 90 del siglo XX, diversas ONG, que trabajaban la problemática de la vivienda de autoconstrucción para los sectores más vulnerables de la sociedad en Chile, exploraron diferentes alternativas para ofrecer soluciones habitacionales en un contexto de dictadura política y de un Estado con baja capacidad de respuesta gubernamental. Entre las ONG de la época, destaca el Centro Urbano de Asistencia Técnica, Taller Norte, proporcionando una innovación tecnológica con estabilidad básica del sistema constructivo LAD-MA (ladrillo-madera), en el que establece una combinación poco convencional de materiales junto con la participación mutua entre los usuarios para generar un diseño participativo. La investigación se inscribe mediante el estudio y análisis de las condiciones del contexto social, económico y político de la época que establezcan la evaluación del comportamiento del sistema constructivo LAD-MA, considerando la relación existente entre los aspectos propiamente técnicos y de financiamiento, a través de las determinantes desarrolladas para su diseño y buscar establecer las respuestas cualitativas, tecnológicas y potenciales que lo mantienen en vigencia en las actuales condiciones sociales económicas y políticas del país para su uso en programas públicos de vivienda social actuales.



METODOLOGÍA

La Propuesta de Evaluación de Sistemas Constructivos, metodología desarrollada por Juan Monjo Carrió, permitió generar el estudio de los fundamentos sociales, económicos, culturales y propiamente técnicos del sistema constructivo LAD-MA. Seleccionar un sistema constructivo requiere de su evaluación, ponderando sus posibilidades arquitectónicas abordando el aspecto funcional, formal, tecnológico que permitan controlar todas las fases de un proyecto desde su diseño hasta la construcción. La evaluación funcional es relativa a la seguridad e integridad de conservación de las características físico-químicas de la edificación adjunto con la adecuación con confort ambiental y composición formal. Las materias primas del sistema constructivo LAD-MA provenían de comercios cercanos, eran transportadas hacia el taller de prefabricación por los propios proveedores. El sistema fue diseñado para ser intensivo en el empleo de la mano de obra no especializada. Por consiguiente, la evaluación del perfil tecnológico analiza las condicionantes constructivas del nivel de mecanización, de determinadas técnicas de producción en las diferentes fases del proceso en combinación con el transporte y fabricación de componentes. Considerando la respuesta que da el sistema en el estudio a las condicionantes económicas del lugar y la época, la adecuación a las condiciones contextuales y sociales brinda parámetros que están inmersos en los aspectos propios que definen su coste. La evaluación económica corresponde a la adquisición de los materiales en el mercado.


CONCLUSIONES

Actualmente, el país tiene un ingreso per cápita de US$ 15.346,4, seis veces más alto que el de 1990 que alcanzaba a US$ 2.500,65. En 2010, Chile sufrió uno de los mayores terremotos de la historia, sacudiendo el centro-sur del país con una magnitud de 8,8 grados en la escala de Richter. Con la llegada de la democracia se generó un acelerado crecimiento económico y de las expectativas de la población respecto a las soluciones de recursos habitacionales, las ONG tuvieron un déficit debido al apoyo financiero y asistencia técnica del gobierno. El sistema LAD-MA ha podido mantenerse en sustento durante el transcurso de un promedio de 30 años, experimentando los diversos factores y experiencias acontecidas, ha cobrado vigencia en las actuales condiciones sociales, económicas, culturales, normativas y tecnológicas.
Zendejas Agiss Laura Karyme, Instituto Politécnico Nacional
Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato

CONTEXTO HISTóRICO DEL DESARROLLO DEL MODELO ESTáNDAR Y LA MECáNICA CUáNTICA ACTUAL


CONTEXTO HISTóRICO DEL DESARROLLO DEL MODELO ESTáNDAR Y LA MECáNICA CUáNTICA ACTUAL

Zendejas Agiss Laura Karyme, Instituto Politécnico Nacional. Asesor: Dr. David Yves Ghislain Delepine X, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La física desde sus inicios ha buscado la forma de entender nuestro entorno y traducirlo a un lenguaje universal. Con la llegada de nuevos conceptos como la relatividad o el spin se inició una revolución en el conocimiento científico, y se pasó en pocos años de la física clásica a la física cuántica.



METODOLOGÍA

Teoría Cuántica de Campos (QFT) Las fuerzas conocidas de la naturaleza pueden dividirse en cuatro: •Gravedad. •Electromagnetismo. •Fuerza nuclear débil.  •Fuerza nuclear fuerte. El primer campo cuantizado fue el electromagnético, por Richard Feynman en 1940, aportación por la cual recibió el Premio Nobel de Física en 1965. Otra de sus contribuciones más importantes son los diagramas de Feynman, que son aquellos esquemas que describen la interacción de las partículas. Estos diagramas representan la suma de todas las probabilidades permitidas de interacción. Otro hallazgo importante, acontecido en 1967, fue cuando Abdus Solan y Steven Weinberg lograron unificar la fuerza débil con el electromagnetismo, dando como resultado la ahora llamada fuerza electrodébil. Bajo este fundamento, se postula la existencia de tres nuevas partículas: los bosones W+, W- y Z0. No fue hasta 1983 cuando hubo evidencias experimentales de la existencia de estos bosones. Modelo estándar El modelo estándar es una teoría que unifica a las fuerzas electrodébiles y a la cromodinámica cuántica, para así describir la interacción de todas las partículas conocidas hasta el momento. Esto se representa a partir de un lagrangiano, que se define como la función matemática aplicable a sistemas dinámicos en los cuales pueden ser obtenidos elementos propios y de relevancia adjunta, tales como la característica conservativa de la energía y su evaluación temporal. Éste sigue una estructura L=T-V siendo T la energía cinética y V la energía potencial. Este lagrangiano debe cumplir con tres condiciones de invariancia llamadas simetrías, las cuales permiten que el comportamiento de las partículas sea congruente con el de las antipartículas. Una simetría es la propiedad de un sistema cuando sus propiedades no quedan afectadas por una cierta transformación. Estas son: conjugación de carga, paridad e inversión temporal. La conjugación de carga es, como su nombre lo indica, sustituir la carga de la partícula por la opuesta correspondiente. La quiralidad es una propiedad del modelo, la cual indica que hay dos componentes para las partículas: zurda y diestra. La paridad transforma una partícula zurda en su correspondiente partícula diestra, por medio de un cambio de signo de todas las componentes del vector. La inversión temporal indica que se puede cambiar la línea temporal de la acción, es decir, revertirla. Esta herramienta también permite igualar los tiempos de vida entre partícula y antipartícula. Bariogénesis La bariogenésis es una teoría estudiada a profundidad que dicta que el universo, de ser totalmente simétrico, no sería como lo conocemos hoy en día; es decir, siempre ha existido un pequeño, aunque significativo exceso de bariones con respecto a los fotones y a los antibariones del universo. La bariogénesis propone que la pequeña asimetría de bariones se haya generado dinámica como consecuencia de las Leyes Físicas. En 1967 el físico ruso A. Sakharov formuló tres condiciones que explican cómo se puede generar la asimetría de bariones, las cuales son las siguientes: Interacciones que violen el número bariónico. Ésta puede ser algo trivial, sin embargo, es preciso que la violación sea suficientemente pequeña, puesto que, de ser excesivo, se podría proceder a la desintegración de la materia. Interacciones que violen C y CP. Las simetrías que mencionamos anteriormente deben ser violadas, ya que con ello es fundamental que existan más partículas que antipartículas. La quiralidad y las cargas, de ser conservadas, contribuirían a un equilibrio que no permitiría la aparición de cualquier exceso de bariones. Interacciones fuera del equilibrio térmico. Si el número bariónico generado en una desintegración es distinto de cero, al estar las partículas en equilibrio térmico se produce también el proceso de desintegración inversa en donde se genera un número bariónico igual en valor absoluto y de signo contrario al anterior, de forma que el número bariónico neto generado por la desintegración es nulo. Fuera del equilibrio térmico la desintegración inversa no tiene lugar.


CONCLUSIONES

Después del desarrollo de este proyecto se logró constituir un modelo que describe la interacción de partículas fundamentales, tomando como base el modelo estándar, para así después, desarrollarlo e incluir temas más actualizados, como la bariogénesis.  Cabe mecionar que el único detalle que falta pulir, es el de integrar la fuerza gravitacional a éste modelo, sin embargo, aún sin ella, el modelo funciona.  Por último, puedo conlcluir que cada contribución a lo largo de estos más de cien años, hace la diferencia para abrir nuestro panorama y comprender los enigmas del universo. 
Zúñiga Mercado Diana Laura, Universidad Autónoma de Occidente
Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente

REMEDIACIóN DE SUELO Y AGUA CONTAMINADOS POR HIDROCARBUROS


REMEDIACIóN DE SUELO Y AGUA CONTAMINADOS POR HIDROCARBUROS

Obeso Soberanes Andrea, Universidad Autónoma de Occidente. Zúñiga Mercado Diana Laura, Universidad Autónoma de Occidente. Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Los derivados de hidrocarburos (gasolina, queroseno, aceites, combustibles, parafinas, y el asfalto, entre muchos otros), no solo impactan la capa superficial del suelo, también corren el riesgo de ser movilizados hasta aguas subterráneas generando así su contaminación, o incluso pueden ser transportados por escorrentía incrementado aún más el daño ambiental. Dicha contaminación afecta las condiciones fisicoquímicas de agua al presentarse una disminución de oxígeno disuelto debido a la reducción de la transferencia de oxígeno entre la fase atmósfera – agua, al igual que la entrada de luz al medio, lo que inhibe el crecimiento de ciertas especies y disminuye la fijación de nutrientes (Jiménez. 2006). Uno de los efectos adicionales tanto en agua como suelos es que el petróleo consume oxígeno, aumenta la demanda bioquímica del agua y puede generar condiciones anóxicas. Los cuerpos de agua como lagos, ríos y humedales ofrecen una variedad de recursos y comunidades acuáticas que pueden ser amenazadas por derrames de hidrocarburos. Los hidrocarburos tienden a flotar debido a la diferencia de densidad que presentan con respecto al agua, bloqueando de esta manera la penetración de la luz y el intercambio de gases. El tipo de suelo (arena, limo y arcilla) y la cantidad de materia orgánica existente determinan el destino de los hidrocarburos del petróleo y la extensión del daño a las plantasreportan que "la contaminación por hidrocarburos de petróleo”ejerce efectos adversos sobre las plantas indirectamente, generando minerales tóxicos en el suelo disponible para ser absorbidos, además, conduce a un deterioro de la estructura del suelo; pérdida del contenido de materia orgánica; y pérdida de nutrientes minerales del suelo, tales como potasio, sodio, sulfato, fosfato, y nitrato” de igual forma, el suelo se expone a la lixiviación y erosión. La presencia de estos contaminantes, ha dado lugar a la pérdida de la fertilidad del suelo, bajo rendimiento de cosechas, y posibles consecuencias perjudiciales para los seres humanos y el ecosistema entero.



METODOLOGÍA

Primeramente se toman las muestras de tres tipos de suelos distintos (arenoso, arcilloso y mimoso). A los cuales pasan por análisis de caracterización tales como, textura, pH, conductividad eléctrica, sales solubles, cationes y a iones. Esto con el fin de saber con que tipo de suelos se va a trabajar y finalmente ayudar a la hora de interpretar resultados. Teniendo ya las muestras de suelo, sé contamina el suelo por cada kilo de suelo son 60 gr de aceite. Una vez contaminado el suelo realizar el primer lavado con un tiempo de 30 min a 1500 rpm colocando 200 gr de muestra de suelo en una solución surfactante de 600 mL (597 mL de agua destilada y 3 mL de detergente). Pasando los 30 min de lavado de cada muestra de suelo pasar a dejarlos sedimentar por 24 hrs. Realizar el primer lavado de 2 hrs. Siguiendo el mismo procedimiento del lavado de 30 min. Pasando las 24 hrs de sedimentar decantar las muestras y pasarlas al horno a 105 °C por 24 hrs. Continuar con el segundo lavado de ambos tiempos, siguiendo el mismo procedimiento de lavado, sedimentación de la muestra y secado. Para pronto iniciar con la extracción de grasas con la ayuda del equipo sohxlet. Después de haber realizado el segundo lavado se deja la solución en sedimentación por 24 horas, posteriormente se procede a decantar la solución para dejar únicamente el suelo en el vaso de precipitado, y dicho suelo se lleva a secar por 24 horas en el horno a 105°C. Al terminar el secado de todas la muestras se toman 10 gr. de cada tipo de suelo, para posteriormente llevar cada muestra a la extracción de grasas con el método de soxhlet. La muestra sólida se coloca en un cartucho de material poroso y se sitúa en la cámara del extractor soxhlet, se calienta el disolvente extractante, que en este caso son 200 ml de Hexano que se encuentran en el matraz, se condensan los vapores que después caen gota a gota sobre el cartucho que contiene la muestra y al llegar a un cierto límite, el disolvente con las grasas disueltas, retorna al matraz en ebullición. Este proceso (ciclo) se repite 6 veces hasta que se completa la extracción de grasas de la muestra y se concentran en el disolvente. Se realiza la extracción a los tres tipos de suelos que fueron lavados a dos diferentes tiempos, en total se hacen 6 extracciones con soxhlet. Una vez terminada cada extracción se realiza el secado del extracto, se deja el matraz en la plancha con una temperatura alta, hasta que se logra evaporar todo el Hexano, y en el matraz solo quedan las grasas que fueron extraídas, se pone a secar el extracto durante 20 minutos en el horno y posteriormente se procede a pesar cada uno de los extractos. Al obtener el peso de cada extracto realizamos una resta del peso que tenemos del matraz a masa constante y del peso del matraz con el extracto, el resultado es la cantidad exacta de grasas que se removieron de la muestra. Se aplica el mismo procedimiento pero utilizando agua en lugar de suelo, se contaminan 200 ml de agua con 6.4 gr de aceite y se realizan los lavados de 30 minutos y de 2 horas correspondientemente. Esto para verificar si el proceso de lavado funciona igual con el agua que con el suelo. Se dejan sedimentar los extractos durante 24 horas y posteriormente se llevan a filtrar utilizando tierra de diatomeas ya que el decantar con las muestras de agua no funciona. El extracto de aceite que queda en los filtros se coloca en un cartucho de material poroso y se procede a realizar la extracción con soxhlet y a pesar el extracto de grasas y aceites, igual que con las muestras de suelo.


CONCLUSIONES

Durante la estancia de verano se obtuvo lo siguiente: El mayor porcentaje de remoción de grasas y aceites se dio en el suelo Arcillo limoso con un tiempo de lavado de 2 horas, aunque se presentó mayor remoción en los lavados de 2 horas no resultó ser tan relevante el tiempo de lavado. El hecho de que en este tipo de suelo se haya presentado un mayor porcentaje de remoción se debe a las características de estos tipos de suelos. Se puede concluir que la metodología empleada para el lavado de los suelos contaminados también es viable para utilizarse con aguas contaminadas por hidrocarburos, ya que presenta la misma efectividad.