Videos de los coloquios 2022

Resumen:
En esta charla hablaremos sobre una teoría matemática de observaciones y mediciones indirectas y, en particular, de mediciones en mecánica cuántica sin demolición. Dicha teoría nos permite realizar una descripción matemática de la siguiente afirmación: Secuencias largas de mediciones u observaciones directas (proyectivas) sucesivas de unas pocas magnitudes físicas que podrían considerarse "sin interés" de un sistema cuántico, como los clics de algunos detectores, pueden revelar información indirecta, pero precisa e inequívoca, sobre los valores de algunos observables muy "interesantes" del sistema. El enfoque que presentamos nos lleva a utilizar de forma novedosa nociones y resultados clásicos de la teoría de la probabilidad como el “álgebra de funciones medibles en el infinito”, el Teorema del Límite Central, resultados sobre la entropía relativa y su papel en la teoría de las grandes desviaciones, etc.

Resumen:
En esta plática exploraremos la noción de dualidad (en el sentido de V. Milman y S. Artstein-Avidan) en la familia de todos los conjuntos convexos y cerrados que contienen al origen de un espacio euclidiano dado.
Veremos qué nos dice la topología respecto a esta noción, y nos concentraremos en su relación con un problema abierto en topología de dimensión infinita: el problema de Anderson sobre las involuciones del cubo de Hilbert con un único punto fijo.

Resumen:
La Creatividad Computacional es un área de investigación interdisciplinaria que se localiza en la intersección de la Inteligencia Artificial, la Psicología Cognitiva, la Filosofía, las Ciencias Sociales y las Artes. Sus metas son: i) construir programas computacionales que muestren algún nivel de creatividad, ii) ayudar a comprender mejor la creatividad humana y iii) diseñar programas computacionales que ayuden a mejorar nuestra creatividad, sin ser necesariamente creativos por sí mismos. En esta plática, se dará una visión general de esta área de investigación, incluyendo sus principales metodologías, logros y retos, centrando la discusión en cómo las matemáticas pueden ayudar a crear programas creativos y en cómo este tipo de programas pueden ayudar a hacer matemáticas

Resumen:
Como consecuencia del Teorema de Sklar (1959) toda la información sobre la dependencia entre las variables de un vector aleatorio se encuentra en la función cópula subyacente, y por tanto cualquier forma de medir dependencia debería poder escribirse sólo en términos de dicha función cópula, además de poder caracterizar la ausencia total de dependencia (independencia). Se analiza en particular la medida de dependencia de Schweizer y su relación con la medida de concordancia de Spearman.

Resumen:
El teorema de uniformización de Riemann es un resultado clásico del análisis complejo, el cual establece que todo abierto propio del plano complejo, simplemente conexo, es holomorficamente equivalente al disco unitario. Volumen Renormalizado es un funcional geométrico que 'reemplaza' al concepto de volumen en variedades hiperbólicas de volumen infinito. En esta charla discutiremos la relación entre el punto de vista variacional de uniformización y Volumen Renormalizado. Aspectos de esta charla estan basados en trabajos en colaboración con Martin Bridgeman, Jeff Brock, Ken Bromberg e Yilin Wang.

Resumen:
En esta charla daremos varios ejemplos de técnicas que se pueden utilizar en nuestro salón de clases para crear un ambiente en el que todos nuestros estudiantes se sientan capaces de aprender matemáticas. La idea en general es alejarse de la clásica cátedra y encontrar más y mejores maneras de hacer que los estudiantes puedan experimentar con las matemáticas y así puedan aprender mejor.

Resumen:
El problema de las jaulas consiste en encontrar gráficas regulares de orden mínimo y cuello fijo. El cuello es la longitud del ciclo de longitud mínima de una gráfica. El problema en su versión bipartita birregular surge en 2019 y consiste en encontrar gráficas bipartitas birregulares (con un grado en cada conjunto partito) y orden mínimo.
En esta plática les daré una versión panorámica del problema y les mostraré, que cuando la gráfica tiene cuello 6, la resolución de este problema tiene una relación mágica con la existencia de ciertos diseños de bloques llamados Sistemas de Steyner.

Resumen:
En esta platica se presentan algunos resultados sobre la existencia de soluciones periódicas conocidas como coreografías y trenzas del problema de n-cuerpos. En particular explicaremos como obtener trenzas a partir de una configuración central no-degenerada. La idea principal es reemplazar un cuerpo en una configuración central de n cuerpos por un par de cuerpos que giran uniformemente alrededor de su centro de masa.

Resumen:
Tomemos una superficie con una métrica Riemanniana, podemos definir entonces un flujo en el fibrado tangente unitario: el flujo geodésico. Poincaré y luego Birkhoff, demostraron que en algunos casos el fujo geodésico admite una sección (de Birkhoff). Se trata de una superficie con frontera, cuyo interior está encajado en la variedad de dimensión 3, su frontera coincide con una colección de orbitas périodicas del flujo y el interior es tranverso al flujo. Pedimos también que dicha superficie intersecte todas las órbitas del flujo.
Cuando un flujo en dimensión 3 admite una sección de Birkhoff, su dinámica se reduce a la de un difeomorfismo de una superficie. Un objeto mucho más sencillo. Explicaré un resultado sobre la existencia genérica de secciones de Birkhoff para los flujos de Reeb, familia que contiene en particular a los flujos geodésicos. Es un trabajo en colaboración con V. Colin, P. Dehornoy y U. Hryniewicz.

Resumen:
En modelos termodinámicos finitos, el principio variacional finitario garantiza la existencia y unicidad de los estados de equilibrio, de las medidas de Gibbs que pueden ser simuladas con algoritmos como dinámica de Glauber, la cual es un tipo de simulación Monte Carlo de cadenas de Markov. Bajo esta premisa y como prueba de concepto, en esta charla presentaremos al “Escalascopio”, una aplicación equipada con un poderoso motor de búsqueda termodinámica. Para describir su construcción intrínseca, nos sumergiremos en universos de composiciones y particiones de enteros y sus funciones generadoras, de sistemas dinámicos simbólicos y de partículas junto con sus potenciales de interacción definidos en base a las propiedades musicales de las escalas.

Resumen:
Los modelos cosmológicos permiten estimar de manera teórica la edad del Universo y así poder contrastar con las observaciones astronómicas para inferir cierta información del Universo. Uno de los modelos más sencillos es el Einstein-de Sitter ya que, la geometría plana del espacio-tiempo, el hecho de no considerar efectos relativistas (constante cosmológica Λ = 0) y la métrica Friedmann-Robertson-Walker en la que se basa, facilitan los cálculos matemáticos para su deducción. Según este modelo, bajo la hipótesis de que no hay presión ejerciéndose sobre el Universo y que este está constituido solo de materia bariónica, se infiere que la edad del Universo, medida desde la ocurrencia del Big-Bang hasta nuestros días, es de 9,67 mil millones de años. Sin embargo, dicha medición no concuerda con la edad que estimó el satélite Planck en 2015, misma que es el referente cosmológico actual. Por lo que, para ajustar ambas estimaciones, se modificó la densidad de materia bariónica y se obtuvo una constante de Hubble H0 = 47.242 km/s/Mpc, misma que no concuerda con el valor más actual estimado en 2018 (H0 = 64,0 km/s/Mpc). De modo que al introducir una constante cosmológica (Λ 0) en las ecuaciones de Friedmann se deduce un nuevo modelo cosmológico: el modelo Einstein-de Sitter Modificado, con el que se obtiene una estimación de 13,98 mil millones de años para la edad del Universo y que resulta compatible con los valores publicados por Planck Collaboration en 2015.