Categorías
Coloquio de Exestudiantes

Charlas del 9 de marzo de 2022

Por favor llena este formato para que te enviemos el link de Zoom para asistir a las charlas.

Sandra Palau hizo la licenciatura y maestría en Matemáticas en la UNAM. En el 2012, empezó un doctorado en CIMAT con especialidad en probabilidad y estadística. Después, obtuvo una beca Newton para hacer un postdoctorado en la Universidad de Bath, Inglaterra en los años 2017-2018. Desde el 2019, Sandra trabaja como investigadora en  el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM. Su área de investigación es Probabilidad y Procesos estocásticos y su aplicación a la biología.

Titulo: Procesos de ramificación en ambiente variable.

Resumen: En esta charla veremos los procesos de ramificación en ambiente aleatorio. Analizaremos cuando el proceso presenta extinción. Condicionado a no extinguirse, tomaremos una muestra de tamaño K en el futuro y describiremos la forma de su árbol genealógico.

Jonathan Rafael Patiño López es egresado de la carrera de computación de la ya desaparecida Facultad de Matemáticas de la UG (FAMAT, 2009-2014), en donde realizó su trabajo de tesis en conectividad cerebral y resonancia magnética nuclear. Cursó la maestría en CIMAT y posteriormente realizó su tesis de maestría en UCL (University College London, UK) en el tema de simulación de señales por resonancia magnética y microestructura cerebral. Totalmente encantado por la neuro-informática se unió a la EPFL (École Polytechnique Fédérale de Lausanne, Suiza) como research engineer; posteriormente quedándose otros cuatro años como estudiante de doctorado en el tema de microestructura cerebral, simulación masiva de partículas y aprendizaje automático. Actualmente es investigador asociado en el departamento de radiología del Hospital Universitario de Lausana (CHUV), considerado entre los mejores 10 hospitales del mundo por su innovación, en el tema de diagnóstico asistido por aprendizaje profundo.  

Titulo: Un nuevo paradigma para el aprendizaje automático: Federated Learning, colaboración distribuida preservando la privacidad de nuestros datos.

Resumen: El objetivo del aprendizaje federado (Federated Learning) es general modelos globales distribuidos en clientes descentralizados, con garantías de privacidad determinadas. Este paradigma es considerado por muchos el futuro del aprendizaje profundo en problemas donde obtener y centralizar grandes cantidades de datos es poco factible; tal como es el caso de la investigación clínica. En esta charla hablaré un poco de este nuevo paradigma, y de un nuevo proyecto de colaboración multinstitucional para el diagnóstico y canalización de pacientes con accidentes cerebrovasculares.