El modelado computacional de procesos físicos y bioquímicos en entornos fisiológicos complejos ha surgido como un medio de evaluar el rendimiento actual de los dispositivos médicos con el fin de informar futuras mejoras en el diseño. El proyecto de doctorado se centrará en aplicaciones cardiovasculares relacionadas con los dispositivos de administración de fármacos endovasculares (ED) para el tratamiento de la enfermedad arterial coronaria obstructiva. En la actualidad, las simulaciones específicas del paciente solo se realizan retrospectivamente y, por lo general, combinan geometrías arteriales específicas del paciente con dinámica de fluidos computacional (CFD). Estos son útiles para correlacionar índices hemodinámicos importantes como el estrés de cizallamiento de pared (WSS) y el índice de sher oscilatorio (OSI) con los resultados de los pacientes. Sin embargo, el diseño y la simulación de dispositivos específicos del paciente para el apoyo a la toma de decisiones aún no está en la práctica clínica. La razón principal es que la intervención generalmente no está planeada, con el paciente llegando al hospital en condiciones de emergencia. Por lo tanto, no es una opción realizar simulaciones intensivas computacionalmente y luego fabricar un stent o globo específico del paciente. Un aspecto poco explorado del diseño donde la personalización tiene una promesa considerable es optimizar la dosis del medicamento y la tasa de liberación. Recientemente se ha demostrado que el nivel de fármaco en la pared arterial se correlaciona con la eficacia de la ED. Por lo tanto, se espera que las diferencias específicas del paciente en la composición de la lesión y, por lo tanto, los parámetros de transporte de fármacos tisulares impliquen que algunos pacientes están recibiendo actualmente dosis ineficaces o incluso tóxicas de fármacos, lo que afecta a los resultados clínicos. Si bien no es práctico fabricar un dispositivo completo mientras un paciente está esperando, es totalmente posible recubrir un dispositivo con un medicamento. De hecho, la tecnología ya existe para crear stents ajustables en dosis en el laboratorio de cateterismo. Las barreras científicas clave para implementar esto con éxito son (i) hacer que la reconstrucción de la geometría a partir de modalidades de diagnóstico por imágenes sea capaz de determinar la composición de la lesión automática y (ii) el tiempo de cálculo necesario para resolver el sistema resultante de ecuaciones diferenciales parciales (PDE) acopladas no lineales que describen el flujo de fluidos, la liberación de fármacos y la absorción de tejidos. El objetivo del proyecto de doctorado es combinar la experiencia de modelado de última generación en la administración de medicamentos a partir de dispositivos exteriores y técnicas de reconstrucción de geometría derivadas de imágenes con nuevos métodos de emulación estadística para lograr una rápida optimización de la dosis de fármacos.
El cuello de botella computacional crítico para este marco metodológico es la integración numérica de los PDE que describen el flujo de fluidos, la liberación de fármacos y la absorción de tejidos. Este procedimiento numérico basado en simulaciones de elementos finitos (FE) debe llevarse a cabo repetidamente como parte de una rutina iterativa con el objetivo de optimizar la liberación de fármacos del ED. Esta optimización es fundamental para el tratamiento específico del paciente: una tasa de liberación de fármacos demasiado baja hace que la ED sea ineficaz, mientras que una tasa demasiado alta puede ser tóxica. Sin embargo, la inclusión de un paso de integración numérica que consume mucho tiempo dentro de una rutina de optimización iterativa conduce a tiempos de ejecución computacional excesivos, lo que hace que este enfoque sea inviable para cualquier aplicación clínica práctica. Para hacer frente a esta difícil complejidad computacional y avanzar hacia un sistema de apoyo a la toma de decisiones clínicas que pueda hacer predicciones en tiempo real, el proyecto de doctorado tiene como objetivo explotar nuevas oportunidades de los campos de Machine Learning y Estadísticas Computacionales relacionadas con el campo altamente tópico de la emulación. La idea es aproximar el modelo matemático computacionalmente caro (el simulador) con un modelo suplente estadístico computacionalmente barato (el emulador) mediante una combinación de paralelización masiva y regresión no lineal. A partir de un diseño de relleno de espacio en el espacio de parámetros, las ecuaciones diferenciales parciales subyacentes se resuelven numéricamente con la discretización de elementos finitos en un clúster de computadoras paralelos, y se aplican métodos de estadísticas bayesianas no paramétricas basadas en procesos gaussianos para la interpolación suave multivariada. Cuando se dispone de nuevos datos, por ejemplo, en forma de características de placa o caudales (medidos con ultrasonido), la función objetivo de proxy resultante se puede minimizar a bajos costos computacionales, sin la necesidad de más simulaciones FE costosas computacionalmente del modelo matemático original.