6 resultados para Apropaments computacionalment fiables
em Universidade Complutense de Madrid
Resumo:
La consolidación de las grandes infraestructuras para la Computación Distribuida ha resultado en una plataforma de Computación de Alta Productividad que está lista para grandes cargas de trabajo. Los mejores exponentes de este proceso son las federaciones grid actuales. Por otro lado, la Computación Cloud promete ser más flexible, utilizable, disponible y simple que la Computación Grid, cubriendo además muchas más necesidades computacionales que las requeridas para llevar a cabo cálculos distribuidos. En cualquier caso, debido al dinamismo y la heterogeneidad presente en grids y clouds, encontrar la asignación ideal de las tareas computacionales en los recursos disponibles es, por definición un problema NP-completo, y sólo se pueden encontrar soluciones subóptimas para estos entornos. Sin embargo, la caracterización de estos recursos en ambos tipos de infraestructuras es deficitaria. Los sistemas de información disponibles no proporcionan datos fiables sobre el estado de los recursos, lo cual no permite la planificación avanzada que necesitan los diferentes tipos de aplicaciones distribuidas. Durante la última década esta cuestión no ha sido resuelta para la Computación Grid y las infraestructuras cloud establecidas recientemente presentan el mismo problema. En este marco, los planificadores (brokers) sólo pueden mejorar la productividad de las ejecuciones largas, pero no proporcionan ninguna estimación de su duración. La planificación compleja ha sido abordada tradicionalmente por otras herramientas como los gestores de flujos de trabajo, los auto-planificadores o los sistemas de gestión de producción pertenecientes a ciertas comunidades de investigación. Sin embargo, el bajo rendimiento obtenido con estos mecanismos de asignación anticipada (early-binding) es notorio. Además, la diversidad en los proveedores cloud, la falta de soporte de herramientas de planificación y de interfaces de programación estandarizadas para distribuir la carga de trabajo, dificultan la portabilidad masiva de aplicaciones legadas a los entornos cloud...
Resumo:
La presente Tesis Doctoral lleva por título Estado de esfuerzos en la Corteza a partir del análisis de mecanismos focales. La determinación del estado de esfuerzos es un aspecto muy importante en varios aspectos de la sociedad y su estudio se ha abordado desde distintos parámetros en los últimos años. Los mecanismos focales son los datos más fiables para conocer el estado de esfuerzos en la corteza, ya que cubren el rango completo de profundidades de la propia corteza y registran eventos en cualquier punto del planeta. De Vicente (1988) desarrolla el Modelo de Deslizamiento originalmente para el análisis de paleoesfuerzos a partir de estructuras frágiles y posteriormente se ha aplicado a mecanismos focales (Capote et al., 1991). Esta metodología permite calcular de forma independiente para cada mecanismo focal la dirección de máximo acortamiento en la horizontal (Dey) y el régimen de esfuerzo-deformación definido por el factor de forma (ḱ), que es la relación entre la deformación en la vertical y la horizontal. A partir de estos datos puntuales se generan mapas continuos en distintas regiones, que se desarrollan en cada uno de los capítulos que componen esta Tesis Doctoral. El análisis del catálogo del Centroid Moment Tensor permite estudiar de forma global la distribución de esfuerzos en la Corteza. Éstos están principalmente controlados por las fuerzas originadas en los límites primarios de placas y se transmiten de forma continua a lo largo de cientos de kilómetros, que sufren perturbaciones a escala regional o local, asociadas a distintas estructuras geológicas. Además se observa que en las zonas intraplaca domina el régimen tipo desgarre, quedando los máximos compresivos y extensionales localizados principalmente a las zonas de subducción y de dorsal o rift respectivamente. Además el análisis estadístico del catálogo revela que la mayor parte de los terremotos que se generan en la Corteza se caracterizan por ser de deformación casi pura, es decir con ángulos de cabeceo y/o buzamiento próximos a 0° o a 90°, que es la forma más eficiente de disipar la energía...
Resumo:
Los deslizamientos de ladera son un problema importante en la región de los valles interandinos de Bolivia. Este estudio analiza la susceptibilidad o predisposición al movimiento de ladera de los municipios de Guanay, Teoponte y Tipuani, situados en el departamento de La Paz, Bolivia. La metodología aplicada es la Analityc Hierarchy/Network Process, o método AHP. Tras su aplicación en un Sistema de Información Geográfica, este método, devuelve valores de susceptibilidad bastante fiables. Las conclusiones que se extraen de este análisis ponen de relieve la necesidad de realizar estudios de detalle en algunas zonas de los tres municipios al haber lugares con una Muy Alta y Alta susceptibilidad al movimiento de ladera, que, además, interfieren con zonas pobladas y con caminos y carreteras principales que son importantes para la articulación social de la región.
Resumo:
El terrorismo es uno de los problemas más graves a nivel mundial, tanto por el elevado número de afectados que deja cada año, como por su incidencia a nivel mundial. España, lejos de ser una excepción, ha sufrido atentados terroristas de forma continuada durante décadas. Al analizar la literatura científica sobre consecuencias psicopatológicas de los atentados terroristas, se puede observar que el trastorno mental más investigado ha sido el trastorno por estrés postraumático (TEPT), habiendo sido menos investigados el trastorno depresivo mayor, el trastorno de angustia, la agorafobia sin historia de angustia y el trastorno de ansiedad generalizada. Además, la mayoría de la investigación previa se ha centrado en las consecuencias psicopatológicas de los atentados terroristas a corto, medio o largo plazo, pero no a muy largo plazo, es decir, 10, 20 o 30 años después de que los atentados terroristas hubiesen ocurrido. Es más, la mayoría de los estudios han utilizado instrumentos de cribado (screening) para evaluar la posible presencia de trastornos psicológicos, pero estos instrumentos son menos fiables y válidos para realizar un diagnóstico que las evaluaciones basadas en entrevistas clínicas diagnósticas estructuradas; por otro lado, la mayoría de los estudios se han centrado en las víctimas directas, los intervinientes y la población general afectada, pero casi ninguna ha evaluado las consecuencias psicopatológicas en familiares cercanos de las víctimas directas...
Resumo:
La sincronización de las oscilaciones cerebrales se produce incluso en ausencia de tarea, por eso, el resting state está aportando interesantes vías de estudio de los procesos normales y patológicos. Dada la creciente necesidad por utilizar las medidas derivadas de las señales MEG en resting state como biomarcadores clínicos o en la evaluación de tratamientos, es necesario garantizar su fiabilidad. En este estudio se ha investigado por primera vez la fiabilidad de la las medidas espectrales derivadas de registros MEG explorando la estabilidad en resting state de la potencia de 10 sujetos sanos en tres sesiones con un intervalo test-retest de 7 días. A partir de las señales MEG de cada sujeto y sesión se calculó el espectro de potencia de 1 a 100Hz en cada sensor, y como medida de fiabilidad se utilizó el coeficiente de correlación intraclase (ICC). Para explorar cómo afecta la intensidad de la señal a la estabilidad, se registró la señal de la cámara vacía en cada sesión de registro y se calculó la relación señal/ruido (SNR). La potencia espectral en MEG es muy estable en las bandas de frecuencia α, β y θ, y menos estable en δ y γ-2. Con respecto a la distribución de la estabilidad, la señal capturada en la zona frontal del equipo MEG fue la menos estable a través de todas las bandas de frecuencia. La estabilidad mostró cierta tendencia a disminuir conforme disminuye la SNR; este efecto es parcial, ya que los ritmos cerebrales estables mostraron un alto ICC incluso con baja SNR. En conjunto, estos resultados sugieren que las medidas espectrales en resting state con MEG son suficientemente fiables para ser consideradas en futuros estudios longitudinales sobre cambios en la actividad cerebral.
Resumo:
El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.