9 resultados para Algoritmo de optimización

em Universidade Complutense de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Stenotrophomonas maltophilia es un patógeno nosocomial, emergente, cuya incidencia en procesos severos esta aumentado de manera análoga al incremento de las poblaciones de pacientes con factores predisponentes. S. maltophilia es un microorganismo ubicuo y adaptado a múltiples ambientes, lo que explica la elevada diversidad genética y el resistoma característico de esta especie que le confiere resistencia a la mayoría de clases de antimicrobianos. Se sugiere que el paciente porta al microorganismo en el momento del ingreso y que la combinación entre la presión antibiótica, especialmente aminoglucósidos y carbapenemas, y el profundo y prolongado estado de inmunosupresión favorecen el desarrollo de la infección. El tratamiento de las infecciones severas, bacteriemias y neumonías, es empírico, y relacionado con una elevada mortalidad, 36-67%, que es atribuida a que la mayoría de pacientes recibe una terapia inapropiada. La carencia de antimicrobianos con suficiente actividad, la rápida aparición de resistencias en los pacientes bajo tratamiento y la ausencia de ensayos clínicos que discriminen tratamientos efectivos, condicionan el complicado manejo de los pacientes infectados por S. maltophilia . En la actualidad solo seis antimicrobianos, cotrimoxazol, ticarcilina-ácido clavulánico, de elección y ceftazidima, levofloxacino, minociclina y cloranfenicol, son considerados tratamientos apropiados para este microorganismo por el CLSI o el EUCAST. La probabilidad de supervivencia aumenta con la rápida administración de agentes sensibles in vitro , pero la mortalidad continúa siendo extraordinariamente alta, 14 y el 45%, lo que demuestra la urgente necesidad de alternativas terapéuticas y de la revaloración de los actuales puntos de corte microbiológicos empleados en el pronóstico de eficacia clínica para esta especie...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tuberculosis es una zoonosis bacteriana que representa un importante problema sanitario en el hombre y los animales (domésticos y silvestres), siendo en estos Mycobacterium bovis y M. caprae las especies de mayor relevancia. La enfermedad tiene un gran impacto económico ya que produce un descenso de la producción de los animales y restricciones en su movimiento, además de los costes derivados de su erradicación en el ganado bovino. Actualmente, la tuberculosis en otras especies domésticas como la cabra, comienza a tener relevancia en aquellos países con elevado censo de caprino. Por otra parte, los camélidos de Sudamérica (alpacas y llamas principalmente), se emplean cada vez con mayor frecuencia fuera de su hábitat natural como mascotas y para la producción de fibra. Además, son altamente susceptibles a la enfermedad, habiéndose notificado varios brotes de tuberculosis en estos animales en Europa. Los programas de erradicación se basan en una estrategia de “diagnóstico y sacrificio”, de tal modo que los animales positivos a las pruebas diagnósticas se eliminan de la explotación. Las técnicas diagnósticas oficiales en la Unión Europea son la prueba de la intradermotuberculinización (IDTB) y el test de detección de interferón-gamma (IFN-γ), que detectan la respuesta inmune de base celular. Existen, además, pruebas para la detección de anticuerpos, algunas disponibles comercialmente y otras en fase experimental. Con el objetivo de optimizar el diagnóstico de la tuberculosis en rumiantes (ganado bovino y caprino) y en camélidos (llamas y alpacas), se han realizado siete estudios experimentales, distribuidos en cuatro capítulos, diseñados para cumplir los cuatro objetivos de la presente tesis doctoral...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los últimos años se ha incrementado el interés de la comunidad científica en la Factorización de matrices no negativas (Non-negative Matrix Factorization, NMF). Este método permite transformar un conjunto de datos de grandes dimensiones en una pequeña colección de elementos que poseen semántica propia en el contexto del análisis. En el caso de Bioinformática, NMF suele emplearse como base de algunos métodos de agrupamiento de datos, que emplean un modelo estadístico para determinar el número de clases más favorable. Este modelo requiere de una gran cantidad de ejecuciones de NMF con distintos parámetros de entrada, lo que representa una enorme carga de trabajo a nivel computacional. La mayoría de las implementaciones de NMF han ido quedando obsoletas ante el constante crecimiento de los datos que la comunidad científica busca analizar, bien sea porque los tiempos de cómputo llegan a alargarse hasta convertirse en inviables, o porque el tamaño de esos datos desborda los recursos del sistema. Por ello, esta tesis doctoral se centra en la optimización y paralelización de la factorización NMF, pero no solo a nivel teórico, sino con el objetivo de proporcionarle a la comunidad científica una nueva herramienta para el análisis de datos de origen biológico. NMF expone un alto grado de paralelismo a nivel de datos, de granularidad variable; mientras que los métodos de agrupamiento mencionados anteriormente presentan un paralelismo a nivel de cómputo, ya que las diversas instancias de NMF que se ejecutan son independientes. Por tanto, desde un punto de vista global, se plantea un modelo de optimización por capas donde se emplean diferentes tecnologías de alto rendimiento...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta memoria se ha implementado una etapa de preprocesado que sirva como primera fase en el proceso de codificación dedeo. Esta etapa integra dos variedades del filtro de mediana (3×3 y 5×5) y un operador. Dicho operador lleva a cabo el cálculo del gradiente de los píxeles que conforman una imagen o fotograma con objeto de filtrar después aquellos que están por debajo de un determinado valor (threshold). El cálculo de dicho threshold se realiza de manera empírica mediante dos procesos distintos. En el primero se obtienen valores de luminancia y crominancia de píxeles que integran bordes para encontrar aquel que tenga el valor mínimo, mientras que en el segundo se calcula la tasa de píxeles que forman parte de bordes. Una vez se ha realizado el cálculo anterior, se han utilizado distintos valores de threshold, distintas variedades de filtro de mediana y distintos valores de QP (calidad) con objeto de parametrizar las codificaciones que hacen uso de esta nueva etapa. Posteriormente a dichas codificaciones, se han obtenido los tamaños de los bitstreams de salida y se ha evaluado la calidad de los vídeos decodificados o reconstruidos mediante dos métricas objetivas: PSNR y SSIM. Las codificaciones que no utilizan etapa de preprocesado también han sido evaluadas mediante dichas métricas y comparadas con aquellas que sí integran dicha etapa. Los resultados obtenidos dejan patente el compromiso existente entre tamaño de bitstream y calidad, siendo más representativos los de la métrica SSIM, estando esta última más relacionada con la percepción de la imagen por parte del HVS (sistema visual humano). Como resultado, se obtiene para esta métrica tasas de compresión mayores que las alcanzadas sin preprocesamiento, con pérdidas de calidad prácticamente inapreciables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las arquitecturas asimétricas, formadas por varios procesadores con el mismo repertorio de instrucciones pero distintas características de rendimiento y consumo, ofrecen muchas posibilidades de optimización del rendimiento y/o el consumo en la ejecución de aplicaciones paralelas. La planificación de tareas sobre dichas arquitecturas de forma que se aprovechen de manera eficiente los distintos recursos, es muy compleja y se suele abordar utilizando modelos de programación paralelos, que permiten al programador especificar el paralelismo de las tareas, y entornos de ejecución que explotan dinámicamente dicho paralelismo. En este trabajo hemos modificado uno de los planificadores de tareas más utilizados en la actualidad para intentar aprovechar todos los recursos al máximo, cuando el rendimiento así lo necesite, o para conseguir la mejor eficiencia energética posible, cuando el consumo sea más prioritario. También se ha utilizado una biblioteca desarrollada específicamente para la arquitectura asimétrica objeto de estudio en la Universidad de Texas, Austin. Para obtener el máximo rendimiento se han agrupado los núcleos del sistema en dos niveles: hay un cluster simétrico de núcleos virtuales idénticos, cada uno de los cuales está compuesto por un conjunto de núcleos asimétricos. El planificador de tareas asigna trabajo a los núcleos virtuales, de manera idéntica a como lo haría en un sistema multinúcleo simétrico, y la biblioteca se encarga de repartir el trabajo entre los núcleos asimétricos. El trabajo ha consistido en integrar dicha biblioteca con el planificador de tareas. Para mejorar la eficiencia energética se han incluido en el planificador de tareas políticas de explotación de los modos de bajo consumo de la arquitectura y también de apagado o no asignación de carga de trabajo a algunos de los núcleos, que se activan en tiempo de ejecución cuando se detecta que la aplicación no necesita todos los recursos disponibles en la arquitectura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad, el uso del Cloud Computing se está incrementando y existen muchos proveedores que ofrecen servicios que hacen uso de esta tecnología. Uno de ellos es Amazon Web Services, que a través de su servicio Amazon EC2, nos ofrece diferentes tipos de instancias que podemos utilizar según nuestras necesidades. El modelo de negocio de AWS se basa en el pago por uso, es decir, solo realizamos el pago por el tiempo que se utilicen las instancias. En este trabajo se implementa en Amazon EC2, una aplicación cuyo objetivo es extraer de diferentes fuentes de información, los datos de las ventas realizadas por las editoriales y librerías de España. Estos datos son procesados, cargados en una base de datos y con ellos se generan reportes estadísticos, que ayudarán a los clientes a tomar mejores decisiones. Debido a que la aplicación procesa una gran cantidad de datos, se propone el desarrollo y validación de un modelo, que nos permita obtener una ejecución óptima en Amazon EC2. En este modelo se tienen en cuenta el tiempo de ejecución, el coste por uso y una métrica de coste/rendimiento. Adicionalmente, se utilizará la tecnología de contenedores Docker para llevar a cabo un caso específico del despliegue de la aplicación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las enfermedades parasitarias o parasitosis son un conjunto de enfermedades infecciosas producidas por protozoos, helmintos, e incluso artrópodos. La enfermedad parasitaria más importante es la malaria que está incluida en la lista de enfermedades de la pobreza. Otras enfermedades parasitarias han sido incluidas en las denominadas enfermedades olvidadas o desatendidas (NTD: Neglected Tropical Diseases) entre las que se encuentran las filariosis linfática y onchocercosis. La malaria está causada por el género Plasmodium (protozoos apicomplexo) Las especies que pueden causar la infección en humanos son: P. falciparum. P. vivax, P. malariae, P. ovale y P. knowlesi. Las filarias son nematodos finos y largos, parásitos de la sangre, la linfa y los tejidos subcutáneos y conectivos que producen en el humano la filariosis. Su transmisión se produce por insectos hematófagos (mosquitos y moscas) que actúan como vectores. Las especies de filarias de interés clínico para los humanos son Wuchereria. bancrofti, Brugia. malayi y B. timori (filariosis linfática), Onchocerca volvulus, Loa. loa y Mansonella streptocerca (filarias dérmicas), y Mansonella perstans y M. ozzardi (mansonelosis). Todas ellas presentan estadios larvales, conocidos como microfilarias (L1), que circulan en sangre o en tejido subcutáneo que son las formas infectivas para los vectores. En el Laboratorio de Malaria & otras Parasitosis Emergentes se ha desarrollado una PCR en tiempo real para malaria (Malaria RT-PCR), una Nested-PCR para filarias (Nested-Filaria PCR) y una PCR en tiempo real para filarias (RT-Filaria-PCR) como Sistemas de Análisis Múltiple para la detección de varias especies de plasmodios y varias especies de filarias en muestras de cualquier índole como indicador que los Sistemas de Análisis Múltiple son comparativamente superiores a los métodos de detección individual y a la microscopía sin perder sensibilidad y especificidad. Todos los métodos desarrollados han dado muy buenos resultados en cuanto a sensibilidad y especificidad frente a los métodos tradicionales, de tal manera que hoy en día se usan en el Laboratorio de Malaria & otras Parasitosis Emergentes como métodos de referencia, planteando la posibilidad de usar el método de las filarias para un estudio actualizado de la distribución y prevalencia de las filarias en las zonas endémicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo de investigación pretende poner de manifiesto la necesidad de gestionar de forma adecuada la tesorería que genera el ciclo de explotación de la empresa. Esta teso-rería es garantía de continuidad de la empresa, porque permite disponer de liquidez y obtener financiación a partir de la optimización de los elementos del negocio, especial-mente, en situaciones de crisis, con estancamiento o caída de las cifras de negocio, con recortes en el gasto público que afectan a la cadena de valor, con limitaciones al acceso al crédito externo, con socios y accionistas que buscan rentabilidad para sus inversiones sin tener que realizar nuevas aportaciones. Síntesis Para gestionar de forma adecuada la tesorería que genera el ciclo de explotación, es ne-cesario disponer de un modelo de optimización de las Necesidades Operativas de Fon-dos (NOF). Ante la ausencia de este tipo de modelos, este trabajo de investigación pre-tende construir y probar uno, como herramienta automatizada que simule y mida el im-pacto que tiene la inversión en las NOF sobre la solvencia, la rentabilidad y el valor de una empresa, para corregir un problema de indisponibilidad o de insuficiencia de liqui-dez. Para construir el modelo, se ha elegido Excel como software informático soporte. A partir de este software, se ha planteado la construcción del modelo siguiendo los si-guientes pasos: 1. Automatización del paso de los estados financieros contables a unos estados finan-cieros funcionales a partir la utilización de plantillas de toma de datos que permitan identificar y cuantificar las NOF. 2. Diseño de unas plantillas de simulación con alternativas generadoras de impactos sobre los estados financieros. Estas alternativas incluyen tanto elementos sin coste explícito como elementos con dicho coste. 3. Emisión automática de informes comparativos de la posición de la empresa antes y después de los impactos simulados sobre los estados financieros, para analizar la si-tuación de la misma en términos de equilibrio financiero, de solvencia, de rentabili-dad y de valor generado, incluyendo ratios que relacionan distintas magnitudes y permiten observar la gestión y la eficiencia operativa..