853 resultados para heterogeneous regressions algorithms
Resumo:
PhD thesis in Bioengineering
Resumo:
The MAP-i Doctoral Program of the Universities of Minho, Aveiro and Porto
Resumo:
DNA microarrays are one of the most used technologies for gene expression measurement. However, there are several distinct microarray platforms, from different manufacturers, each with its own measurement protocol, resulting in data that can hardly be compared or directly integrated. Data integration from multiple sources aims to improve the assertiveness of statistical tests, reducing the data dimensionality problem. The integration of heterogeneous DNA microarray platforms comprehends a set of tasks that range from the re-annotation of the features used on gene expression, to data normalization and batch effect elimination. In this work, a complete methodology for gene expression data integration and application is proposed, which comprehends a transcript-based re-annotation process and several methods for batch effect attenuation. The integrated data will be used to select the best feature set and learning algorithm for a brain tumor classification case study. The integration will consider data from heterogeneous Agilent and Affymetrix platforms, collected from public gene expression databases, such as The Cancer Genome Atlas and Gene Expression Omnibus.
Resumo:
This paper addresses the challenging task of computing multiple roots of a system of nonlinear equations. A repulsion algorithm that invokes the Nelder-Mead (N-M) local search method and uses a penalty-type merit function based on the error function, known as 'erf', is presented. In the N-M algorithm context, different strategies are proposed to enhance the quality of the solutions and improve the overall efficiency. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm.
Resumo:
Optimization with stochastic algorithms has become a relevant research field. Due to its stochastic nature, its assessment is not straightforward and involves integrating accuracy and precision. Performance profiles for the mean do not show the trade-off between accuracy and precision, and parametric stochastic profiles require strong distributional assumptions and are limited to the mean performance for a large number of runs. In this work, bootstrap performance profiles are used to compare stochastic algorithms for different statistics. This technique allows the estimation of the sampling distribution of almost any statistic even with small samples. Multiple comparison profiles are presented for more than two algorithms. The advantages and drawbacks of each assessment methodology are discussed.
Resumo:
PhD thesis in Biomedical Engineering
Resumo:
Distributed data aggregation is an important task, allowing the de- centralized determination of meaningful global properties, that can then be used to direct the execution of other applications. The resulting val- ues result from the distributed computation of functions like count, sum and average. Some application examples can found to determine the network size, total storage capacity, average load, majorities and many others. In the last decade, many di erent approaches have been pro- posed, with di erent trade-o s in terms of accuracy, reliability, message and time complexity. Due to the considerable amount and variety of ag- gregation algorithms, it can be di cult and time consuming to determine which techniques will be more appropriate to use in speci c settings, jus- tifying the existence of a survey to aid in this task. This work reviews the state of the art on distributed data aggregation algorithms, providing three main contributions. First, it formally de nes the concept of aggrega- tion, characterizing the di erent types of aggregation functions. Second, it succinctly describes the main aggregation techniques, organizing them in a taxonomy. Finally, it provides some guidelines toward the selection and use of the most relevant techniques, summarizing their principal characteristics.
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
El desarrollo de conocimiento empírico sobre cómo la heterogeneidad espacial de un paisaje afecta los patrones de movimiento de una especie animal es considerado una prioridad para el manejo y la conservación de las especies y sus hábitats. En el caso de los insectos plaga, estos estudios resultan importantes ya que aportan las bases teóricas y empíricas fundamentales para su manejo. La persistencia de éstas especies en un paisaje modificado depende de la interrelación entre procesos ecológicos y la estructura del paisaje, tales como la interacción entre especies, la disponibilidad de parches hábitat y la influencia de las prácticas de manejo. El análisis de éstos procesos en un agroecosistema permite simplificar los modelos de heterogeneidad espacial, debido a que los lotes de cultivo son internamente homogéneos y los disturbios antropogénicos generalmente ocurren a la escala de parche, permitiendo determinar las respuestas de los insectos a dicha escala. La alfalfa (Medicago sativa) es un recurso fundamental para la producción agropecuaria y en Argentina, es el recurso forrajero más importante, constituyendo la base de la producción ganadera del país. Actualmente se cultivan alrededor de 5 millones de hectáreas, de las cuales un millón se siembran en la provincia de Córdoba. Además, cumple un rol importante en la sustentabilidad de los sistemas de producción por su función de recuperación de la fertilidad y estabilidad edáfica. La isoca de la alfalfa (Colias lesbia) es la plaga principal del cultivo, produciendo en promedio la pérdida de un corte por año. La hipótesis principal de nuestro trabajo es que los patrones de abundancia y movilidad de la isoca de la alfalfa son afectados por la estructura del paisaje y las prácticas de manejo. Los objetivos específicos del proyecto son: (a) Establecer el efecto de la estructura del paisaje y y el manejo del cultivo en la abundancia de los distintos estadios de Colias lesbia. (b) Determinar los patrones de dispersión de Colias lesbia en relación a la heterogeneidad espacial del paisaje (c) Generar un modelo predictivo de la abundancia de Colias lesbia según la estructura espacial del paisaje, el clima y el manejo del cultivo. (d) Desarrollar un conjunto de recomendaciones de manejo a escala regional para el control de la isoca de la alfalfa. Para ello se elegirán lotes de alfalfa en la región este de la provincia de Córdoba, en el departamento de San Justo, donde se realizará un relevamiento inicial del área de estudio y se dialogará con los productores. Paralelamente, se realizará una clasificación supervisada del área de estudio a partir de escenas de imágenes Landsat TM. En los parches seleccionados, durante 3 años y durante los meses de verano, se muestrearán quincenalmente los distintos estadios de Colias lesbia. Se realizarán análisis de correlación y regresión entre las variables independientes (métricas de la configuración y dinámica del paisaje) y las variables dependientes, (abundancia media de los diferentes estadios de las poblaciones). Asimismo, se realizarán experimentos de marcado-liberación-recaptura para determinar cómo el movimiento de la especie depende de la estructura del paisaje. Para modelar el movimiento inherente de la especie se combinará la información obtenida en el campo con un modelo de difusión utilizando métodos bayesianos. Se espera obtener modelos que permitan comprender los mecanismos que generan los patrones observados. Con esta información se propondrán lineamientos generales y específicos para un manejo de la isoca de la alfalfa a escala regional. En tal sentido, se espera aportar información para restringir la dispersión de la plaga, y reducir los costos y perjuicios del control químico que podrían evitarse con la aplicación de prácticas de manejo integrado y de "manejo de área" que minimicen el impacto de la plaga como también contribuir al conocimiento general de la ecología de insectos.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
El creciente desarrollo de la industria del cuero y textil en nuestro país, y específicamente en la provincia de Córdoba, ha hecho resurgir en los ultimos años una problemática aún no resuelta que es la elevada contaminación de los recursos hídricos. En ambas industrias, la operación de teñido involucra principalmente colorantes de tipo azoico los cuales son "no biodegradables" y se fragmentan liberando aminas aromáticas cancerígenas. Para abordar esta problemática, la fotocatálisis heterogénea aparece como una nueva tecnología que permitiría la completa mineralización de estos colorantes. A través de radiación y un fotocatalizador sólido adecuado se pueden generan radicales libres eficientes para la oxidación de materia orgánica (colorantes) en medio acuoso. En este sentido, se proponen tamices moleculares mesoporosos modificados con metales de transición (MT) como fotocatalizadores potencialmente aptos para la degradación de estos contaminantes. El propósito principal de este proyecto es el diseño, síntesis, caracterización y evaluación de materiales mesoporosos que presenten actividad fotocatalítica ya sea mediante la modificación de su estructura con diversos metales fotosensibles y/o empleándolos como soporte de óxido de titanio. Se pretende evaluar estos materiales en la degradación de colorantes intentando desplazar su fotosensibilidad hacia la radiación visible para desarrollar nuevas tecnologías con menor impacto ambiental y mayor aprovechamiento de la energía solar. Para ello se sintetizarán materiales del tipo MCM-41 modificados con distintos MT tales como Fe, Cr, Co, Ni y Zn mediante incorporación directa del ión metálico o impregnación. Al mismo tiempo, tanto estos últimos materiales como el MCM-41 silíceo serán empleados como soporte de TiO2. Sus propiedades fisicoquímicas se caracterizarán mediante distintas técnicas instrumentales y su actividad fotocatalítica se evaluará en la degradación de colorantes azoicos bajo radiación visible. Se seleccionará el catalizador más eficiente y se estudiarán los diversos factores que afectan el proceso de fotodegradación. Así mismo, el análisis de la concentración del colorante y los productos presentes en el medio en función del tiempo de reacción permitirá inferir sobre la cinética de la decoloración y postular posibles mecanismos de fotodegradación. Con esta propuesta se espera contribuír al desarrollo de un sector industrial importante en nuestra provincia como es el de las industrias del cuero y textil, mediante la generación de nuevas tecnologías que empleen la energía solar para la degradación de sus efluentes (colorantes). En este sentido, se espera desarrollar nuevos materiales optimizados para lograr la mayor eficiencia fotocatalítica. Esto conduciría entonces hacia la remediación de un problema ambiental de alto impacto tanto para nuestra provincia y nuestro país como para la población mundial, como es la contaminación de los recursos hídricos. Finalmente, con este proyecto se contribuirá a la formación de dos doctorandos y un maestrando, cuyos temas de tesis están vinculados con nuestro objeto de estudio. The increasing development of the textile and leather industries in our country, and specifically in Córdoba, has revived an unresolved problem that is the high contamination of water resources. In both industries, the dyeing involves mainly type azoic dyes which are not biodegradable and break releasing carcinogenic aromatic amines. Heterogeneous photocatalysis appears as a new technology that would allow the complete mineralization of these pollutants. Through radiation and a suitable solid it is possible to generate free radicals for efficient oxidation of organic matter (dyes) in aqueous medium. In this respect, mesoporous molecular sieves modified with transition metals are proposed as potential photocatalysts. The main purpose of this project is the synthesis of mesoporous materials having photocatalytic activity for the degradation of dyes. We will try to move their photosensitivity to visible radiation to develop new technologies with lower environmental impact and greater use of solar energy. Materials MCM-41 modified with metals (Fe, Cr, Co, Ni and Zn) will be synthesized by direct incorporation or impregnation. These materials and the siliceous MCM-41 will be then employed as support of TiO2. The materials will be evaluated in the photocatalytic degradation of azoic dyes under visible radiation. The influence of different factors on the photodegradation proccess will be studied. Kinetic studies will be carried out and a possible reaction way will be proposed. Thus, this work will contribute to the advancement of an important industrial sector and the remediation of an environmental problem with high impact for our province and our country. Moreover, this proyect will contribute to the development of two doctoral tesis and one magister tesis which are vinculated with our study subject.
Resumo:
As digital imaging processing techniques become increasingly used in a broad range of consumer applications, the critical need to evaluate algorithm performance has become recognised by developers as an area of vital importance. With digital image processing algorithms now playing a greater role in security and protection applications, it is of crucial importance that we are able to empirically study their performance. Apart from the field of biometrics little emphasis has been put on algorithm performance evaluation until now and where evaluation has taken place, it has been carried out in a somewhat cumbersome and unsystematic fashion, without any standardised approach. This paper presents a comprehensive testing methodology and framework aimed towards automating the evaluation of image processing algorithms. Ultimately, the test framework aims to shorten the algorithm development life cycle by helping to identify algorithm performance problems quickly and more efficiently.
Resumo:
Magdeburg, Univ., Fak. für Mathematik, Habil.-Schr., 2006
Resumo:
This work describes a test tool that allows to make performance tests of different end-to-end available bandwidth estimation algorithms along with their different implementations. The goal of such tests is to find the best-performing algorithm and its implementation and use it in congestion control mechanism for high-performance reliable transport protocols. The main idea of this paper is to describe the options which provide available bandwidth estimation mechanism for highspeed data transport protocols and to develop basic functionality of such test tool with which it will be possible to manage entities of test application on all involved testing hosts, aided by some middleware.
Resumo:
In this paper we investigate various algorithms for performing Fast Fourier Transformation (FFT)/Inverse Fast Fourier Transformation (IFFT), and proper techniques for maximizing the FFT/IFFT execution speed, such as pipelining or parallel processing, and use of memory structures with pre-computed values (look up tables -LUT) or other dedicated hardware components (usually multipliers). Furthermore, we discuss the optimal hardware architectures that best apply to various FFT/IFFT algorithms, along with their abilities to exploit parallel processing with minimal data dependences of the FFT/IFFT calculations. An interesting approach that is also considered in this paper is the application of the integrated processing-in-memory Intelligent RAM (IRAM) chip to high speed FFT/IFFT computing. The results of the assessment study emphasize that the execution speed of the FFT/IFFT algorithms is tightly connected to the capabilities of the FFT/IFFT hardware to support the provided parallelism of the given algorithm. Therefore, we suggest that the basic Discrete Fourier Transform (DFT)/Inverse Discrete Fourier Transform (IDFT) can also provide high performances, by utilizing a specialized FFT/IFFT hardware architecture that can exploit the provided parallelism of the DFT/IDF operations. The proposed improvements include simplified multiplications over symbols given in polar coordinate system, using sinе and cosine look up tables, and an approach for performing parallel addition of N input symbols.