957 resultados para Detection algorithms
Resumo:
En Argentina, existe escasa información sobre las características y concentración de sustancias orgánicas en la atmósfera y, en particular, la información referida a compuestos polifluorados (como por ej. Ácidos perfluorocarboxílicos, PFCA) es prácticamente nula. Los niveles de concentración de estos compuestos están aumentando de manera alarmante en todo el mundo. Se conoce la elevada toxicidad de algunos de ellos debido a que son bioacumulativos, persistentes en el ambiente y potencialmente cancerígenos. En estos momentos se está investigando cuales son los precursores de estos compuestos en el medio ambiente y los mecanismos involucrados en la generación de los PFCA.El uso de biomonitores constituye una excelente alternativa al monitoreo instrumental automático, especialmente para países en desarrollo porque no requieren la aplicación de tecnologías complicadas y son de muy bajo costo. Con este fin se pretende evaluar la factibilidad del empleo de bioindicadores pasivos para la detección de sustancias orgánicas, entre ellos, alcoholes fluoroteloméricos y ácidos perfluorados y estimar el daño que estos compuestos provocan en los organismos expuestos. Se emplearán dos especies autóctonas de epífitas del género Tilandsia para evaluar modificaciones quimico-fisiológicas provocadas por la exposición a concentraciones conocidas de estos compuestos y la especie Tradescantia pallida para evaluar efectos genotóxicos. Se espera, además estimar las concentraciones ambientales de los compuestos bajo estudio mediante el empleo de biomonitores. En este contexto, el desarrollo de este proyecto tendrá un impacto favorable sobre el medio ambiente ya que sus resultados permitirán conocer la capacidad bioindicadora de especies biomonitoras autóctonas, con el fin de emplearlas para identificar ambientes contaminandos con compuestos orgánicos polifluorados y en un futuro extenderla a la mayor variedad de contaminantes atmosféricos orgánicos posibles. Además, la calibración de biomonitores servirá para realizar seguimientos temporales de este tipo de contaminantes en distintos ambientes en Argentina, o en el lugar donde exista el problema de contaminación.
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
Se propone detectar la presencia del agente etiológico circovirus porcino (CVP) en cerdos con diarrea. El cual se considera un patógeno emergente importante asociado a diferentes sindromes y enfermedades porcinas. Se comunicó a nivel internacional en 1997 y en Argentina fue descripto en el 2003 en animales de cria extensiva, aunque se encuentra en los diferentes sistemas de producción. Su presencia causa grandes pérdidas económicas, ya que muchas veces no tiene una sintomatología clínica, sino que se manifiesta subclinicamente. En la provincia de Córdoba no se han realizado estudios sistemáticos para determinar la presencia de circovirus. Además, en animales que presentan diarrea no se ha realizado un relevamiento de la presencia del CVP y su asociación con el cuadro clínico. Diversos investigadores estan viendo la necesidad de incluir al CVP a la hora de pensar en los diagnósticos etiológicos, en aquellos que no solo presentan índices productivos ineficientes sino también que no responden a la terapia antimicrobiana. Es agente causal del Sindrome de Desmedro Posdestete y podria favorecer la acción de otros agentes patógenos que actuarían tanto en Sistema Respirastorio como en Sistema Digestivo. La complejidad del trabajo radica en demostrar lo antes mencionado a traves de las lesiones a observar en los tejidos y la determinación de la presencia del agente. La ejecución de este estudio sería un importante aporte a la producción porcina, en donde este agente produce importantes pérdidas económicas. La metodología, así como los resultados obtenidos serán útiles en la formación de recursos humanos aplicados a la investigación y transferidos directamente a la docencia. Hipotesis: Establecer la presencia del CVP en cerdos con signos clinicos de enteropatías Objetivos: Determinar en cortes histopatológicos de intestino y ganglio mesentério, lesiones compatibles con CVP; Determinar por inmunohistoquímica la presencia del antígeno CVP en las muestras. Identificar las células en las que se encuentre el antígeno. Materiales y método: Muestreo a campo y toma de muestra. En diferentes establecimientos porcinos, de aquellos animales que presenten el cuadro clínico de diarrea, serán elegidos 3 animales aleatoriamente para sacrificio y realización de la técnica de necropsia. Se tomarán muestras de intestino delgado y ganglio mesentérico que serán fijadas en formol; la técnica histopatológica y su lectura tendrán fin de encontrar lesiones compatibles con circovirus porcino tipo II; Realización de la técnica de inmunohistoquímica con anticuerpo monoclonal, para la detección del CVP en los tejidos; Interpretación de resultados; Publicación de los resultados.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
As digital imaging processing techniques become increasingly used in a broad range of consumer applications, the critical need to evaluate algorithm performance has become recognised by developers as an area of vital importance. With digital image processing algorithms now playing a greater role in security and protection applications, it is of crucial importance that we are able to empirically study their performance. Apart from the field of biometrics little emphasis has been put on algorithm performance evaluation until now and where evaluation has taken place, it has been carried out in a somewhat cumbersome and unsystematic fashion, without any standardised approach. This paper presents a comprehensive testing methodology and framework aimed towards automating the evaluation of image processing algorithms. Ultimately, the test framework aims to shorten the algorithm development life cycle by helping to identify algorithm performance problems quickly and more efficiently.
Resumo:
Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.
Resumo:
Attention, attentional blink, rapid serial visual presentation, RSVP, ERP, EEG, fMRI, gammaband, oscillatiory activity
Resumo:
Magdeburg, Univ., Fak. für Mathematik, Habil.-Schr., 2006
Resumo:
Ground penetrating radar; landmine; background clutter removal, buried targets detecting
Resumo:
Subsurface Radar, Ground Penetrating Radar (GPR), Synthetic Aperture Radar (SAR), Anti-Personnel Landmine, Antenna Desing, Field Simulation, Focusing, Dielectric Lens, Geophysics, Soil Properties
Resumo:
This work describes a test tool that allows to make performance tests of different end-to-end available bandwidth estimation algorithms along with their different implementations. The goal of such tests is to find the best-performing algorithm and its implementation and use it in congestion control mechanism for high-performance reliable transport protocols. The main idea of this paper is to describe the options which provide available bandwidth estimation mechanism for highspeed data transport protocols and to develop basic functionality of such test tool with which it will be possible to manage entities of test application on all involved testing hosts, aided by some middleware.
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2013
Resumo:
In this paper we investigate various algorithms for performing Fast Fourier Transformation (FFT)/Inverse Fast Fourier Transformation (IFFT), and proper techniques for maximizing the FFT/IFFT execution speed, such as pipelining or parallel processing, and use of memory structures with pre-computed values (look up tables -LUT) or other dedicated hardware components (usually multipliers). Furthermore, we discuss the optimal hardware architectures that best apply to various FFT/IFFT algorithms, along with their abilities to exploit parallel processing with minimal data dependences of the FFT/IFFT calculations. An interesting approach that is also considered in this paper is the application of the integrated processing-in-memory Intelligent RAM (IRAM) chip to high speed FFT/IFFT computing. The results of the assessment study emphasize that the execution speed of the FFT/IFFT algorithms is tightly connected to the capabilities of the FFT/IFFT hardware to support the provided parallelism of the given algorithm. Therefore, we suggest that the basic Discrete Fourier Transform (DFT)/Inverse Discrete Fourier Transform (IDFT) can also provide high performances, by utilizing a specialized FFT/IFFT hardware architecture that can exploit the provided parallelism of the DFT/IDF operations. The proposed improvements include simplified multiplications over symbols given in polar coordinate system, using sinе and cosine look up tables, and an approach for performing parallel addition of N input symbols.
Resumo:
In this paper we investigate various algorithms for performing Fast Fourier Transformation (FFT)/Inverse Fast Fourier Transformation (IFFT), and proper techniquesfor maximizing the FFT/IFFT execution speed, such as pipelining or parallel processing, and use of memory structures with pre-computed values (look up tables -LUT) or other dedicated hardware components (usually multipliers). Furthermore, we discuss the optimal hardware architectures that best apply to various FFT/IFFT algorithms, along with their abilities to exploit parallel processing with minimal data dependences of the FFT/IFFT calculations. An interesting approach that is also considered in this paper is the application of the integrated processing-in-memory Intelligent RAM (IRAM) chip to high speed FFT/IFFT computing. The results of the assessment study emphasize that the execution speed of the FFT/IFFT algorithms is tightly connected to the capabilities of the FFT/IFFT hardware to support the provided parallelism of the given algorithm. Therefore, we suggest that the basic Discrete Fourier Transform (DFT)/Inverse Discrete Fourier Transform (IDFT) can also provide high performances, by utilizing a specialized FFT/IFFT hardware architecture that can exploit the provided parallelism of the DFT/IDF operations. The proposed improvements include simplified multiplications over symbols given in polar coordinate system, using sinе and cosine look up tables,and an approach for performing parallel addition of N input symbols.
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2013