894 resultados para Conventional Methods
Resumo:
Remote sensing (RS) with aerial robots is becoming more usual in every day time in Precision Agriculture (PA) practices, do to their advantages over conventional methods. Usually, available commercial platforms providing off-the-shelf waypoint navigation are adopted to perform visual surveys over crop fields, with the purpose to acquire specific image samples. The way in which a waypoint list is computed and dispatched to the aerial robot when mapping non empty agricultural workspaces has not been yet discussed. In this paper we propose an offline mission planner approach that computes an efficient coverage path subject to some constraints by decomposing the environment approximately into cells. Therefore, the aim of this work is contributing with a feasible waypoints-based tool to support PA practices
Resumo:
La determinación del origen de un material utilizado por el hombre en la prehistoria es de suma importancia en el ámbito de la arqueología. En los últimos años, los estudios de procedencia han utilizado técnicas que suelen ser muy precisas pero con el inconveniente de ser metodologías de carácter destructivo. El fenómeno de la minería a gran escala es una de las características que acompaña al Neolítico, de ahí que la revolución correspondiente a este periodo sea una de las etapas más importantes para la humanidad. El yacimiento arqueológico de Casa Montero es una mina de sílex neolítica ubicada en la Península Ibérica, de gran importancia por su antigüedad y su escala productiva. Este sitio arqueológico corresponde a una cantera de explotación de rocas silícicas desarrollada en el periodo neolítico en la que solamente se han encontrado los desechos de la extracción minera, lo cual incrementa la variabilidad de las muestras analizadas, de las que se desconoce su contexto económico, social y cultural. Es de gran interés arqueológico saber por qué esos grupos neolíticos explotaban de forma tan intensiva determinados tipos de material y cuál era el destino de la cadena productiva del sílex. Además, por ser una excavación de rescate, que ha tenido que procesar varias toneladas de material, en un tiempo relativamente corto, requiere de métodos expeditivos de clasificación y manejo de dicho material. Sin embargo,la implementación de cualquier método de clasificación debe evitar la alteración o modificación de la muestra,ya que,estudios previos sobre caracterización de rocas silícicas tienen el inconveniente de alterar parcialmente el objeto de estudio. Por lo que el objetivo de esta investigación fue la modelización del registro y procesamiento de datos espectrales adquiridos de rocas silícicas del yacimiento arqueológico de Casa Montero. Se implementó la metodología para el registro y procesamiento de datos espectrales de materiales líticos dentro del contexto arqueológico. Lo anterior se ha conseguido con la aplicación de modelos de análisis espectral, algoritmos de suavizado de firmas espectrales, reducción de la dimensionalidad de las características y la aplicación de métodos de clasificación, tanto de carácter vectorial como raster. Para la mayoría de los procedimientos se ha desarrollado una aplicación informática validada tanto por los propios resultados obtenidos como comparativamente con otras aplicaciones. Los ensayos de evaluación de la metodología propuesta han permitido comprobar la eficacia de los métodos. Por lo que se concluye que la metodología propuesta no solo es útil para materiales silícicos, sino que se puede generalizar en aquellos procesos donde la caracterización espectral puede ser relevante para la clasificación de materiales que no deban ser alterados, además, permite aplicarla a gran escala, dado que los costes de ejecución son mínimos si se comparan con los de métodos convencionales. Así mismo, es de destacar que los métodos propuestos, representan la variabilidad del material y permiten relacionarla con el estado del yacimiento, según su contenido respecto de las tipologías de la cadena operativa. ABSTRACT: The determination of the origin of a material used by man in prehistory is very important in the field of archaeology. In recent years the provenance studies have used techniques that tend to be very precise but with the drawback of being destructive methodologies. The phenomenon of mining on a large scale is a feature that accompanies the Neolithic period; the Neolithic revolution is one of the most important periods of humanity. The archaeological site of Casa Montero is a Neolithic flint mine located in the Iberian Peninsula of great importance for its antiquity and its scale. This archaeological site corresponds to a quarry exploitation of silicic rocks developed in the Neolithic period, in which only found debris from mining, which increases the variability of the samples analyzed, including their economic, social and cultural context is unknown. It is of great archaeological interest to know why these Neolithic groups exploited as intensive certain types of material and what the final destination of flint was in the productive chain. In addition, being an excavation of rescue that had to process several tons of material in a relatively short time requires expeditious methods of classification and handling of the material. However, the implementation of any method of classification should avoid the alteration or modification of the sample, since previous studies on characterization of silicic rocks have the disadvantage of destroying or partially modify the object of study. So the objective of this research wasthe modeling of the registration and processing of acquired spectral data of silicic rocks of the archaeological site of Casa Montero. The methodology implemented for modeling the registration and processing of existing spectral data of lithic materials within the archaeological context, was presented as an alternative to the conventional classification methods (methods destructive and expensive) or subjective methods that depend on the experience of the expert. The above has been achieved with the implementation of spectral analysis models, smoothing of spectral signatures and the dimensionality reduction algorithms. Trials of validation of the proposed methodology allowed testing the effectiveness of the methods in what refers to the spectral characterization of siliceous materials of Casa Montero. Is remarkable the algorithmic contribution of the signal filtering, improve of quality and reduction of the dimensionality, as well the proposal of using raster structures for efficient storage and analysis of spectral information. For which it is concluded that the proposed methodology is not only useful for siliceous materials, but it can be generalized in those processes where spectral characterization may be relevant to the classification of materials that must not be altered, also allows to apply it on a large scale, given that the implementation costs are minimal when compared with conventional methods.
Resumo:
The type of signals obtained has conditioned chaos analysis tools. Almost in every case, they have analogue characteristics. But in certain cases, a chaotic digital signal is obtained and theses signals need a different approach than conventional analogue ones. The main objective of this paper will be to present some possible approaches to the study of this signals and how information about their characteristics may be obtained in the more straightforward possible way. We have obtained digital chaotic signals from an Optical Logic Cell with some feedback between output and one of the possible control gates. This chaos has been reported in several papers and its characteristics have been employed as a possible method to secure communications and as a way to encryption. In both cases, the influence of some perturbation in the transmission medium gave problems both for the synchronization of chaotic generators at emitter and receiver and for the recovering of information data. A proposed way to analyze the presence of some perturbation is to study the noise contents of transmitted signal and to implement a way to eliminate it. In our present case, the digital signal will be converted to a multilevel one by grouping bits in packets of 8 bits and applying conventional methods of time-frequency analysis to them. The results give information about the change in signals characteristics and hence some information about the noise or perturbations present. Equivalent representations to the phase and to the Feigenbaum diagrams for digital signals are employed in this case.
Resumo:
Wireless sensor networks (WSNs) have shown their potentials in various applications, which bring a lot of benefits to users from both research and industrial areas. For many setups, it is envisioned thatWSNs will consist of tens to hundreds of nodes that operate on small batteries. However due to the diversity of the deployed environments and resource constraints on radio communication, sensing ability and energy supply, it is a very challenging issue to plan optimized WSN topology and predict its performance before real deployment. During the network planning phase, the connectivity, coverage, cost, network longevity and service quality should all be considered. Therefore it requires designers coping with comprehensive and interdisciplinary knowledge, including networking, radio engineering, embedded system and so on, in order to efficiently construct a reliable WSN for any specific types of environment. Nowadays there is still a lack of the analysis and experiences to guide WSN designers to efficiently construct WSN topology successfully without many trials. Therefore, simulation is a feasible approach to the quantitative analysis of the performance of wireless sensor networks. However the existing planning algorithms and tools, to some extent, have serious limitations to practically design reliable WSN topology: Only a few of them tackle the 3D deployment issue, and an overwhelming number of works are proposed to place devices in 2D scheme. Without considering the full dimension, the impacts of environment to the performance of WSN are not completely studied, thus the values of evaluated metrics such as connectivity and sensing coverage are not sufficiently accurate to make proper decision. Even fewer planning methods model the sensing coverage and radio propagation by considering the realistic scenario where obstacles exist. Radio signals propagate with multi-path phenomenon in the real world, in which direct paths, reflected paths and diffracted paths contribute to the received signal strength. Besides, obstacles between the path of sensor and objects might block the sensing signals, thus create coverage hole in the application. None of the existing planning algorithms model the network longevity and packet delivery capability properly and practically. They often employ unilateral and unrealistic formulations. The optimization targets are often one-sided in the current works. Without comprehensive evaluation on the important metrics, the performance of planned WSNs can not be reliable and entirely optimized. Modeling of environment is usually time consuming and the cost is very high, while none of the current works figure out any method to model the 3D deployment environment efficiently and accurately. Therefore many researchers are trapped by this issue, and their algorithms can only be evaluated in the same scenario, without the possibility to test the robustness and feasibility for implementations in different environments. In this thesis, we propose a novel planning methodology and an intelligent WSN planning tool to assist WSN designers efficiently planning reliable WSNs. First of all, a new method is proposed to efficiently and automatically model the 3D indoor and outdoor environments. To the best of our knowledge, this is the first time that the advantages of image understanding algorithm are applied to automatically reconstruct 3D outdoor and indoor scenarios for signal propagation and network planning purpose. The experimental results indicate that the proposed methodology is able to accurately recognize different objects from the satellite images of the outdoor target regions and from the scanned floor plan of indoor area. Its mechanism offers users a flexibility to reconstruct different types of environment without any human interaction. Thereby it significantly reduces human efforts, cost and time spent on reconstructing a 3D geographic database and allows WSN designers concentrating on the planning issues. Secondly, an efficient ray-tracing engine is developed to accurately and practically model the radio propagation and sensing signal on the constructed 3D map. The engine contributes on efficiency and accuracy to the estimated results. By using image processing concepts, including the kd-tree space division algorithm and modified polar sweep algorithm, the rays are traced efficiently without detecting all the primitives in the scene. The radio propagation model iv is proposed, which emphasizes not only the materials of obstacles but also their locations along the signal path. The sensing signal of sensor nodes, which is sensitive to the obstacles, is benefit from the ray-tracing algorithm via obstacle detection. The performance of this modelling method is robust and accurate compared with conventional methods, and experimental results imply that this methodology is suitable for both outdoor urban scenes and indoor environments. Moreover, it can be applied to either GSM communication or ZigBee protocol by varying frequency parameter of the radio propagation model. Thirdly, WSN planning method is proposed to tackle the above mentioned challenges and efficiently deploy reliable WSNs. More metrics (connectivity, coverage, cost, lifetime, packet latency and packet drop rate) are modeled more practically compared with other works. Especially 3D ray tracing method is used to model the radio link and sensing signal which are sensitive to the obstruction of obstacles; network routing is constructed by using AODV protocol; the network longevity, packet delay and packet drop rate are obtained via simulating practical events in WSNet simulator, which to the best of our knowledge, is the first time that network simulator is involved in a planning algorithm. Moreover, a multi-objective optimization algorithm is developed to cater for the characteristics of WSNs. The capability of providing multiple optimized solutions simultaneously allows users making their own decisions accordingly, and the results are more comprehensively optimized compared with other state-of-the-art algorithms. iMOST is developed by integrating the introduced algorithms, to assist WSN designers efficiently planning reliable WSNs for different configurations. The abbreviated name iMOST stands for an Intelligent Multi-objective Optimization Sensor network planning Tool. iMOST contributes on: (1) Convenient operation with a user-friendly vision system; (2) Efficient and automatic 3D database reconstruction and fast 3D objects design for both indoor and outdoor environments; (3) It provides multiple multi-objective optimized 3D deployment solutions and allows users to configure the network properties, hence it can adapt to various WSN applications; (4) Deployment solutions in the 3D space and the corresponding evaluated performance are visually presented to users; and (5) The Node Placement Module of iMOST is available online as well as the source code of the other two rebuilt heuristics. Therefore WSN designers will be benefit from v this tool on efficiently constructing environment database, practically and efficiently planning reliable WSNs for both outdoor and indoor applications. With the open source codes, they are also able to compare their developed algorithms with ours to contribute to this academic field. Finally, solid real results are obtained for both indoor and outdoor WSN planning. Deployments have been realized for both indoor and outdoor environments based on the provided planning solutions. The measured results coincide well with the estimated results. The proposed planning algorithm is adaptable according to the WSN designer’s desirability and configuration, and it offers flexibility to plan small and large scale, indoor and outdoor 3D deployments. The thesis is organized in 7 chapters. In Chapter 1, WSN applications and motivations of this work are introduced, the state-of-the-art planning algorithms and tools are reviewed, challenges are stated out and the proposed methodology is briefly introduced. In Chapter 2, the proposed 3D environment reconstruction methodology is introduced and its performance is evaluated for both outdoor and indoor environment. The developed ray-tracing engine and proposed radio propagation modelling method are described in details in Chapter 3, their performances are evaluated in terms of computation efficiency and accuracy. Chapter 4 presents the modelling of important metrics of WSNs and the proposed multi-objective optimization planning algorithm, the performance is compared with the other state-of-the-art planning algorithms. The intelligent WSN planning tool iMOST is described in Chapter 5. RealWSN deployments are prosecuted based on the planned solutions for both indoor and outdoor scenarios, important data are measured and results are analysed in Chapter 6. Chapter 7 concludes the thesis and discusses about future works. vi Resumen en Castellano Las redes de sensores inalámbricas (en inglés Wireless Sensor Networks, WSNs) han demostrado su potencial en diversas aplicaciones que aportan una gran cantidad de beneficios para el campo de la investigación y de la industria. Para muchas configuraciones se prevé que las WSNs consistirán en decenas o cientos de nodos que funcionarán con baterías pequeñas. Sin embargo, debido a la diversidad de los ambientes para desplegar las redes y a las limitaciones de recursos en materia de comunicación de radio, capacidad de detección y suministro de energía, la planificación de la topología de la red y la predicción de su rendimiento es un tema muy difícil de tratar antes de la implementación real. Durante la fase de planificación del despliegue de la red se deben considerar aspectos como la conectividad, la cobertura, el coste, la longevidad de la red y la calidad del servicio. Por lo tanto, requiere de diseñadores con un amplio e interdisciplinario nivel de conocimiento que incluye la creación de redes, la ingeniería de radio y los sistemas embebidos entre otros, con el fin de construir de manera eficiente una WSN confiable para cualquier tipo de entorno. Hoy en día todavía hay una falta de análisis y experiencias que orienten a los diseñadores de WSN para construir las topologías WSN de manera eficiente sin realizar muchas pruebas. Por lo tanto, la simulación es un enfoque viable para el análisis cuantitativo del rendimiento de las redes de sensores inalámbricos. Sin embargo, los algoritmos y herramientas de planificación existentes tienen, en cierta medida, serias limitaciones para diseñar en la práctica una topología fiable de WSN: Sólo unos pocos abordan la cuestión del despliegue 3D mientras que existe una gran cantidad de trabajos que colocan los dispositivos en 2D. Si no se analiza la dimensión completa (3D), los efectos del entorno en el desempeño de WSN no se estudian por completo, por lo que los valores de los parámetros evaluados, como la conectividad y la cobertura de detección, no son lo suficientemente precisos para tomar la decisión correcta. Aún en menor medida los métodos de planificación modelan la cobertura de los sensores y la propagación de la señal de radio teniendo en cuenta un escenario realista donde existan obstáculos. Las señales de radio en el mundo real siguen una propagación multicamino, en la que los caminos directos, los caminos reflejados y los caminos difractados contribuyen a la intensidad de la señal recibida. Además, los obstáculos entre el recorrido del sensor y los objetos pueden bloquear las señales de detección y por lo tanto crear áreas sin cobertura en la aplicación. Ninguno de los algoritmos de planificación existentes modelan el tiempo de vida de la red y la capacidad de entrega de paquetes correctamente y prácticamente. A menudo se emplean formulaciones unilaterales y poco realistas. Los objetivos de optimización son a menudo tratados unilateralmente en los trabajos actuales. Sin una evaluación exhaustiva de los parámetros importantes, el rendimiento previsto de las redes inalámbricas de sensores no puede ser fiable y totalmente optimizado. Por lo general, el modelado del entorno conlleva mucho tiempo y tiene un coste muy alto, pero ninguno de los trabajos actuales propone algún método para modelar el entorno de despliegue 3D con eficiencia y precisión. Por lo tanto, muchos investigadores están limitados por este problema y sus algoritmos sólo se pueden evaluar en el mismo escenario, sin la posibilidad de probar la solidez y viabilidad para las implementaciones en diferentes entornos. En esta tesis, se propone una nueva metodología de planificación así como una herramienta inteligente de planificación de redes de sensores inalámbricas para ayudar a los diseñadores a planificar WSNs fiables de una manera eficiente. En primer lugar, se propone un nuevo método para modelar demanera eficiente y automática los ambientes interiores y exteriores en 3D. Según nuestros conocimientos hasta la fecha, esta es la primera vez que las ventajas del algoritmo de _image understanding_se aplican para reconstruir automáticamente los escenarios exteriores e interiores en 3D para analizar la propagación de la señal y viii la planificación de la red. Los resultados experimentales indican que la metodología propuesta es capaz de reconocer con precisión los diferentes objetos presentes en las imágenes satelitales de las regiones objetivo en el exterior y de la planta escaneada en el interior. Su mecanismo ofrece a los usuarios la flexibilidad para reconstruir los diferentes tipos de entornos sin ninguna interacción humana. De este modo se reduce considerablemente el esfuerzo humano, el coste y el tiempo invertido en la reconstrucción de una base de datos geográfica con información 3D, permitiendo así que los diseñadores se concentren en los temas de planificación. En segundo lugar, se ha desarrollado un motor de trazado de rayos (en inglés ray tracing) eficiente para modelar con precisión la propagación de la señal de radio y la señal de los sensores en el mapa 3D construido. El motor contribuye a la eficiencia y la precisión de los resultados estimados. Mediante el uso de los conceptos de procesamiento de imágenes, incluyendo el algoritmo del árbol kd para la división del espacio y el algoritmo _polar sweep_modificado, los rayos se trazan de manera eficiente sin la detección de todas las primitivas en la escena. El modelo de propagación de radio que se propone no sólo considera los materiales de los obstáculos, sino también su ubicación a lo largo de la ruta de señal. La señal de los sensores de los nodos, que es sensible a los obstáculos, se ve beneficiada por la detección de objetos llevada a cabo por el algoritmo de trazado de rayos. El rendimiento de este método de modelado es robusto y preciso en comparación con los métodos convencionales, y los resultados experimentales indican que esta metodología es adecuada tanto para escenas urbanas al aire libre como para ambientes interiores. Por otra parte, se puede aplicar a cualquier comunicación GSM o protocolo ZigBee mediante la variación de la frecuencia del modelo de propagación de radio. En tercer lugar, se propone un método de planificación de WSNs para hacer frente a los desafíos mencionados anteriormente y desplegar redes de sensores fiables de manera eficiente. Se modelan más parámetros (conectividad, cobertura, coste, tiempo de vida, la latencia de paquetes y tasa de caída de paquetes) en comparación con otros trabajos. Especialmente el método de trazado de rayos 3D se utiliza para modelar el enlace de radio y señal de los sensores que son sensibles a la obstrucción de obstáculos; el enrutamiento de la red se construye utilizando el protocolo AODV; la longevidad de la red, retardo de paquetes ix y tasa de abandono de paquetes se obtienen a través de la simulación de eventos prácticos en el simulador WSNet, y según nuestros conocimientos hasta la fecha, es la primera vez que simulador de red está implicado en un algoritmo de planificación. Por otra parte, se ha desarrollado un algoritmo de optimización multi-objetivo para satisfacer las características de las redes inalámbricas de sensores. La capacidad de proporcionar múltiples soluciones optimizadas de forma simultánea permite a los usuarios tomar sus propias decisiones en consecuencia, obteniendo mejores resultados en comparación con otros algoritmos del estado del arte. iMOST se desarrolla mediante la integración de los algoritmos presentados, para ayudar de forma eficiente a los diseñadores en la planificación de WSNs fiables para diferentes configuraciones. El nombre abreviado iMOST (Intelligent Multi-objective Optimization Sensor network planning Tool) representa una herramienta inteligente de planificación de redes de sensores con optimización multi-objetivo. iMOST contribuye en: (1) Operación conveniente con una interfaz de fácil uso, (2) Reconstrucción eficiente y automática de una base de datos con información 3D y diseño rápido de objetos 3D para ambientes interiores y exteriores, (3) Proporciona varias soluciones de despliegue optimizadas para los multi-objetivo en 3D y permite a los usuarios configurar las propiedades de red, por lo que puede adaptarse a diversas aplicaciones de WSN, (4) las soluciones de implementación en el espacio 3D y el correspondiente rendimiento evaluado se presentan visualmente a los usuarios, y (5) El _Node Placement Module_de iMOST está disponible en línea, así como el código fuente de las otras dos heurísticas de planificación. Por lo tanto los diseñadores WSN se beneficiarán de esta herramienta para la construcción eficiente de la base de datos con información del entorno, la planificación práctica y eficiente de WSNs fiables tanto para aplicaciones interiores y exteriores. Con los códigos fuente abiertos, son capaces de comparar sus algoritmos desarrollados con los nuestros para contribuir a este campo académico. Por último, se obtienen resultados reales sólidos tanto para la planificación de WSN en interiores y exteriores. Los despliegues se han realizado tanto para ambientes de interior y como para ambientes de exterior utilizando las soluciones de planificación propuestas. Los resultados medidos coinciden en gran medida con los resultados estimados. El algoritmo de planificación x propuesto se adapta convenientemente al deiseño de redes de sensores inalámbricas, y ofrece flexibilidad para planificar los despliegues 3D a pequeña y gran escala tanto en interiores como en exteriores. La tesis se estructura en 7 capítulos. En el Capítulo 1, se presentan las aplicaciones de WSN y motivaciones de este trabajo, se revisan los algoritmos y herramientas de planificación del estado del arte, se presentan los retos y se describe brevemente la metodología propuesta. En el Capítulo 2, se presenta la metodología de reconstrucción de entornos 3D propuesta y su rendimiento es evaluado tanto para espacios exteriores como para espacios interiores. El motor de trazado de rayos desarrollado y el método de modelado de propagación de radio propuesto se describen en detalle en el Capítulo 3, evaluándose en términos de eficiencia computacional y precisión. En el Capítulo 4 se presenta el modelado de los parámetros importantes de las WSNs y el algoritmo de planificación de optimización multi-objetivo propuesto, el rendimiento se compara con los otros algoritmos de planificación descritos en el estado del arte. La herramienta inteligente de planificación de redes de sensores inalámbricas, iMOST, se describe en el Capítulo 5. En el Capítulo 6 se llevan a cabo despliegues reales de acuerdo a las soluciones previstas para los escenarios interiores y exteriores, se miden los datos importantes y se analizan los resultados. En el Capítulo 7 se concluye la tesis y se discute acerca de los trabajos futuros.
Diseño de algoritmos de guerra electrónica y radar para su implementación en sistemas de tiempo real
Resumo:
Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.
Resumo:
Los diques de abrigo verticales son estructuras monolíticas que sirven para reflejar el oleaje creando, de este modo, una zona abrigada en el lado tierra. Son estructuras de contención de gravedad, es decir, su peso es el elemento resistente fundamental. Las solicitaciones sobre estas estructuras son de tipo dinámico (oleaje) y consisten, fundamentalmente, en un empuje frontal y una subpresión en la base que varían en el tiempo. Habitualmente, las acciones sobre los diques de abrigo se establecen mediante fórmulas empíricas, que se describen en la presente tesis si bien, para obras de especial importancia, suelen medirse en modelos reducidos de laboratorio. Cuando el cimiento en que han de apoyarse estas estructuras no presenta una resistencia al corte suficiente, el apoyo se realiza en banquetas que redistribuyen la carga y que están formadas por materiales granulares. En la práctica habitual para conocer la estabilidad de estas estructuras frente a un temporal, tras establecer las acciones de cálculo (empuje frontal y subpresión) se efectúa un cálculo pseudoestático en el que se consideran condiciones drenadas o no drenadas del cimiento en función de su permeabilidad. Se conoce que en los suelos saturados, bajo cargas cíclicas, tiende a producirse una elevación de las presiones intersticiales y una reducción de tensiones efectivas así como una degradación del módulo de deformación tangencial en función del número de ciclos de carga, pudiéndose producir el fenómeno conocido como licuefacción (arenas) o movilidad cíclica (suelos más finos). El objeto de la tesis es explorar la posibilidad, con la tecnología actual, de analizar la estabilidad de los diques de abrigo verticales en cuyo cimiento existen suelos blandos, proponiendo un procedimiento para evaluar la estabilidad dinámica en este tipo de obras. Para ello se han revisado los procedimientos actualmente utilizados para definir las acciones de cálculo, los principales modelos de comportamiento dinámicos de suelos saturados disponibles y los procedimientos de cálculo. Una vez investigado el estado del arte sobre este tema, se propone un procedimiento de cálculo en el que, utilizando el programa comercial FLAC, se establecen las acciones cíclicas sobre un dique de abrigo vertical tipo con distintas condiciones de apoyo, aplicando, para el cimiento, un modelo de comportamiento tipo hiperbólico con generación de presiones intersticiales cuyos parámetros pueden obtenerse de ensayos de campo y laboratorio. Por último, una vez descrito el procedimiento, se aplica a un caso real en el que se produjo un fallo en la cimentación que desembocó en el hundimiento de parte de un dique vertical situado en el puerto de Barcelona, presentándose los resultados obtenidos del análisis efectuado y comparándolos con los obtenidos utilizando los métodos de cálculo habituales. Vertical breakwaters are monolithic structures built to reflect sea waves, thereby providing a sheltered area on the land side. They are gravity retaining structures, that is, their own weight is their basic resisting mechanism. Loads acting on these structures are dynamic (waves) and consist essentially in a frontal thrust and an uplift pressure on the base, which both vary over time. Usually, actions in breakwater design are established by empirical formulas, which are described in this thesis. For works of particular importance, such forces are measured in small-scale laboratory tests. When there are no soils with enough shear strength under the planned vertical breakwaters, they usually rest on granular berms which redistribute the load. Nowadays, after establishing the acting forces on the breakwater (front push and uplift pressure), a pseudostatic calculation (with drained or undrained conditions depending on the foundation permeability) is normally done to analyze the stability of these structures against storm waves. It is known that pore pressures tend to rise in saturated soils under cyclic loading and, consequently, there is a reduction of effective stress. A degradation of the shear modulus also occurs depending on the number of load cycles. All of these effects can bring about the phenomenon known as liquefaction in sands or cyclic mobility in fine-grained soils. The aim of the thesis is to explore the possibility that current technology provides to analyze the stability of vertical breakwaters founded on soft soils, and to suggest a method to evaluate the dynamic stability in this type of works. To this end, a review has been made of procedures currently used to define the actions in calculations, the main models of dynamic behaviour of saturated soils available and of calculation procedures. Once the state of the art on this subject has been reviewed, a method of calculation is proposed that uses the commercial program FLAC and is applied to a typical vertical breakwater on a range of different foundation conditions. For the foundation soil, a hyperbolic constitutive model with pore pressure generation has been employed, whose parameters can be obtained from field and laboratory tests. Finally, the described procedure is applied to an actual case where a foundation failure occurred that led to the sinking of several caissons in a vertical breakwater located in the port of Barcelona. The results obtained with the proposed method are compared with those obtained using conventional methods.
Optimización de cimentaciones directas de medianería y esquina mediante modelos de elementos finitos
Resumo:
Existe un amplio catálogo de posibles soluciones para resolver la problemática de las zapatas de medianería así como, por extensión, las zapatas de esquina como caso particular de las anteriores. De ellas, las más habitualmente empleadas en estructuras de edificación son, por un lado, la utilización de una viga centradora que conecta la zapata de medianería con la zapata del pilar interior más próximo y, por otro, la colaboración de la viga de la primera planta trabajando como tirante. En la primera solución planteada, el equilibrio de la zapata de medianería y el centrado de la respuesta del terreno se consigue gracias a la colaboración del pilar interior con su cimentación y al trabajo a flexión de la viga centradora. La modelización clásica considera que se logra un centrado total de la reacción del terreno, con distribución uniforme de las tensiones de contacto bajo ambas zapatas. Este planteamiento presupone, por tanto, que la viga centradora logra evitar cualquier giro de la zapata de medianería y que el pilar puede, por ello, considerarse perfectamente empotrado en la cimentación. En este primer modelo, el protagonismo fundamental recae en la viga centradora, cuyo trabajo a flexión conduce frecuentemente a unas escuadrías y a unas cuantías de armado considerables. La segunda solución, plantea la colaboración de la viga de la primera planta, trabajando como tirante. De nuevo, los métodos convencionales suponen un éxito total en el mecanismo estabilizador del tirante, que logra evitar cualquier giro de la zapata de medianería, dando lugar a una distribución de tensiones también uniforme. Los modelos convencionales existentes para el cálculo de este tipo de cimentaciones presentan, por tanto, una serie de simplificaciones que permiten el cálculo de las mismas, por medios manuales, en un tiempo razonable, pero presentan el inconveniente de su posible alejamiento del comportamiento real de la cimentación, con las consecuencias negativas que ello puede suponer en el dimensionamiento de estos elementos estructurales. La presente tesis doctoral desarrolla un contraste de los modelos convencionales de cálculo de cimentaciones de medianería y esquina, mediante un análisis alternativo con modelos de elementos finitos, con el objetivo de poner de manifiesto las diferencias entre los resultados obtenidos con ambos tipos de modelización, analizar cuáles son las variables que más influyen en el comportamiento real de este tipo de cimentaciones y proponer un nuevo modelo de cálculo, de tipo convencional, más ajustado a la realidad. El proceso de investigación se desarrolla mediante una etapa experimental virtual que utiliza como modelo un pórtico tipo de edificación, ortogonal, de hormigón armado, con dos vanos y número variable de plantas. Tras identificar el posible giro de la cimentación como elemento clave en el comportamiento de las zapatas de medianería y de esquina, se adoptan como variables de estudio aquellas que mayor influencia puedan tener sobre el citado giro de las zapatas y sobre la rigidez del conjunto del elemento estructural. Así, se han estudiado luces de 3 m a 7 m, diferente número de plantas desde baja+1 hasta baja+4, resistencias del terreno desde 100 kN/m2 hasta 300 kN/m2, relaciones de forma de la zapata de medianería de 1,5 : 1 y 2 : 1, aumento y reducción de la cuantía de armado de la viga centradora y variación del canto de la viga centradora desde el mínimo canto compatible con el anclaje de la armadura de los pilares hasta un incremento del 75% respecto del citado canto mínimo. El conjunto de pórticos generados al aplicar las variables indicadas, se ha calculado tanto por métodos convencionales como por el método de los elementos finitos. Los resultados obtenidos ponen de manifiesto importantes discrepancias entre ambos métodos que conducen a importantes diferencias en el dimensionamiento de este tipo de cimentaciones. El empleo de los métodos tradicionales da lugar, por un lado, a un sobredimensionamiento de la armadura de la viga centradora y, por otro, a un infradimensionamiento, tanto del canto de la viga centradora, como del tamaño de la zapata de medianería y del armado de la viga de la primera planta. Finalizado el análisis y discusión de resultados, la tesis propone un nuevo método alternativo, de carácter convencional y, por tanto, aplicable a un cálculo manual en un tiempo razonable, que permite obtener los parámetros clave que regulan el comportamiento de las zapatas de medianería y esquina, conduciendo a un dimensionamiento más ajustado a las necesidades reales de este tipo de cimentación. There is a wide catalogue of possible solutions to solve the problem of party shoes and, by extension, corner shoes as a special case of the above. From all of them, the most commonly used in building structures are, on one hand, the use of a centering beam that connects the party shoe with the shoe of the nearest interior pillar and, on the other hand, the collaboration of the beam of the first floor working as a tie rod. In the first proposed solution, the balance of the party shoe and the centering of the ground response is achieved thanks to the collaboration of the interior pillar with his foundation along with the bending work of the centering beam. Classical modeling considers that a whole centering of the ground reaction is achieved, with uniform contact stress distribution under both shoes. This approach to the issue presupposes that the centering beam manages to avoid any rotation of the party shoe, so the pillar can be considered perfectly embedded in the foundation. In this first model, the leading role lies in the centering beam, whose bending work usually leads to important section sizes and high amounts of reinforced. The second solution, consideres the collaboration of the beam of the first floor, working as tie rod. Again, conventional methods involve a total success in the stabilizing mechanism of the tie rod, that manages to avoid any rotation of the party shoe, resulting in a stress distribution also uniform. Existing conventional models for calculating such foundations show, therefore, a series of simplifications which allow calculation of the same, by manual means, in a reasonable time, but have the disadvantage of the possible distance from the real behavior of the foundation, with the negative consequences this could bring in the dimensioning of these structural elements. The present thesis develops a contrast of conventional models of calculation of party and corner foundations by an alternative analysis with finite element models with the aim of bring to light the differences between the results obtained with both types of modeling, analysis which are the variables that influence the real behavior of this type of foundations and propose a new calculation model, conventional type, more adjusted to reality. The research process is developed through a virtual experimental stage using as a model a typical building frame, orthogonal, made of reinforced concrete, with two openings and variable number of floors. After identifying the possible spin of the foundation as the key element in the behavior of the party and corner shoes, it has been adopted as study variables, those that may have greater influence on the spin of the shoes and on the rigidity of the whole structural element. So, it have been studied lights from 3 m to 7 m, different number of floors from lower floor + 1 to lower floor + 4, máximum ground stresses from 100 kN/m2 300 kN/m2, shape relationships of party shoe 1,5:1 and 2:1, increase and decrease of the amount of reinforced of the centering beam and variation of the height of the centering beam from the minimum compatible with the anchoring of the reinforcement of pillars to an increase of 75% from the minimum quoted height. The set of frames generated by applying the indicated variables, is calculated both by conventional methods such as by the finite element method. The results show significant discrepancies between the two methods that lead to significant differences in the dimensioning of this type of foundation. The use of traditional methods results, on one hand, to an overdimensioning of the reinforced of the centering beam and, on the other hand, to an underdimensioning, both the height of the centering beam, such as the size of the party shoe and the reinforced of the beam of the first floor. After the analysis and discussion of results, the thesis proposes a new alternative method, conventional type and, therefore, applicable to a manual calculation in a reasonable time, that allows to obtain the key parameters that govern the behavior of party and corner shoes, leading to a dimensioning more adjusted to the real needings of this type of foundation.
Resumo:
The Department of Structural Analysis of the University of Santander has been for a longtime involved in the solution of the country´s practical engineering problems. Some of these have required the use of non-conventional methods of analysis, in order to achieve adequate engineering answers. As an example of the increasing application of non-linear computer codes in the nowadays engineering practice, some cases will be briefly presented. In each case, only the main features of the problem involved and the solution used to solve it will be shown
Resumo:
All of the 17 autistic children studied in the present paper showed disturbances of movement that with our methods could be detected clearly at the age of 4–6 months, and sometimes even at birth. We used the Eshkol–Wachman Movement Analysis System in combination with still-frame videodisc analysis to study videos obtained from parents of children who had been diagnosed as autistic by conventional methods, usually around 3 years old. The videos showed their behaviors when they were infants, long before they had been diagnosed as autistic. The movement disorders varied from child to child. Disturbances were revealed in the shape of the mouth and in some or all of the milestones of development, including, lying, righting, sitting, crawling, and walking. Our findings support the view that movement disturbances play an intrinsic part in the phenomenon of autism, that they are present at birth, and that they can be used to diagnose the presence of autism in the first few months of life. They indicate the need for the development of methods of therapy to be applied from the first few months of life in autism.
Resumo:
We report here a new directional cDNA library construction method using an in vitro site-specific recombination reaction, based on the integrase–excisionase system of bacteriophage λ. Preliminary experiments revealed that in vitro recombinational cloning (RC) provided important advantages over conventional ligation-assisted cloning: it eliminated restriction digestion for directional cloning, generated low levels of chimeric clones, reduced size bias and, in our hands, gave a higher cloning efficiency than conventional ligation reactions. In a cDNA cloning experiment using an in vitro synthesized long poly(A)+ RNA (7.8 kb), the RC gave a higher full-length cDNA clone content and about 10 times more transformants than conventional ligation-assisted cloning. Furthermore, characterization of rat brain cDNA clones yielded by the RC method showed that the frequency of cDNA clones >2 kb having internal NotI sites was ∼6%, whereas these cDNAs could not be cloned at all or could be isolated only in a truncated form by conventional methods. Taken together, these results indicate that the RC method makes it possible to prepare cDNA libraries better representing the entire population of cDNAs, without sacrificing the simplicity of current conventional ligation-assisted methods.
Resumo:
Microarrays can measure the expression of thousands of genes to identify changes in expression between different biological states. Methods are needed to determine the significance of these changes while accounting for the enormous number of genes. We describe a method, Significance Analysis of Microarrays (SAM), that assigns a score to each gene on the basis of change in gene expression relative to the standard deviation of repeated measurements. For genes with scores greater than an adjustable threshold, SAM uses permutations of the repeated measurements to estimate the percentage of genes identified by chance, the false discovery rate (FDR). When the transcriptional response of human cells to ionizing radiation was measured by microarrays, SAM identified 34 genes that changed at least 1.5-fold with an estimated FDR of 12%, compared with FDRs of 60 and 84% by using conventional methods of analysis. Of the 34 genes, 19 were involved in cell cycle regulation and 3 in apoptosis. Surprisingly, four nucleotide excision repair genes were induced, suggesting that this repair pathway for UV-damaged DNA might play a previously unrecognized role in repairing DNA damaged by ionizing radiation.
Resumo:
We describe an approach to the high-resolution three-dimensional structural determination of macromolecules that utilizes ultrashort, intense x-ray pulses to record diffraction data in combination with direct phase retrieval by the oversampling technique. It is shown that a simulated molecular diffraction pattern at 2.5-Å resolution accumulated from multiple copies of single rubisco biomolecules, each generated by a femtosecond-level x-ray free electron laser pulse, can be successfully phased and transformed into an accurate electron density map comparable to that obtained by more conventional methods. The phase problem is solved by using an iterative algorithm with a random phase set as an initial input. The convergence speed of the algorithm is reasonably fast, typically around a few hundred iterations. This approach and phasing method do not require any ab initio information about the molecule, do not require an extended ordered lattice array, and can tolerate high noise and some missing intensity data at the center of the diffraction pattern. With the prospects of the x-ray free electron lasers, this approach could provide a major new opportunity for the high-resolution three-dimensional structure determination of single biomolecules.
Resumo:
Cactus, a Drosophila homologue of I kappa B, binds to and inhibits Dorsal, a homologue of the p50 and p65 components of NF-kappa B. We describe experiments in yeast with various Dorsal and Cactus derivatives showing that Cactus blocks the DNA binding and nuclear localization functions of Dorsal. In contrast, Dorsal's transcriptional activating region is functional in the Dorsal-Cactus complex. We identify two Dorsal mutants, Dorsal C233R and Dorsal S234P, that escape Cactus inhibition in vivo, and we show that these mutants fail to interact with Cactus in vitro. From this and data of others, we identify the likely surface of Dorsal that binds Cactus. We also describe a modified PCR mutagenesis procedure, easier to use than conventional methods, that produces a library of high complexity.
Resumo:
We present a simple, rapid procedure for reconstitution of Escherichia coli RNA polymerase holoenzyme (RNAP) from individual recombinant alpha, beta, beta', and sigma 70 subunits. Hexahistidine-tagged recombinant alpha subunit purified by batch-mode metal-ion-affinity chromatography is incubated with crude recombinant beta, beta', and sigma 70 subunits from inclusion bodies, and the resulting reconstituted recombinant RNAP is purified by batch-mode metal-ion-affinity chromatography. RNAP prepared by this procedure is indistinguishable from RNAP prepared by conventional methods with respect to subunit stoichiometry, alpha-DNA interaction, catabolite gene activator protein (CAP)-independent transcription, and CAP-dependent transcription. Experiments with alpha (1-235), an alpha subunit C-terminal deletion mutant, establish that the procedure is suitable for biochemical screening of subunit lethal mutants.
Resumo:
Riassunto La spettrometria di massa (MS) nata negli anni ’70 trova oggi, grazie alla tecnologia Matrix-Assisted Laser Desorption Ionization-Time of Flight (MALDI-TOF), importanti applicazioni in diversi settori: biotecnologico (per la caratterizzazione ed il controllo di qualità di proteine ricombinanti ed altre macromolecole), medico–clinico (per la diagnosi di laboratorio di malattie e per lo sviluppo di nuovi trattamenti terapeutici mirati), alimentare ed ambientale. Negli ultimi anni, questa tecnologia è diventata un potente strumento anche per la diagnosi di laboratorio in microbiologia clinica, rivoluzionando il flusso di lavoro per una rapida identificazione di batteri e funghi, sostituendo l’identificazione fenotipica convenzionale basata su saggi biochimici. Attualmente mediante MALDI-TOF MS sono possibili due diversi approcci per la caratterizzazione dei microrganismi: (1) confronto degli spettri (“mass spectra”) con banche dati contenenti profili di riferimento (“database fingerprints”) e (2) “matching” di bio-marcatori con banche dati proteomiche (“proteome database”). Recentemente, la tecnologia MALDI-TOF, oltre alla sua applicazione classica nell’identificazione di microrganismi, è stata utilizzata per individuare, indirettamente, meccanismi di resistenza agli antibiotici. Primo scopo di questo studio è stato verificare e dimostrare l’efficacia identificativa della metodica MALDI-TOF MS mediante approccio di comparazione degli spettri di differenti microrganismi di interesse medico per i quali l’identificazione risultava impossibile a causa della completa assenza o presenza limitata, di spettri di riferimento all’interno della banca dati commerciale associata allo strumento. In particolare, tale scopo è stato raggiunto per i batteri appartenenti a spirochete del genere Borrelia e Leptospira, a miceti filamentosi (dermatofiti) e protozoi (Trichomonas vaginalis). Secondo scopo di questo studio è stato valutare il secondo approccio identificativo basato sulla ricerca di specifici marcatori per differenziare parassiti intestinali di interesse medico per i quali non è disponibile una banca dati commerciale di riferimento e la sua creazione risulterebbe particolarmente difficile e complessa, a causa della complessità del materiale biologico di partenza analizzato e del terreno di coltura nei quali questi protozoi sono isolati. Terzo ed ultimo scopo di questo studio è stata la valutazione dell’applicabilità della spettrometria di massa con tecnologia MALDI-TOF per lo studio delle resistenze batteriche ai carbapenemi. In particolare, è stato messo a punto un saggio di idrolisi dei carbapenemi rilevata mediante MALDI-TOF MS in grado di determinare indirettamente la produzione di carbapenemasi in Enterobacteriaceae. L’efficacia identificativa della metodica MALDI-TOF mediante l’approccio di comparazione degli spettri è stata dimostrata in primo luogo per batteri appartenenti al genere Borrelia. La banca dati commerciale dello strumento MALDI-TOF MS in uso presso il nostro laboratorio includeva solo 3 spettri di riferimento appartenenti alle specie B. burgdorferi ss, B. spielmani e B. garinii. L’implementazione del “database” con specie diverse da quelle già presenti ha permesso di colmare le lacune identificative dovute alla mancanza di spettri di riferimento di alcune tra le specie di Borrelia più diffuse in Europa (B. afzelii) e nel mondo (come ad esempio B. hermsii, e B. japonica). Inoltre l’implementazione con spettri derivanti da ceppi di riferimento di specie già presenti nel “database” ha ulteriormente migliorato l’efficacia identificativa del sistema. Come atteso, il ceppo di isolamento clinico di B. lusitaniae (specie non presente nel “database”) è stato identificato solo a livello di genere corroborando, grazie all’assenza di mis-identificazione, la robustezza della “nuova” banca dati. I risultati ottenuti analizzando i profili proteici di ceppi di Borrelia spp. di isolamento clinico, dopo integrazione del “database” commerciale, indicano che la tecnologia MALDI-TOF potrebbe essere utilizzata come rapida, economica ed affidabile alternativa ai metodi attualmente utilizzati per identificare ceppi appartenenti a questo genere. Analogamente, per il genere Leptospira dopo la creazione ex-novo della banca dati “home-made”, costruita con i 20 spettri derivati dai 20 ceppi di riferimento utilizzati, è stata ottenuta una corretta identificazione a livello di specie degli stessi ceppi ri-analizzati in un esperimento indipendente condotto in doppio cieco. Il dendrogramma costruito con i 20 MSP-Spectra implementati nella banca dati è formato da due rami principali: il primo formato dalla specie non patogena L. biflexa e dalla specie a patogenicità intermedia L. fainei ed il secondo che raggruppa insieme le specie patogene L. interrogans, L. kirschneri, L. noguchii e L. borgpetersenii. Il secondo gruppo è ulteriormente suddiviso in due rami, contenenti rispettivamente L. borgpetersenii in uno e L. interrogans, L. kirschneri e L. noguchii nell’altro. Quest’ultimo, a sua volta, è suddiviso in due rami ulteriori: il primo comprendente la sola specie L. noguchii, il secondo le specie L. interrogans e L. kirshneri non separabili tra loro. Inoltre, il dendrogramma costruito con gli MSP-Spectra dei ceppi appartenenti ai generi Borrelia e Leptospira acquisiti in questo studio, e appartenenti al genere Brachyspira (implementati in un lavoro precedentemente condotto) mostra tre gruppi principali separati tra loro, uno per ogni genere, escludendo possibili mis-identificazioni tra i 3 differenti generi di spirochete. Un’analisi più approfondita dei profili proteici ottenuti dall’analisi ha mostrato piccole differenze per ceppi della stessa specie probabilmente dovute ai diversi pattern proteici dei distinti sierotipi, come confermato dalla successiva analisi statistica, che ha evidenziato picchi sierotipo-specifici. È stato, infatti, possibile mediante la creazione di un modello statistico dedicato ottenere un “pattern” di picchi discriminanti in grado di differenziare a livello di sierotipo sia i ceppi di L. interrogans sia i ceppi di L. borgpetersenii saggiati, rispettivamente. Tuttavia, non possiamo concludere che i picchi discriminanti da noi riportati siano universalmente in grado di identificare il sierotipo dei ceppi di L. interrogans ed L. borgpetersenii; i picchi trovati, infatti, sono il risultato di un’analisi condotta su uno specifico pannello di sierotipi. È stato quindi dimostrato che attuando piccoli cambiamenti nei parametri standardizzati come l’utilizzo di un modello statistico e di un programma dedicato applicato nella routine diagnostica è possibile utilizzare la spettrometria di massa MALDI-TOF per una rapida ed economica identificazione anche a livello di sierotipo. Questo può significativamente migliorare gli approcci correntemente utilizzati per monitorare l’insorgenza di focolai epidemici e per la sorveglianza degli agenti patogeni. Analogamente a quanto dimostrato per Borrelia e Leptospira, l’implementazione della banca dati dello spettrometro di massa con spettri di riferimento di miceti filamentosi (dermatofiti) si è rilevata di particolare importanza non solo per l’identificazione di tutte le specie circolanti nella nostra area ma anche per l’identificazione di specie la cui frequenza nel nostro Paese è in aumento a causa dei flussi migratori dalla zone endemiche (M. audouinii, T. violaceum e T. sudanense). Inoltre, l’aggiornamento del “database” ha consentito di superare la mis-identificazione dei ceppi appartenenti al complesso T. mentagrophytes (T. interdigitale e T. mentagrophytes) con T. tonsurans, riscontrata prima dell’implementazione della banca dati commerciale. Il dendrogramma ottenuto dai 24 spettri implementati appartenenti a 13 specie di dermatofiti ha rivelato raggruppamenti che riflettono quelli costruiti su base filogenetica. Sulla base dei risultati ottenuti mediante sequenziamento della porzione della regione ITS del genoma fungino non è stato possibile distinguere T. interdigitale e T. mentagrophytes, conseguentemente anche gli spettri di queste due specie presentavano picchi dello stesso peso molecoalre. Da sottolineare che il dendrogramma costruito con i 12 profili proteici già inclusi nel database commerciale e con i 24 inseriti nel nuovo database non riproduce l’albero filogenetico per alcune specie del genere Tricophyton: gli spettri MSP già presenti nel database e quelli aggiunti delle specie T. interdigitale e T. mentagrophytes raggruppano separatamente. Questo potrebbe spiegare le mis-identificazioni di T. interdigitale e T. mentagrophytes con T. tonsurans ottenute prima dell’implementazione del database. L’efficacia del sistema identificativo MALDI-TOF è stata anche dimostrata per microrganismi diversi da batteri e funghi per i quali la metodica originale è stata sviluppata. Sebbene tale sistema identificativo sia stato applicato con successo a Trichomonas vaginalis è stato necessario apportare modifiche nei parametri standard previsti per l’identificazione di batteri e funghi. Le interferenze riscontrate tra i profili proteici ottenuti per i due terreni utilizzati per la coltura di questo protozoo e per i ceppi di T. vaginalis hanno, infatti, reso necessario l’utilizzo di nuovi parametri per la creazione degli spettri di riferimento (MSP-Spectra). L’importanza dello sviluppo del nuovo metodo risiede nel fatto che è possibile identificare sulla base del profilo proteico (e non sulla base di singoli marcatori) microorganismi cresciuti su terreni complessi che potrebbero presentare picchi nell'intervallo di peso molecolare utilizzato a scopo identificativo: metaboliti, pigmenti e nutrienti presenti nel terreno possono interferire con il processo di cristallizzazione e portare ad un basso punteggio identificativo. Per T. vaginalis, in particolare, la “sottrazione” di picchi dovuti a molecole riconducibili al terreno di crescita utilizzato, è stata ottenuta escludendo dall'identificazione l'intervallo di peso molecolare compreso tra 3-6 kDa, permettendo la corretta identificazione di ceppi di isolamento clinico sulla base del profilo proteico. Tuttavia, l’elevata concentrazione di parassita richiesta (105 trofozoiti/ml) per una corretta identificazione, difficilmente ottenibile in vivo, ha impedito l’identificazione di ceppi di T. vaginalis direttamente in campioni clinici. L’approccio identificativo mediante individuazione di specifici marcatori proteici (secondo approccio identificativo) è stato provato ed adottato in questo studio per l’identificazione e la differenziazione di ceppi di Entamoeba histolytica (ameba patogena) ed Entamoeba dispar (ameba non patogena), specie morfologiacamente identiche e distinguibili solo mediante saggi molecolari (PCR) aventi come bersaglio il DNA-18S, che codifica per l’RNA della subunità ribosomiale minore. Lo sviluppo di tale applicazione ha consentito di superare l’impossibilità della creazione di una banca dati dedicata, a causa della complessità del materiale fecale di partenza e del terreno di coltura impiagato per l’isolamento, e di identificare 5 picchi proteici in grado di differenziare E. histolytica da E. dispar. In particolare, l’analisi statistica ha mostrato 2 picchi specifici per E. histolytica e 3 picchi specifici per E. dispar. L’assenza dei 5 picchi discriminanti trovati per E. histolytica e E. dispar nei profili dei 3 differenti terreni di coltura utilizzati in questo studio (terreno axenico LYI-S-2 e terreno di Robinson con e senza E. coli) permettono di considerare questi picchi buoni marcatori in grado di differenziare le due specie. La corrispondenza dei picchi con il PM di due specifiche proteine di E. histolytica depositate in letteratura (Amoebapore A e un “unknown putative protein” di E. histolytica ceppo di riferimento HM-1:IMSS-A) conferma la specificità dei picchi di E. histolytica identificati mediante analisi MALDI-TOF MS. Lo stesso riscontro non è stato possibile per i picchi di E. dispar in quanto nessuna proteina del PM di interesse è presente in GenBank. Tuttavia, va ricordato che non tutte le proteine E. dispar sono state ad oggi caratterizzate e depositate in letteratura. I 5 marcatori hanno permesso di differenziare 12 dei 13 ceppi isolati da campioni di feci e cresciuti in terreno di Robinson confermando i risultati ottenuti mediante saggio di Real-Time PCR. Per un solo ceppo di isolamento clinico di E. histolytica l’identificazione, confermata mediante sequenziamento della porzione 18S-rDNA, non è stata ottenuta mediante sistema MALDI-TOF MS in quanto non sono stati trovati né i picchi corrispondenti a E. histolytica né i picchi corrispondenti a E. dispar. Per questo ceppo è possibile ipotizzare la presenza di mutazioni geno/fenotipiche a livello delle proteine individuate come marcatori specifici per E. histolytica. Per confermare questa ipotesi sarebbe necessario analizzare un numero maggiore di ceppi di isolamento clinico con analogo profilo proteico. L’analisi condotta a diversi tempi di incubazione del campione di feci positivo per E. histolytica ed E. dipar ha mostrato il ritrovamento dei 5 picchi discriminanti solo dopo 12 ore dall’inoculo del campione nel terreno iniziale di Robinson. Questo risultato suggerisce la possibile applicazione del sistema MALDI-TOF MS per identificare ceppi di isolamento clinico di E. histolytica ed E. dipar nonostante la presenza di materiale fecale che materialmente può disturbare e rendere difficile l’interpretazione dello spettro ottenuto mediante analisi MALDI-TOF MS. Infine in questo studio è stata valutata l’applicabilità della tecnologia MALDI-TOF MS come saggio fenotipico rapido per la determinazione di ceppi produttori di carbapenemasi, verificando l'avvenuta idrolisi del meropenem (carbapeneme di riferimento utilizzato in questo studio) a contatto con i ceppi di riferimento e ceppi di isolamento clinico potenzialmente produttori di carbapenemasi dopo la messa a punto di un protocollo analitico dedicato. Il saggio di idrolisi del meropenem mediante MALDI-TOF MS ha dimostrato la presenza o l’assenza indiretta di carbapenemasi nei 3 ceppi di riferimento e nei 1219 (1185 Enterobacteriaceae e 34 non-Enterobacteriaceae) ceppi di isolamento clinico inclusi nello studio. Nessuna interferenza è stata riscontrata per i ceppi di Enterobacteriaceae variamente resistenti ai tre carbapenemi ma risultati non produttori di carbapenemasi mediante i saggi fenotipici comunemente impiegati nella diagnostica routinaria di laboratorio: nessuna idrolisi del farmaco è stata infatti osservata al saggio di idrolisi mediante MALDI-TOF MS. In un solo caso (ceppo di K. pneumoniae N°1135) è stato ottenuto un profilo anomalo in quanto presenti sia i picchi del farmaco intatto che quelli del farmaco idrolizzato. Per questo ceppo resistente ai tre carbapenemi saggiati, negativo ai saggi fenotipici per la presenza di carbapenemasi, è stata dimostrata la presenza del gene blaKPC mediante Real-Time PCR. Per questo ceppo si può ipotizzare la presenza di mutazioni a carico del gene blaKPC che sebbene non interferiscano con il suo rilevamento mediante PCR (Real-Time PCR positiva), potrebbero condizionare l’attività della proteina prodotta (Saggio di Hodge modificato e Test di Sinergia negativi) riducendone la funzionalità come dimostrato, mediante analisi MALDI-TOF MS, dalla presenza dei picchi relativi sia all’idrolisi del farmaco sia dei picchi relativi al farmaco intatto. Questa ipotesi dovrebbe essere confermata mediante sequenziamento del gene blaKPC e successiva analisi strutturale della sequenza amminoacidica deducibile. L’utilizzo della tecnologia MALDI-TOF MS per la verifica dell’avvenuta idrolisi del maropenem è risultato un saggio fenotipico indiretto in grado di distinguere, al pari del test di Hodge modificato impiegato comunemente nella routine diagnostica in microbiologia, un ceppo produttore di carbapenemasi da un ceppo non produttore sia per scopi diagnostici che per la sorveglianza epidemiologica. L’impiego del MALDI-TOF MS ha mostrato, infatti, diversi vantaggi rispetto ai metodi convenzionali (Saggio di Hodge modificato e Test di Sinergia) impiegati nella routine diagnostica di laboratorio i quali richiedono personale esperto per l’interpretazione del risultato e lunghi tempi di esecuzione e di conseguenza di refertazione. La semplicità e la facilità richieste per la preparazione dei campioni e l’immediata acquisizione dei dati rendono questa tecnica un metodo accurato e rapido. Inoltre, il metodo risulta conveniente dal punto di vista economico, con un costo totale stimato di 1,00 euro per ceppo analizzato. Tutte queste considerazioni pongono questa metodologia in posizione centrale in ambito microbiologico anche nel caso del rilevamento di ceppi produttori di carbapenemasi. Indipendentemente dall’approccio identificativo utilizzato, comparato con i metodi convenzionali il MALDI-TOF MS conferisce in molti casi un guadagno in termini di tempo di lavoro tecnico (procedura pre-analititca per la preparazione dei campioni) e di tempo di ottenimento dei risultati (procedura analitica automatizzata). Questo risparmio di tempo si accentua quando sono analizzati in contemporanea un maggior numero di isolati. Inoltre, la semplicità e la facilità richieste per la preparazione dei campioni e l’immediata acquisizione dei dati rendono questo un metodo di identificazione accurato e rapido risultando più conveniente anche dal punto di vista economico, con un costo totale di 0,50 euro (materiale consumabile) per ceppo analizzato. I risultati ottenuti dimostrano che la spettrometria di massa MALDI-TOF sta diventando uno strumento importante in microbiologia clinica e sperimentale, data l’elevata efficacia identificativa, grazie alla disponibilità sia di nuove banche dati commerciali sia di aggiornamenti delle stesse da parte di diversi utenti, e la possibilità di rilevare con successo anche se in modo indiretto le antibiotico-resistenze.