456 resultados para Kalman-suodin
Resumo:
El continuo crecimiento de la demanda del transporte aéreo, junto con los nuevos escenarios de intervención militar, están obligando a una optimización en el uso del espacio aéreo. De este modo, la UE y los EEUU (a través de SESAR y NextGen respectivamente) han asentado las bases para una nueva gestión del tráfico aéreo (ATM). Con ello, se pretende aumentar la capacidad de aeropuertos y rutas aéreas, otorgando mayor flexibilidad al uso del espacio aéreo sin comprometer la seguridad de los usuarios. Desde un punto de vista puramente técnico, la clave de este cambio de modelo está en el conocimiento de la posición de cada aeronave en cada instante. En este sentido, la tendencia en ATM es el uso de ADS-B como fuente principal de posicionamiento. Sin embargo, debido a que este sistema está basado en la difusión de la posición obtenida a través de GPS, es necesario un sistema de seguimiento independiente. Actualmente, la intención es migrar del radar secundario de vigilancia (SSR) a la multilateración de área extensa (WAM), con el fin de mejorar la integridad de la posición para aplicaciones en ruta. Aprovechando el rápido despliegue de ADS-B, se pretende reutilizar sus estaciones base para WAM. Cada estación base que recibe el mensaje ADS-B de la aeronave envía conjuntamente la medida del tiempo de llegada (TOA) de dicho mensaje al centro de tráfico aéreo. La posición de la aeronave se obtiene mediante multilateración, cuya técnica consiste en utilizar las medidas de TOA de un mismo mensaje ADS-B obtenidas en las distintas estaciones base. El objetivo es estimar la posición de cada aeronave con la mayor precisión posible. Para poder diseñar el sistema que permite alcanzar este objetivo, son dos los aspectos básicos a estudiar. Por una parte, la identificación y posterior caracterización de los errores (tanto sistemáticos como aleatorios) que afectan a la medida de TOA. Por otra parte, es necesario el estudio de los sistemas de seguimiento, basados en versiones sofisticadas del filtro de Kalman (IMM, UKF). Una vez establecidos estos dos pilares, la presente tesis doctoral propone un sistema que permite efectuar el seguimiento de las aeronaves, corrigiendo los efectos de las principales distorsiones que afectan a la medida de TOA: la refracción troposférica y el error de sincronismo. La mejora en la precisión de la localización ha sido evaluada mediante simulación de escenarios hipotéticos. ABSTRACT The ever-growing demand in the air transportation and the new military intervention scenarios, are generating a need to optimize the use of the airspace. This way, the EU and the USA (through SESAR and NextGen respectively) have set the ground to overhaul the current air traffic management. The intention is to enhance the capacity of airports and air routes, providing greater flexibility in the use of airspace without jeopardizing the security of the end-users. From a technical perspective, the key for this change lies in the knowledge of the aircraft position. The trend in Air Traffic Management (ATM) is to rely on ADS-B as the main source for aircraft positioning. However, this system is based on the aircraft’s self-declaration of its own (often GPS-based) navigation solution. It is therefore necessary to have an independent surveillance system. Nowadays, the intention is to gradually migrate from Secondary Surveillance Radar (SSR) towards Wide Area Multilateration (WAM) in order to enhance surveillance integrity for en-route applications. Given the fast deployment of ADS-B, the aim is to use its base stations for WAM. Each station sends the Time of Arrival (TOA) of the received ADS-B messages to the air traffic center (ATC). The aircraft position is obtained through multilateration, using the TOA of the same message measured by each station. The aim is to accurately estimate the position of each aircraft. Knowledge from two key areas has to be gathered prior to designing such a system. It is necessary to identify and then characterize the errors (both systematic and random) affecting the TOA measurements. The second element is the study of tracking systems based on sophisticated versions of the Kalman filtering (e.g. IMM, UKF). Based on this knowledge, the main contribution of this Ph.D. is an aircraft tracking system that corrects the effects of the main errors involved in the TOA measurement: tropospheric refraction and synchronization issues. Performance gains in positioning accuracy have been assessed by simulating hypothetical WAM scenarios.
Resumo:
In this paper a Glucose-Insulin regulator for Type 1 Diabetes using artificial neural networks (ANN) is proposed. This is done using a discrete recurrent high order neural network in order to identify and control a nonlinear dynamical system which represents the pancreas? beta-cells behavior of a virtual patient. The ANN which reproduces and identifies the dynamical behavior system, is configured as series parallel and trained on line using the extended Kalman filter algorithm to achieve a quickly convergence identification in silico. The control objective is to regulate the glucose-insulin level under different glucose inputs and is based on a nonlinear neural block control law. A safety block is included between the control output signal and the virtual patient with type 1 diabetes mellitus. Simulations include a period of three days. Simulation results are compared during the overnight fasting period in Open-Loop (OL) versus Closed- Loop (CL). Tests in Semi-Closed-Loop (SCL) are made feedforward in order to give information to the control algorithm. We conclude the controller is able to drive the glucose to target in overnight periods and the feedforward is necessary to control the postprandial period.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
Distinct subtypes of glutamate receptors often are colocalized at individual excitatory synapses in the mammalian brain yet appear to subserve distinct functions. To address whether neuronal activity may differentially regulate the surface expression at synapses of two specific subtypes of ionotropic glutamate receptors we epitope-tagged an AMPA (α-amino-3-hydroxy-5-methylisoxazole-4-propionic acid) receptor subunit (GluR1) and an NMDA (N-methyl-d-aspartate) receptor subunit (NR1) on their extracellular termini and expressed these proteins in cultured hippocampal neurons using recombinant adenoviruses. Both receptor subtypes were appropriately targeted to the synaptic plasma membrane as defined by colocalization with the synaptic vesicle protein synaptophysin. Increasing activity in the network of cultured cells by prolonged blockade of inhibitory synapses with the γ-aminobutyric acid type A receptor antagonist picrotoxin caused an activity-dependent and NMDA receptor-dependent decrease in surface expression of GluR1, but not NR1, at synapses. Consistent with this observation identical treatment of noninfected cultures decreased the contribution of endogenous AMPA receptors to synaptic currents relative to endogenous NMDA receptors. These results indicate that neuronal activity can differentially regulate the surface expression of AMPA and NMDA receptors at individual synapses.
Resumo:
The recent determination of the myosin head atomic structure has led to a new model of muscle contraction, according to which mechanical torque is generated in the catalytic domain and amplified by the lever arm made of the regulatory domain [Fisher, A. J., Smith, C. A., Thoden, J., Smith, R., Sutoh, K., Holden, H. M. & Rayment, I. (1995) Biochemistry 34, 8960–8972]. A crucial aspect of this model is the ability of the regulatory domain to move independently of the catalytic domain. Saturation transfer–EPR measurements of mobility of these two domains in myosin filaments give strong support for this notion. The catalytic domain of the myosin head was labeled at Cys-707 with indane dione spin label; the regulatory domain was labeled at the single cysteine residue of the essential light chain and exchanged into myosin. The mobility of the regulatory domain in myosin filaments was characterized by an effective rotational correlation time (τR) between 24 and 48 μs. In contrast, the mobility of the catalytic domain was found to be τR = 5–9 μs. This difference in mobility between the two domains existed only in the filament form of myosin. In the monomeric form, or when bound to actin, the mobility of the two domains in myosin was indistinguishable, with τR = 1–4 μs and >1,000 μs, respectively. Therefore, the observed difference in filaments cannot be ascribed to differences in local conformations of the spin-labeled sites. The most straightforward interpretation suggests a flexible hinge between the two domains, which would have to stiffen before force could be generated.
Resumo:
Astrocytes in neuron-free cultures typically lack processes, although they are highly process-bearing in vivo. We show that basic fibroblast growth factor (bFGF) induces cultured astrocytes to grow processes and that Ras family GTPases mediate these morphological changes. Activated alleles of rac1 and rhoA blocked and reversed bFGF effects when introduced into astrocytes in dissociated culture and in brain slices using recombinant adenoviruses. By contrast, dominant negative (DN) alleles of both GTPases mimicked bFGF effects. A DN allele of Ha-ras blocked bFGF effects but not those of Rac1-DN or RhoA-DN. Our results show that bFGF acting through c-Ha-Ras inhibits endogenous Rac1 and RhoA GTPases thereby triggering astrocyte process growth, and they provide evidence for the regulation of this cascade in vivo by a yet undetermined neuron-derived factor.
Resumo:
The carbohydrate antigen globo H commonly found on breast cancer cells is a potential target for vaccine therapy. The objectives of this trial were to determine the toxicity and immunogenicity of three synthetic globo H-keyhole limpet hemocyanin conjugates plus the immunologic adjuvant QS-21. Twenty-seven metastatic breast cancer patients received five vaccinations each. The vaccine was well tolerated, and no definite differences were observed among the three formulations. Serologic analyses demonstrated the generation of IgM antibody titers in most patients, with minimal IgG antibody stimulation. There was significant binding of IgM antibodies to MCF-7 tumor cells in 16 patients, whereas IgG antibody reactivity was observed in a few patients. There was evidence of complement-dependent cytotoxicity in several patients. Affinity column purification supported the specificity of IgM antibodies for globo H. On the basis of these data, globo H will constitute one component of a polyvalent vaccine for evaluation in high-risk breast cancer patients.
Resumo:
Comunicación presentada en el I Congrés Català d’Intel·ligència Artificial, Tarragona, Octubre de 1998.
Resumo:
Visual information is increasingly being used in a great number of applications in order to perform the guidance of joint structures. This paper proposes an image-based controller which allows the joint structure guidance when its number of degrees of freedom is greater than the required for the developed task. In this case, the controller solves the redundancy combining two different tasks: the primary task allows the correct guidance using image information, and the secondary task determines the most adequate joint structure posture solving the possible joint redundancy regarding the performed task in the image space. The method proposed to guide the joint structure also employs a smoothing Kalman filter not only to determine the moment when abrupt changes occur in the tracked trajectory, but also to estimate and compensate these changes using the proposed filter. Furthermore, a direct visual control approach is proposed which integrates the visual information provided by this smoothing Kalman filter. This last aspect permits the correct tracking when noisy measurements are obtained. All the contributions are integrated in an application which requires the tracking of the faces of Asperger children.
Resumo:
Information of crop phenology is essential for evaluating crop productivity. In a previous work, we determined phenological stages with remote sensing data using a dynamic system framework and an extended Kalman filter (EKF) approach. In this paper, we demonstrate that the particle filter is a more reliable method to infer any phenological stage compared to the EKF. The improvements achieved with this approach are discussed. In addition, this methodology enables the estimation of key cultivation dates, thus providing a practical product for many applications. The dates of some important stages, as the sowing date and the day when the crop reaches the panicle initiation stage, have been chosen to show the potential of this technique.
Resumo:
In this paper, a novel approach for exploiting multitemporal remote sensing data focused on real-time monitoring of agricultural crops is presented. The methodology is defined in a dynamical system context using state-space techniques, which enables the possibility of merging past temporal information with an update for each new acquisition. The dynamic system context allows us to exploit classical tools in this domain to perform the estimation of relevant variables. A general methodology is proposed, and a particular instance is defined in this study based on polarimetric radar data to track the phenological stages of a set of crops. A model generation from empirical data through principal component analysis is presented, and an extended Kalman filter is adapted to perform phenological stage estimation. Results employing quad-pol Radarsat-2 data over three different cereals are analyzed. The potential of this methodology to retrieve vegetation variables in real time is shown.
Resumo:
Desde o início do crescente interesse na área de robótica que a navegação autónoma se apresenta como um problema de complexa resolução que, por isso, desperta vasto interesse no meio científico. Além disso, as capacidades da navegação autónoma aliadas à robótica permitem o desenvolvimento de variadas aplicações. O objectivo da navegação autónoma é conferir, a um dispositivo motor, capacidade de decisão relativa à locomoção. Para o efeito, utilizam-se sensores, como os sensores IMU, o receptor GPS e os encoders, para fornecer os dados essenciais à navegação. A dificuldade encontra-se no correcto processamento destes sinais uma vez que são susceptíveis a fontes de ruído. Este trabalho apresenta um sistema de navegação autónomo aplicado ao controlo de um robot. Para tal, desenvolveu-se uma aplicação que alberga todo o sistema de localização, navegação e controlo, acrescido de uma interface gráfica, que permite a visualização em mapa da movimentação autónoma do robot. Recorre-se ao Filtro de Kalman como método probabilístico de estimação de posição, em que os sinais dos vários sensores são conjugados e filtrados. Foram realizados vários testes de modo a avaliar a capacidade do robot atingir os pontos traçados e a sua autonomia no seguimento da trajectória pretendida.
Resumo:
Nel seguente elaborato si espone l’utilizzo del sistema GPS/INS per la valutazione del moto di un ciclomotore. Tale sistema è composto da sensori GPS ( Global Navigation System ) per la misurazione della posizione, e da sensori INS ( Inertial Navigation System) per la misurazione dell’accelerazione e delle velocità angolari rispetto a tre assi coordinati. Chiaramente le misure di accelerazioni e di velocità angolari da parte dei sensori, presentano dei minimi errori, che però si ripercuotono sul posizionamento finale. Per limitare questo fenomeno e rendere la misura di velocità e posizione utilizzabile, un filtro di Kalman viene impiegato per correggere il risultato dell'integrazione usando le misurazioni del GPS. Il connubio tra il sistema INS e il sistema GPS è molto efficacie anche quando si ha una assenza di ricezione satellitare o perdita parziale dei satelliti (cycle slip). Infine è stato utilizzato uno smartphone sfruttando i sensori in esso presenti : accelerometri, giroscopi, GPS, per analizzare la dinamica di un ciclomotore, concentrandosi sull’assetto in particolar modo l’angolo di rollio. Tale prova è stata affrontata non tanto per validare il sistema GPS/INS, ma per provare una soluzione comoda e di basso costo per analizzare il moto di un ciclomotore.
Validation of the Swiss methane emission inventory by atmospheric observations and inverse modelling
Resumo:
Atmospheric inverse modelling has the potential to provide observation-based estimates of greenhouse gas emissions at the country scale, thereby allowing for an independent validation of national emission inventories. Here, we present a regional-scale inverse modelling study to quantify the emissions of methane (CH₄) from Switzerland, making use of the newly established CarboCount-CH measurement network and a high-resolution Lagrangian transport model. In our reference inversion, prior emissions were taken from the "bottom-up" Swiss Greenhouse Gas Inventory (SGHGI) as published by the Swiss Federal Office for the Environment in 2014 for the year 2012. Overall we estimate national CH₄ emissions to be 196 ± 18 Gg yr⁻¹ for the year 2013 (1σ uncertainty). This result is in close agreement with the recently revised SGHGI estimate of 206 ± 33 Gg yr⁻¹ as reported in 2015 for the year 2012. Results from sensitivity inversions using alternative prior emissions, uncertainty covariance settings, large-scale background mole fractions, two different inverse algorithms (Bayesian and extended Kalman filter), and two different transport models confirm the robustness and independent character of our estimate. According to the latest SGHGI estimate the main CH₄ source categories in Switzerland are agriculture (78 %), waste handling (15 %) and natural gas distribution and combustion (6 %). The spatial distribution and seasonal variability of our posterior emissions suggest an overestimation of agricultural CH₄ emissions by 10 to 20 % in the most recent SGHGI, which is likely due to an overestimation of emissions from manure handling. Urban areas do not appear as emission hotspots in our posterior results, suggesting that leakages from natural gas distribution are only a minor source of CH₄ in Switzerland. This is consistent with rather low emissions of 8.4 Gg yr⁻¹ reported by the SGHGI but inconsistent with the much higher value of 32 Gg yr⁻¹ implied by the EDGARv4.2 inventory for this sector. Increased CH₄ emissions (up to 30 % compared to the prior) were deduced for the north-eastern parts of Switzerland. This feature was common to most sensitivity inversions, which is a strong indicator that it is a real feature and not an artefact of the transport model and the inversion system. However, it was not possible to assign an unambiguous source process to the region. The observations of the CarboCount-CH network provided invaluable and independent information for the validation of the national bottom-up inventory. Similar systems need to be sustained to provide independent monitoring of future climate agreements.