901 resultados para Surveillance and Reconnaissance
Resumo:
Harris County, which includes Houston, Texas, is an endemic and epidemic area for two viruses transmitted by arthropods (arboviruses). These viruses are maintained in cycles involving mosquitoes and wild birds, and transmission to humans is accidental. The majority of human infections is asymptomatic or may result in a flu-like syndrome. However, some infections can result in meningitis or encephalitis. These neuroinvasive infections may cause death, and those who survive may experience serious neurological complications requiring costly and lengthy medical care. The most important arboviruses in terms of morbidity are St. Louis encephalitis (SLEV) and West Nile (WNV) viruses. In fact, Harris County reports more SLEV encephalitis cases than any other county in the U.S. Most arboviral human cases occur from July through September, when mosquitoes are most active. Those at risk for encephalitis and death are the elderly and those with a history of hypertension or immunosuppresion. There is no specific treatment and no human vaccines are commercially available in the U.S. The approach for control of arboviruses in Harris County during epidemics is multidisciplinary and executed by several agencies. It includes surveillance, vector control, and educational messages for the population. Prevention of outbreaks consists of elimination of the vector and its breeding grounds, and practicing personal protective measures to prevent exposure to mosquitoes. ^ Current findings indicate that mosquito-borne viruses other than SLEV and WNV could pose an additional threat for the population. Eastern equine encephalitis virus (EEEV) activity has been detected in dogs and sentinel chickens in Houston and surrounding areas. Several serotypes of dengue virus have caused recent outbreaks in south Texas, and some locally-acquired cases have been detected in Houston. Since the clinical presentation of all arboviruses that cause encephalitis is very similar, and current surveillance is focused on detecting SLEV and WNV, there is a possibility that other arboviruses could be present in the area but are not being detected. Additionally, Harris County's ample annual rainfall and flooding problems, warm weather, multiple mosquito species, local and migrating birds that are susceptible to arboviral infection, and a constant flow of goods and travelers from many parts of the world could favor the emergence or re-emergence of other arboviruses. ^ The aims of this project were to determine if other arboviruses were circulating in the county, to assess the knowledge and attitudes about mosquito-borne viruses in a sample of the population, and to conduct an analysis of the initial WNV epidemic in Harris County. Through the retrospective analysis of clinical specimens collected during the 2002-2005 epidemic seasons, serologic evidence of dengue infection was detected suggesting the possibility that this virus may be co-circulating with SLEV and WNV. A cross-sectional survey revealed high awareness about arboviruses but not a consistent use of protective measures to avoid mosquitoes. The third component for this project included a retrospective review and geographical analysis of the 2002 WNV epidemic. ^ Overall, this study documented valuable information about the dengue virus, a potentially emerging arbovirus in Texas, revealed the need for more educational preventative programs, reinforced the value of mosquito and avian surveillance, and indicated the importance of continuing to investigate the factors that contribute to the development of outbreaks. ^
Resumo:
This study used canine sentinel surveillance and collected a sample of adult mosquitoes to investigate the potential impact of West Nile virus (WNV) in human populations in the Rio Grande Valley along the Texas-Mexico border. Samples for this study were collected from juvenile dogs two months to one year of age in animal shelters located in the Rio Grande Valley. The sample was comprised of stray dogs in order to include animals with maximum nighttime exposures to Culex mosquitoes. Serum samples were collected following the 2007 WNV transmission season and were tested for IgG antibodies against WNV. Evidence of antibodies to WNV was found in 35.1% of the sample population consisting of 74 dogs. During this same time period, mosquitoes in Brownsville were trapped and morphologically identified to develop greater understanding of the mosquito populations in the region and to further understand other potential mosquito vectors for disease transmission. The vast majority of mosquitoes living in this area were Aedes albopictus (47.6%), Culex quinquefasciatus (23.7%), and Aedes aegypti (20.1%). This study shows that WNV and the vector responsible for WNV transmission are active in the Rio Grande Valley and pose a threat to the human and animal populations. ^
Resumo:
Rocky Mountain spotted fever (RMSF) is a tick-borne illness caused by the bacteria Rickettsia rickettsii, with infections occurring in humans and dogs. The prominent tick vector of RMSF, Dermacantor variabilis, and another potential vector, Rhipacephalus sanguineus, are prevalent in Texas. The goal of this study was to determine the prevalence of past infections by testing for IgG antibodies to R. rickettsii in dogs in an animal shelter in Harris County using an immunofluorescence assay (IFA) test. We found that 12.6% (24) of 191 dogs tested had a positive IFA test at 1:64 serum dilution, indicating infection at some time in the past. We also sampled the ticks present on dogs in the animal shelter to understand the prevalence of potential vector species. Of a total of 58 ticks, 86% were D. variabilis and the remaining 14% were R. sanguineus. The results of this study demonstrate that RMSF has the potential to be, and may already be, endemic to the Harris County area. Public health actions such as heightened surveillance and education that RMSF is present would be appropriate in the Harris County area.^
Resumo:
Shigellosis is a communicable disease harbored primarily by humans. The low infective dose, no vaccine availability, and mild or asymptomatic nature of disease has prevented eradication of Shigella in the United States. In addition, the lack of water and sewage infrastructures which normally contribute to the spread of disease in developing countries, for the most part, is a non-issue in the U.S. making surveillance and risk factor identification important prevention and control measures utilized to reduce the incidence rates of Shigellosis.^ The purpose of this study was to describe the Shigellosis disease burden among the Hidalgo County, Texas population during the 2005-2009 study period and compare these findings with national data available. The potential identification and publication of a health disparity in the form of increased Shigellosis rates among Hidalgo County residents when compared to national rates, especially age-specific rates, are intended to generate public health attention and public health action that will address this issue.^ There were 1,007 confirmed Shigellosis cases reported in Hidalgo County, Texas. An overwhelming majority (79%) of the Shigellosis cases during this time frame occurred in children less than ten years of age. Over the age of 10 through the age of 39, females constituted the majority of cases. Age-specific rates for children four years of age and younger were compared to national rates. The rates for Hidalgo County were higher at 9.2 and 1.8 cases for every one case reported nationally in 2005 and 2006, respectively. The total crude rates of Shigellosis were also higher than the rates available from the Foodborne Diseases Active Surveillance Network (FoodNet) of CDC’s Emerging Infections Program from 2005-2009. As a result, compared to the FoodNet surveillance rates, Hidalgo County experienced above average rates of Shigellosis throughout the study period. The majority of cases were identified in young children under the age of ten.^ The information gathered in this analysis could be used to implement and monitor infection control measures such as hand washing education at facilities that tend to the groups identified at higher risk of infection. In addition, the higher burden of disease found in Hidalgo County requires further study to determine if there are factors associated with an increased risk of Shigellosis in this community and other border communities along the U.S.-Mexico border exist.^
Resumo:
Candida albicans causes opportunistic fungal infections in humans and is a significant cause of mortality and morbidity in immune-compromised individuals. Dectin-2, a C-type lectin receptor, is required for recognition of C. albicans by innate immune cells and is required for initiation of the anti-fungal immune response. We set out to identify components of the intracellular signaling cascade downstream of Dectin-2 activation in macrophages and to understand their importance in mediating the immune response to C. albicans in vivo. Using macrophages derived from Phospholipase-C-gamma 1 and 2 (PLCγ1and PLCγ2) knockout mice, we demonstrate that PLCγ2, but not PLCγ1, is required for activation of NF-κB and MAPK signaling pathways after C. albicans stimulation, resulting in impaired production of pro-inflammatory cytokines and reactive oxygen species. PLCγ2-deficient mice are highly susceptible to infections with C. albicans, indicating the importance of this pathway to the anti-fungal immune response. TAK1 and TRAF6 are critical nodes in NF-κB and MAPK activation downstream of immune surveillance and may be critical to the signaling cascade initiated by C-type lectin receptors in response to C. albicans. Macrophages derived from both TAK1 and TRAF6-deficient mice were unable to activate NF-κB and MAPK and consequently failed to produce inflammatory cytokines characteristic of the response to C. albicans. In this work we have identified PLCγ2, TAK1 and TRAF6 as components of a signaling cascade downstream of C. albicans recognition by C-type lectin receptors and as critical mediators of the anti-fungal immune response. A mechanistic understanding of the host immune response to C. albicans is important for the development of anti-fungal therapeutics and in understanding risk-factors determining susceptibility to C. albicans infection.
Resumo:
Dengue fever is a strictly human and non-human primate disease characterized by a high fever, thrombocytopenia, retro-orbital pain, and severe joint and muscle pain. Over 40% of the world population is at risk. Recent re-emergence of dengue outbreaks in Texas and Florida following the re-introduction of competent Aedes mosquito vectors in the United States have raised growing concerns about the potential for increased occurrences of dengue fever outbreaks throughout the southern United States. Current deficiencies in vector control, active surveillance and awareness among medical practitioners may contribute to a delay in recognizing and controlling a dengue virus outbreak. Previous studies have shown links between low-income census tracts, high population density, and dengue fever within the United States. Areas of low-income and high population density that correlate with the distribution of Aedes mosquitoes result in higher potential for outbreaks. In this retrospective ecologic study, nine maps were generated to model U.S. census tracts’ potential to sustain dengue virus transmission if the virus was introduced into the area. Variables in the model included presence of a competent vector in the county and census tract percent poverty and population density. Thirty states, 1,188 counties, and 34,705 census tracts were included in the analysis. Among counties with Aedes mosquito infestation, the census tracts were ranked high, medium, and low risk potential for sustained transmission of the virus. High risk census tracts were identified as areas having the vector, ≥20% poverty, and ≥500 persons per square mile. Census tracts with either ≥20% poverty or ≥500 persons per square mile and have the vector present are considered moderate risk. Census tracts that have the vector present but have <20% poverty and <500 persons per square mile are considered low risk. Furthermore, counties were characterized as moderate risk if 50% or more of the census tracts in that county were rated high or moderate risk, and high risk if 25% or greater were rated high risk. Extreme risk counties, which were primarily concentrated in Texas and Mississippi, were considered having 50% or greater of the census tracts ranked as high risk. Mapping of geographic areas with potential to sustain dengue virus transmission will support surveillance efforts and assist medical personnel in recognizing potential cases. ^
Resumo:
Background: The follow-up care for women with breast cancer requires an understanding of disease recurrence patterns and the follow-up visit schedule should be determined according to the times when the recurrence are most likely to occur, so that preventive measure can be taken to avoid or minimize the recurrence. Objective: To model breast cancer recurrence through stochastic process with an aim to generate a hazard function for determining a follow-up schedule. Methods: We modeled the process of disease progression as the time transformed Weiner process and the first-hitting-time was used as an approximation of the true failure time. The women's "recurrence-free survival time" or a "not having the recurrence event" is modeled by the time it takes Weiner process to cross a threshold value which represents a woman experiences breast cancer recurrence event. We explored threshold regression model which takes account of covariates that contributed to the prognosis of breast cancer following development of the first-hitting time model. Using real data from SEER-Medicare, we proposed models of follow-up visits schedule on the basis of constant probability of disease recurrence between consecutive visits. Results: We demonstrated that the threshold regression based on first-hitting-time modeling approach can provide useful predictive information about breast cancer recurrence. Our results suggest the surveillance and follow-up schedule can be determined for women based on their prognostic factors such as tumor stage and others. Women with early stage of disease may be seen less frequently for follow-up visits than those women with locally advanced stages. Our results from SEER-Medicare data support the idea of risk-controlled follow-up strategies for groups of women. Conclusion: The methodology we proposed in this study allows one to determine individual follow-up scheduling based on a parametric hazard function that incorporates known prognostic factors.^
Resumo:
En este trabajo investigamos la Metodología de la enseñanza como asignatura y como habilidad del desempeño profesional en la formación inicial de los profesores en la Sección Pedagógica entre 1906 y 1914, y en la Facultad de Ciencias de la Educación entre 1914 y 1920, ambas en la Universidad Nacional de La Plata. Dicha formación se gestó y desarrolló en el marco de un proyecto fundacional integral para nuestra Universidad. Estudiamos desde una perspectiva curricular la formación inicial de los profesores, es decir, aquella instancia institucional y formal de preparación para el ejercicio de la docencia. Aparecen en un segundo plano de importancia referencias al ejercicio profesional en tanto algunas prescripciones pedagógicas y didácticas resultaban también recomendadas para los docentes ya recibidos. Recurrimos al análisis de documentos. Tomamos como universo de análisis las Revistas Archivos de Pedagogía y Ciencias Afines y Archivos de Ciencias de la Educación que, en tanto órgano de difusión de las instituciones mencionadas, nos aportaron valiosos elementos para la reconstrucción de los trayectos formativos de los profesorados y para conocer ciertas características generales adjudicadas a la Metodología de la enseñanza. También utilizamos escritos de Víctor Mercante y otros de Joaquín V. González, quienes fueron referentes claves en la concreción de la formación de docentes en nuestra Universidad. Visualizamos la presencia de un sustento positivista tiñendo diferentes dimensiones formativas: la secuencia y organización de las asignaturas del curriculum, en las que predominaría una supremacía de la teoría sobre la práctica; la exigencia de complementar las lecciones teóricas con instancias de observación y experimentación; las constantes y dominantes manifestaciones sobre la principalidad de la ciencia. Además, a partir del estudio de los programas de "Metodología general" y "Metodología especial" como asignaturas del curriculum, y de la concepción de Mercante sobre éstas, pudimos inferir una confianza depositada en que un buen uso de la Metodología de la enseñanza facilitaría un desempeño profesional eficaz. En el interjuego permanente entre el marco conceptual-referencial y el material empírico, construimos dos ejes a partir de los cuales analizar esa Metodología de enseñanza. El primero es de carácter curricular e incluye, por un lado, entenderla como asignatura del curriculum de la formación de profesores y, por el otro, como una habilidad profesional conformando parte de las intencionalidades formativas de éste. El segundo eje se arma entendiendo a la Metodología de enseñanza como una habilidad del profesional docente que facilita el desempeño en el aula, y a esta habilidad como un lugar reservado para la normatividad del saber pedagógico. Esta mirada histórica sobre los orígenes de la formación docente en nuestra Casa de Estudios, pretende aportar elementos para la reflexión curricular actual sobre la formación de formadores. A su vez, en un segundo plano, nos interesa destacar la presencia y características de un espacio de normatividad/prescripción propio del saber pedagógico de la época. En los debates didácticos actuales, cobra relevancia la conformación de ese componente normativo/prescriptivo, por lo que consideramos que la perspectiva de estudio aquí propuesta nos aporta elementos para enriquecer la reflexión.
Resumo:
En este trabajo investigamos la Metodología de la enseñanza como asignatura y como habilidad del desempeño profesional en la formación inicial de los profesores en la Sección Pedagógica entre 1906 y 1914, y en la Facultad de Ciencias de la Educación entre 1914 y 1920, ambas en la Universidad Nacional de La Plata. Dicha formación se gestó y desarrolló en el marco de un proyecto fundacional integral para nuestra Universidad. Estudiamos desde una perspectiva curricular la formación inicial de los profesores, es decir, aquella instancia institucional y formal de preparación para el ejercicio de la docencia. Aparecen en un segundo plano de importancia referencias al ejercicio profesional en tanto algunas prescripciones pedagógicas y didácticas resultaban también recomendadas para los docentes ya recibidos. Recurrimos al análisis de documentos. Tomamos como universo de análisis las Revistas Archivos de Pedagogía y Ciencias Afines y Archivos de Ciencias de la Educación que, en tanto órgano de difusión de las instituciones mencionadas, nos aportaron valiosos elementos para la reconstrucción de los trayectos formativos de los profesorados y para conocer ciertas características generales adjudicadas a la Metodología de la enseñanza. También utilizamos escritos de Víctor Mercante y otros de Joaquín V. González, quienes fueron referentes claves en la concreción de la formación de docentes en nuestra Universidad. Visualizamos la presencia de un sustento positivista tiñendo diferentes dimensiones formativas: la secuencia y organización de las asignaturas del curriculum, en las que predominaría una supremacía de la teoría sobre la práctica; la exigencia de complementar las lecciones teóricas con instancias de observación y experimentación; las constantes y dominantes manifestaciones sobre la principalidad de la ciencia. Además, a partir del estudio de los programas de "Metodología general" y "Metodología especial" como asignaturas del curriculum, y de la concepción de Mercante sobre éstas, pudimos inferir una confianza depositada en que un buen uso de la Metodología de la enseñanza facilitaría un desempeño profesional eficaz. En el interjuego permanente entre el marco conceptual-referencial y el material empírico, construimos dos ejes a partir de los cuales analizar esa Metodología de enseñanza. El primero es de carácter curricular e incluye, por un lado, entenderla como asignatura del curriculum de la formación de profesores y, por el otro, como una habilidad profesional conformando parte de las intencionalidades formativas de éste. El segundo eje se arma entendiendo a la Metodología de enseñanza como una habilidad del profesional docente que facilita el desempeño en el aula, y a esta habilidad como un lugar reservado para la normatividad del saber pedagógico. Esta mirada histórica sobre los orígenes de la formación docente en nuestra Casa de Estudios, pretende aportar elementos para la reflexión curricular actual sobre la formación de formadores. A su vez, en un segundo plano, nos interesa destacar la presencia y características de un espacio de normatividad/prescripción propio del saber pedagógico de la época. En los debates didácticos actuales, cobra relevancia la conformación de ese componente normativo/prescriptivo, por lo que consideramos que la perspectiva de estudio aquí propuesta nos aporta elementos para enriquecer la reflexión.
Resumo:
En este trabajo investigamos la Metodología de la enseñanza como asignatura y como habilidad del desempeño profesional en la formación inicial de los profesores en la Sección Pedagógica entre 1906 y 1914, y en la Facultad de Ciencias de la Educación entre 1914 y 1920, ambas en la Universidad Nacional de La Plata. Dicha formación se gestó y desarrolló en el marco de un proyecto fundacional integral para nuestra Universidad. Estudiamos desde una perspectiva curricular la formación inicial de los profesores, es decir, aquella instancia institucional y formal de preparación para el ejercicio de la docencia. Aparecen en un segundo plano de importancia referencias al ejercicio profesional en tanto algunas prescripciones pedagógicas y didácticas resultaban también recomendadas para los docentes ya recibidos. Recurrimos al análisis de documentos. Tomamos como universo de análisis las Revistas Archivos de Pedagogía y Ciencias Afines y Archivos de Ciencias de la Educación que, en tanto órgano de difusión de las instituciones mencionadas, nos aportaron valiosos elementos para la reconstrucción de los trayectos formativos de los profesorados y para conocer ciertas características generales adjudicadas a la Metodología de la enseñanza. También utilizamos escritos de Víctor Mercante y otros de Joaquín V. González, quienes fueron referentes claves en la concreción de la formación de docentes en nuestra Universidad. Visualizamos la presencia de un sustento positivista tiñendo diferentes dimensiones formativas: la secuencia y organización de las asignaturas del curriculum, en las que predominaría una supremacía de la teoría sobre la práctica; la exigencia de complementar las lecciones teóricas con instancias de observación y experimentación; las constantes y dominantes manifestaciones sobre la principalidad de la ciencia. Además, a partir del estudio de los programas de "Metodología general" y "Metodología especial" como asignaturas del curriculum, y de la concepción de Mercante sobre éstas, pudimos inferir una confianza depositada en que un buen uso de la Metodología de la enseñanza facilitaría un desempeño profesional eficaz. En el interjuego permanente entre el marco conceptual-referencial y el material empírico, construimos dos ejes a partir de los cuales analizar esa Metodología de enseñanza. El primero es de carácter curricular e incluye, por un lado, entenderla como asignatura del curriculum de la formación de profesores y, por el otro, como una habilidad profesional conformando parte de las intencionalidades formativas de éste. El segundo eje se arma entendiendo a la Metodología de enseñanza como una habilidad del profesional docente que facilita el desempeño en el aula, y a esta habilidad como un lugar reservado para la normatividad del saber pedagógico. Esta mirada histórica sobre los orígenes de la formación docente en nuestra Casa de Estudios, pretende aportar elementos para la reflexión curricular actual sobre la formación de formadores. A su vez, en un segundo plano, nos interesa destacar la presencia y características de un espacio de normatividad/prescripción propio del saber pedagógico de la época. En los debates didácticos actuales, cobra relevancia la conformación de ese componente normativo/prescriptivo, por lo que consideramos que la perspectiva de estudio aquí propuesta nos aporta elementos para enriquecer la reflexión.
Resumo:
Synthetic Aperture Radar (SAR) images a target region reflectivity function in the multi-dimensional spatial domain of range and cross-range with a finer azimuth resolution than the one provided by any on-board real antenna. Conventional SAR techniques assume a single reflection of transmitted waveforms from targets. Nevertheless, new uses of Unmanned Aerial Vehicles (UAVs) for civilian-security applications force SAR systems to work in much more complex scenes such as urban environments. Consequently, multiple-bounce returns are additionally superposed to direct-scatter echoes. They are known as ghost images, since they obscure true target image and lead to poor resolution. All this may involve a significant problem in applications related to surveillance and security. In this work, an innovative multipath mitigation technique is presented in which Time Reversal (TR) concept is applied to SAR images when the target is concealed in clutter, leading to TR-SAR technique. This way, the effect of multipath is considerably reduced ?or even removed?, recovering the lost resolution due to multipath propagation. Furthermore, some focusing indicators such as entropy (E), contrast (C) and Rényi entropy (RE) provide us with a good focusing criterion when using TR-SAR.
Resumo:
La termografía es un método de inspección y diagnóstico basado en la radiación infrarroja que emiten los cuerpos. Permite medir dicha radiación a distancia y sin contacto, obteniendo un termograma o imagen termográfica, objeto de estudio de este proyecto. Todos los cuerpos que se encuentren a una cierta temperatura emiten radiación infrarroja. Sin embargo, para hacer una inspección termográfica hay que tener en cuenta la emisividad de los cuerpos, capacidad que tienen de emitir radiación, ya que ésta no sólo depende de la temperatura del cuerpo, sino también de sus características superficiales. Las herramientas necesarias para conseguir un termograma son principalmente una cámara termográfica y un software que permita su análisis. La cámara percibe la emisión infrarroja de un objeto y lo convierte en una imagen visible, originalmente monocromática. Sin embargo, después es coloreada por la propia cámara o por un software para una interpretación más fácil del termograma. Para obtener estas imágenes termográficas existen varias técnicas, que se diferencian en cómo la energía calorífica se transfiere al cuerpo. Estas técnicas se clasifican en termografía pasiva, activa y vibrotermografía. El método que se utiliza en cada caso depende de las características térmicas del cuerpo, del tipo de defecto a localizar o la resolución espacial de las imágenes, entre otros factores. Para analizar las imágenes y así obtener diagnósticos y detectar defectos, es importante la precisión. Por ello existe un procesado de las imágenes, para minimizar los efectos provocados por causas externas, mejorar la calidad de la imagen y extraer información de las inspecciones realizadas. La termografía es un método de ensayo no destructivo muy flexible y que ofrece muchas ventajas. Por esta razón el campo de aplicación es muy amplio, abarcando desde aplicaciones industriales hasta investigación y desarrollo. Vigilancia y seguridad, ahorro energético, medicina o medio ambiente, son algunos de los campos donde la termografía aportaimportantes beneficios. Este proyecto es un estudio teórico de la termografía, donde se describen detalladamente cada uno de los aspectos mencionados. Concluye con una aplicación práctica, creando una cámara infrarroja a partir de una webcam, y realizando un análisis de las imágenes obtenidas con ella. Con esto se demuestran algunas de las teorías explicadas, así como la posibilidad de reconocer objetos mediante la termografía. Thermography is a method of testing and diagnosis based on the infrared radiation emitted by bodies. It allows to measure this radiation from a distance and with no contact, getting a thermogram or thermal image, object of study of this project. All bodies that are at a certain temperature emit infrared radiation. However, making a thermographic inspection must take into account the emissivity of the body, capability of emitting radiation. This not only depends on the temperature of the body, but also on its surface characteristics. The tools needed to get a thermogram are mainly a thermal imaging camera and software that allows analysis. The camera sees the infrared emission of an object and converts it into a visible image, originally monochrome. However, after it is colored by the camera or software for easier interpretation of thermogram. To obtain these thermal images it exists various techniques, which differ in how heat energy is transferred to the body. These techniques are classified into passive thermography, active and vibrotermografy. The method used in each case depends on the thermal characteristics of the body, the type of defect to locate or spatial resolution of images, among other factors. To analyze the images and obtain diagnoses and defects, accuracy is important. Thus there is a image processing to minimize the effects caused by external causes, improving image quality and extract information from inspections. Thermography is a non-‐destructive test method very flexible and offers many advantages. So the scope is very wide, ranging from industrial applications to research and development.Surveillance and security, energy saving, environmental or medicine are some of the areas where thermography provides significant benefits. This project is a theoretical study of thermography, which describes in detail each of these aspects. It concludes with a practical application, creating an infrared camera from a webcam, and making an analysis of the images obtained with it. This will demonstrate some of the theories explained as well as the ability to recognize objects by thermography.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
Wireless sensor networks are posed as the new communication paradigm where the use of small, low-complexity, and low-power devices is preferred over costly centralized systems. The spectra of potential applications of sensor networks is very wide, ranging from monitoring, surveillance, and localization, among others. Localization is a key application in sensor networks and the use of simple, efficient, and distributed algorithms is of paramount practical importance. Combining convex optimization tools with consensus algorithms we propose a distributed localization algorithm for scenarios where received signal strength indicator readings are used. We approach the localization problem by formulating an alternative problem that uses distance estimates locally computed at each node. The formulated problem is solved by a relaxed version using semidefinite relaxation technique. Conditions under which the relaxed problem yields to the same solution as the original problem are given and a distributed consensusbased implementation of the algorithm is proposed based on an augmented Lagrangian approach and primaldual decomposition methods. Although suboptimal, the proposed approach is very suitable for its implementation in real sensor networks, i.e., it is scalable, robust against node failures and requires only local communication among neighboring nodes. Simulation results show that running an additional local search around the found solution can yield performance close to the maximum likelihood estimate.
Resumo:
Como en todos los medios de transporte, la seguridad en los viajes en avión es de primordial importancia. Con los aumentos de tráfico aéreo previstos en Europa para la próxima década, es evidente que el riesgo de accidentes necesita ser evaluado y monitorizado cuidadosamente de forma continúa. La Tesis presente tiene como objetivo el desarrollo de un modelo de riesgo de colisión exhaustivo como método para evaluar el nivel de seguridad en ruta del espacio aéreo europeo, considerando todos los factores de influencia. La mayor limitación en el desarrollo de metodologías y herramientas de monitorización adecuadas para evaluar el nivel de seguridad en espacios de ruta europeos, donde los controladores aéreos monitorizan el tráfico aéreo mediante la vigilancia radar y proporcionan instrucciones tácticas a las aeronaves, reside en la estimación del riesgo operacional. Hoy en día, la estimación del riesgo operacional está basada normalmente en reportes de incidentes proporcionados por el proveedor de servicios de navegación aérea (ANSP). Esta Tesis propone un nuevo e innovador enfoque para evaluar el nivel de seguridad basado exclusivamente en el procesamiento y análisis trazas radar. La metodología propuesta ha sido diseñada para complementar la información recogida en las bases de datos de accidentes e incidentes, mediante la provisión de información robusta de los factores de tráfico aéreo y métricas de seguridad inferidas del análisis automático en profundidad de todos los eventos de proximidad. La metodología 3-D CRM se ha implementado en un prototipo desarrollado en MATLAB © para analizar automáticamente las trazas radar y planes de vuelo registrados por los Sistemas de Procesamiento de Datos Radar (RDP) e identificar y analizar todos los eventos de proximidad (conflictos, conflictos potenciales y colisiones potenciales) en un periodo de tiempo y volumen del espacio aéreo. Actualmente, el prototipo 3-D CRM está siendo adaptado e integrado en la herramienta de monitorización de prestaciones de Aena (PERSEO) para complementar las bases de accidentes e incidentes ATM y mejorar la monitorización y proporcionar evidencias de los niveles de seguridad. ABSTRACT As with all forms of transport, the safety of air travel is of paramount importance. With the projected increases in European air traffic in the next decade and beyond, it is clear that the risk of accidents needs to be assessed and carefully monitored on a continuing basis. The present thesis is aimed at the development of a comprehensive collision risk model as a method of assessing the European en-route risk, due to all causes and across all dimensions within the airspace. The major constraint in developing appropriate monitoring methodologies and tools to assess the level of safety in en-route airspaces where controllers monitor air traffic by means of radar surveillance and provide aircraft with tactical instructions lies in the estimation of the operational risk. The operational risk estimate normally relies on incident reports provided by the air navigation service providers (ANSPs). This thesis proposes a new and innovative approach to assessing aircraft safety level based exclusively upon the process and analysis of radar tracks. The proposed methodology has been designed to complement the information collected in the accident and incident databases, thereby providing robust information on air traffic factors and safety metrics inferred from the in depth assessment of proximate events. The 3-D CRM methodology is implemented in a prototype tool in MATLAB © in order to automatically analyze recorded aircraft tracks and flight plan data from the Radar Data Processing systems (RDP) and identify and analyze all proximate events (conflicts, potential conflicts and potential collisions) within a time span and a given volume of airspace. Currently, the 3D-CRM prototype is been adapted and integrated in AENA’S Performance Monitoring Tool (PERSEO) to complement the information provided by the ATM accident and incident databases and to enhance monitoring and providing evidence of levels of safety.