985 resultados para neuropeptide Y-Y1 receptor
Resumo:
Hoy en día, el desarrollo tecnológico en el campo de los sistemas inteligentes de transporte (ITS por sus siglas en inglés) ha permitido dotar a los vehículos con diversos sistemas de ayuda a la conducción (ADAS, del inglés advanced driver assistance system), mejorando la experiencia y seguridad de los pasajeros, en especial del conductor. La mayor parte de estos sistemas están pensados para advertir al conductor sobre ciertas situaciones de riesgo, como la salida involuntaria del carril o la proximidad de obstáculos en el camino. No obstante, también podemos encontrar sistemas que van un paso más allá y son capaces de cooperar con el conductor en el control del vehículo o incluso relegarlos de algunas tareas tediosas. Es en este último grupo donde se encuentran los sistemas de control electrónico de estabilidad (ESP - Electronic Stability Program), el antibloqueo de frenos (ABS - Anti-lock Braking System), el control de crucero (CC - Cruise Control) y los más recientes sistemas de aparcamiento asistido. Continuando con esta línea de desarrollo, el paso siguiente consiste en la supresión del conductor humano, desarrollando sistemas que sean capaces de conducir un vehículo de forma autónoma y con un rendimiento superior al del conductor. En este trabajo se presenta, en primer lugar, una arquitectura de control para la automatización de vehículos. Esta se compone de distintos componentes de hardware y software, agrupados de acuerdo a su función principal. El diseño de la arquitectura parte del trabajo previo desarrollado por el Programa AUTOPIA, aunque introduce notables aportaciones en cuanto a la eficiencia, robustez y escalabilidad del sistema. Ahondando un poco más en detalle, debemos resaltar el desarrollo de un algoritmo de localización basado en enjambres de partículas. Este está planteado como un método de filtrado y fusión de la información obtenida a partir de los distintos sensores embarcados en el vehículo, entre los que encontramos un receptor GPS (Global Positioning System), unidades de medición inercial (IMU – Inertial Measurement Unit) e información tomada directamente de los sensores embarcados por el fabricante, como la velocidad de las ruedas y posición del volante. Gracias a este método se ha conseguido resolver el problema de la localización, indispensable para el desarrollo de sistemas de conducción autónoma. Continuando con el trabajo de investigación, se ha estudiado la viabilidad de la aplicación de técnicas de aprendizaje y adaptación al diseño de controladores para el vehículo. Como punto de partida se emplea el método de Q-learning para la generación de un controlador borroso lateral sin ningún tipo de conocimiento previo. Posteriormente se presenta un método de ajuste on-line para la adaptación del control longitudinal ante perturbaciones impredecibles del entorno, como lo son los cambios en la inclinación del camino, fricción de las ruedas o peso de los ocupantes. Para finalizar, se presentan los resultados obtenidos durante un experimento de conducción autónoma en carreteras reales, el cual se llevó a cabo en el mes de Junio de 2012 desde la población de San Lorenzo de El Escorial hasta las instalaciones del Centro de Automática y Robótica (CAR) en Arganda del Rey. El principal objetivo tras esta demostración fue validar el funcionamiento, robustez y capacidad de la arquitectura propuesta para afrontar el problema de la conducción autónoma, bajo condiciones mucho más reales a las que se pueden alcanzar en las instalaciones de prueba. ABSTRACT Nowadays, the technological advances in the Intelligent Transportation Systems (ITS) field have led the development of several driving assistance systems (ADAS). These solutions are designed to improve the experience and security of all the passengers, especially the driver. For most of these systems, the main goal is to warn drivers about unexpected circumstances leading to risk situations such as involuntary lane departure or proximity to other vehicles. However, other ADAS go a step further, being able to cooperate with the driver in the control of the vehicle, or even overriding it on some tasks. Examples of this kind of systems are the anti-lock braking system (ABS), cruise control (CC) and the recently commercialised assisted parking systems. Within this research line, the next step is the development of systems able to replace the human drivers, improving the control and therefore, the safety and reliability of the vehicles. First of all, this dissertation presents a control architecture design for autonomous driving. It is made up of several hardware and software components, grouped according to their main function. The design of this architecture is based on the previous works carried out by the AUTOPIA Program, although notable improvements have been made regarding the efficiency, robustness and scalability of the system. It is also remarkable the work made on the development of a location algorithm for vehicles. The proposal is based on the emulation of the behaviour of biological swarms and its performance is similar to the well-known particle filters. The developed method combines information obtained from different sensors, including GPS, inertial measurement unit (IMU), and data from the original vehicle’s sensors on-board. Through this filtering algorithm the localization problem is properly managed, which is critical for the development of autonomous driving systems. The work deals also with the fuzzy control tuning system, a very time consuming task when done manually. An analysis of learning and adaptation techniques for the development of different controllers has been made. First, the Q-learning –a reinforcement learning method– has been applied to the generation of a lateral fuzzy controller from scratch. Subsequently, the development of an adaptation method for longitudinal control is presented. With this proposal, a final cruise control controller is able to deal with unpredictable environment disturbances, such as road slope, wheel’s friction or even occupants’ weight. As a testbed for the system, an autonomous driving experiment on real roads is presented. This experiment was carried out on June 2012, driving from San Lorenzo de El Escorial up to the Center for Automation and Robotics (CAR) facilities in Arganda del Rey. The main goal of the demonstration was validating the performance, robustness and viability of the proposed architecture to deal with the problem of autonomous driving under more demanding conditions than those achieved on closed test tracks.
Resumo:
Durante las últimas décadas, científicos e ingenieros han desarrollado un gran esfuerzo en la comprensión por los temas relacionados con el impacto entre cuerpos sólidos. La complejidad del desarrollo teórico y el desconocimiento acerca del comportamiento real de los materiales en problemas de carga rápida ha limitado tradicionalmente los problemas de impacto a geometrías muy concretas de los cuerpos incidentes, sin embargo, la evolución de la velocidad en los ordenadores y las mejoras en los métodos y elementos de instrumentación han aumentado el alcance y la fiabilidad de los datos experimentales y consecuentemente han sido un nuevo impulso en el estudio en este campo. El enfoque actual de las normativas basado en el análisis de riesgos permite la posibilidad de abordar la seguridad estructural a través de modelos explícitos, en los que las variables básicas del problema se definen de forma estadística y la seguridad se fija en función de probabilidades de fallo frente a los estados límite. Los métodos de fiabilidad estructural deben ser capaces de analizar toda la información estadística; es habitual el uso del método de Montecarlo, superficie de respuesta, estimaciones puntuales, nivel 11, etc. y en todos ellos es fundamental el conocimiento de un procedimiento determinista que permita evaluar el grado de cumplimiento de los estados límite. En ésta presentación se entra directamente en los modelos deterministas de cálculo, obviando el estudio estadístico más propio de un capítulo destinado a la fiabilidad estructural. Para ello, se han recogido unas ideas acerca de cómo se aborda el problema del impacto de una forma tradicional, se comienza con los choques elásticos e inelásticos de cuerpos rígidos. Los cuerpos rígidos dan paso a cuerpos elásticos donde la colisión genera una onda que recorre el cuerpo a una velocidad finita que se refleja en los contornos generando una vibración y en consecuencia una pérdida de energía en el choque. Posteriormente se abordará el impacto con materiales plásticos donde parte de la energía se transforma en la deformación permanente. Las explosiones pueden ser tratadas de forma análoga al impacto, ya que poseen la misma característica de cargas rápidas y son consideradas solicitaciones accidentales. La diferencia fundamental se centra en que los impactos requieren la existencia de dos cuerpos mientras que las explosiones sólo requieren un receptor y es el medio transmisor, generalmente el aire, quien transmite la solicitación mediante una onda de presión. En este artículo se comentan diferentes aspectos de la naturaleza de la solicitación y de su efecto sobre las estructuras.
Resumo:
La presente Tesis analiza las posibilidades que ofrecen en la actualidad las tecnologías del habla para la detección de patologías clínicas asociadas a la vía aérea superior. El estudio del habla que tradicionalmente cubre tanto la producción como el proceso de transformación del mensaje y las señales involucradas, desde el emisor hasta alcanzar al receptor, ofrece una vía de estudio alternativa para estas patologías. El hecho de que la señal emitida no solo contiene este mensaje, sino también información acerca del locutor, ha motivado el desarrollo de sistemas orientados a la identificación y verificación de la identidad de los locutores. Estos trabajos han recibido recientemente un nuevo impulso, orientándose tanto hacia la caracterización de rasgos que son comunes a varios locutores, como a las diferencias existentes entre grabaciones de un mismo locutor. Los primeros resultan especialmente relevantes para esta Tesis dado que estos rasgos podrían evidenciar la presencia de características relacionadas con una cierta condición común a varios locutores, independiente de su identidad. Tal es el caso que se enfrenta en esta Tesis, donde los rasgos identificados se relacionarían con una de la patología particular y directamente vinculada con el sistema de físico de conformación del habla. El caso del Síndrome de Apneas Hipopneas durante el Sueno (SAHS) resulta paradigmático. Se trata de una patología con una elevada prevalencia mundo, que aumenta con la edad. Los pacientes de esta patología experimentan episodios de cese involuntario de la respiración durante el sueño, que se prolongan durante varios segundos y que se reproducen a lo largo de la noche impidiendo el correcto descanso. En el caso de la apnea obstructiva, estos episodios se deben a la imposibilidad de mantener un camino abierto a través de la vía aérea, de forma que el flujo de aire se ve interrumpido. En la actualidad, el diagnostico de estos pacientes se realiza a través de un estudio polisomnográfico, que se centra en el análisis de los episodios de apnea durante el sueño, requiriendo que el paciente permanezca en el hospital durante una noche. La complejidad y el elevado coste de estos procedimientos, unidos a las crecientes listas de espera, han evidenciado la necesidad de contar con técnicas rápidas de detección, que si bien podrían no obtener tasas tan elevadas, permitirían reorganizar las listas de espera en función del grado de severidad de la patología en cada paciente. Entre otros, los sistemas de diagnostico por imagen, así como la caracterización antropométrica de los pacientes, han evidenciado la existencia de patrones anatómicos que tendrían influencia directa sobre el habla. Los trabajos dedicados al estudio del SAHS en lo relativo a como esta afecta al habla han sido escasos y algunos de ellos incluso contradictorios. Sin embargo, desde finales de la década de 1980 se conoce la existencia de patrones específicos relativos a la articulación, la fonación y la resonancia. Sin embargo, su descripción resultaba difícilmente aprovechable a través de un sistema de reconocimiento automático, pero apuntaba la existencia de un nexo entre voz y SAHS. En los últimos anos las técnicas de procesado automático han permitido el desarrollo de sistemas automáticos que ya son capaces de identificar diferencias significativas en el habla de los pacientes del SAHS, y que los distinguen de los locutores sanos. Por contra, poco se conoce acerca de la conexión entre estos nuevos resultados, los sé que habían obtenido en el pasado y la patogénesis del SAHS. Esta Tesis continua la labor desarrollada en este ámbito considerando específicamente: el estudio de la forma en que el SAHS afecta el habla de los pacientes, la mejora en las tasas de clasificación automática y la combinación de la información obtenida con los predictores utilizados por los especialistas clínicos en sus evaluaciones preliminares. Las dos primeras tareas plantean problemas simbióticos, pero diferentes. Mientras el estudio de la conexión entre el SAHS y el habla requiere de modelos acotados que puedan ser interpretados con facilidad, los sistemas de reconocimiento se sirven de un elevado número de dimensiones para la caracterización y posterior identificación de patrones. Así, la primera tarea debe permitirnos avanzar en la segunda, al igual que la incorporación de los predictores utilizados por los especialistas clínicos. La Tesis aborda el estudio tanto del habla continua como del habla sostenida, con el fin de aprovechar las sinergias y diferencias existentes entre ambas. En el análisis del habla continua se tomo como punto de partida un esquema que ya fue evaluado con anterioridad, y sobre el cual se ha tratado la evaluación y optimización de la representación del habla, así como la caracterización de los patrones específicos asociados al SAHS. Ello ha evidenciado la conexión entre el SAHS y los elementos fundamentales de la señal de voz: los formantes. Los resultados obtenidos demuestran que el éxito de estos sistemas se debe, fundamentalmente, a la capacidad de estas representaciones para describir dichas componentes, obviando las dimensiones ruidosas o con poca capacidad discriminativa. El esquema resultante ofrece una tasa de error por debajo del 18%, sirviéndose de clasificadores notablemente menos complejos que los descritos en el estado del arte y de una única grabación de voz de corta duración. En relación a la conexión entre el SAHS y los patrones observados, fue necesario considerar las diferencias inter- e intra-grupo, centrándonos en la articulación característica del locutor, sustituyendo los complejos modelos de clasificación por el estudio de los promedios espectrales. El resultado apunta con claridad hacia ciertas regiones del eje de frecuencias, sugiriendo la existencia de un estrechamiento sistemático en la sección del tracto en la región de la orofaringe, ya prevista en la patogénesis de este síndrome. En cuanto al habla sostenida, se han reproducido los estudios realizados sobre el habla continua en grabaciones de la vocal /a/ sostenida. Los resultados son cualitativamente análogos a los anteriores, si bien en este caso las tasas de clasificación resultan ser más bajas. Con el objetivo de identificar el sentido de este resultado se reprodujo el estudio de los promedios espectrales y de la variabilidad inter e intra-grupo. Ambos estudios mostraron importantes diferencias con los anteriores que podrían explicar estos resultados. Sin embargo, el habla sostenida ofrece otras oportunidades al establecer un entorno controlado para el estudio de la fonación, que también había sido identificada como una fuente de información para la detección del SAHS. De su estudio se pudo observar que, en el conjunto de datos disponibles, no existen variaciones que pudieran asociarse fácilmente con la fonación. Únicamente aquellas dimensiones que describen la distribución de energía a lo largo del eje de frecuencia evidenciaron diferencias significativas, apuntando, una vez más, en la dirección de las resonancias espectrales. Analizados los resultados anteriores, la Tesis afronta la fusión de ambas fuentes de información en un único sistema de clasificación. Con ello es posible mejorar las tasas de clasificación, bajo la hipótesis de que la información presente en el habla continua y el habla sostenida es fundamentalmente distinta. Esta tarea se realizo a través de un sencillo esquema de fusión que obtuvo un 88.6% de aciertos en clasificación (tasa de error del 11.4%), lo que representa una mejora significativa respecto al estado del arte. Finalmente, la combinación de este clasificador con los predictores utilizados por los especialistas clínicos ofreció una tasa del 91.3% (tasa de error de 8.7%), que se encuentra dentro del margen ofrecido por esquemas más costosos e intrusivos, y que a diferencia del propuesto, no pueden ser utilizados en la evaluación previa de los pacientes. Con todo, la Tesis ofrece una visión clara sobre la relación entre el SAHS y el habla, evidenciando el grado de madurez alcanzado por la tecnología del habla en la caracterización y detección del SAHS, poniendo de manifiesto que su uso para la evaluación de los pacientes ya sería posible, y dejando la puerta abierta a futuras investigaciones que continúen el trabajo aquí iniciado. ABSTRACT This Thesis explores the potential of speech technologies for the detection of clinical disorders connected to the upper airway. The study of speech traditionally covers both the production process and post processing of the signals involved, from the speaker up to the listener, offering an alternative path to study these pathologies. The fact that utterances embed not just the encoded message but also information about the speaker, has motivated the development of automatic systems oriented to the identification and verificaton the speaker’s identity. These have recently been boosted and reoriented either towards the characterization of traits that are common to several speakers, or to the differences between records of the same speaker collected under different conditions. The first are particularly relevant to this Thesis as these patterns could reveal the presence of features that are related to a common condition shared among different speakers, regardless of their identity. Such is the case faced in this Thesis, where the traits identified would relate to a particular pathology, directly connected to the speech production system. The Obstructive Sleep Apnea syndrome (OSA) is a paradigmatic case for analysis. It is a disorder with high prevalence among adults and affecting a larger number of them as they grow older. Patients suffering from this disorder experience episodes of involuntary cessation of breath during sleep that may last a few seconds and reproduce throughout the night, preventing proper rest. In the case of obstructive apnea, these episodes are related to the collapse of the pharynx, which interrupts the air flow. Currently, OSA diagnosis is done through a polysomnographic study, which focuses on the analysis of apnea episodes during sleep, requiring the patient to stay at the hospital for the whole night. The complexity and high cost of the procedures involved, combined with the waiting lists, have evidenced the need for screening techniques, which perhaps would not achieve outstanding performance rates but would allow clinicians to reorganize these lists ranking patients according to the severity of their condition. Among others, imaging diagnosis and anthropometric characterization of patients have evidenced the existence of anatomical patterns related to OSA that have direct influence on speech. Contributions devoted to the study of how this disorder affects scpeech are scarce and somehow contradictory. However, since the late 1980s the existence of specific patterns related to articulation, phonation and resonance is known. By that time these descriptions were virtually useless when coming to the development of an automatic system, but pointed out the existence of a link between speech and OSA. In recent years automatic processing techniques have evolved and are now able to identify significant differences in the speech of OSAS patients when compared to records from healthy subjects. Nevertheless, little is known about the connection between these new results with those published in the past and the pathogenesis of the OSA syndrome. This Thesis is aimed to progress beyond the previous research done in this area by addressing: the study of how OSA affects patients’ speech, the enhancement of automatic OSA classification based on speech analysis, and its integration with the information embedded in the predictors generally used by clinicians in preliminary patients’ examination. The first two tasks, though may appear symbiotic at first, are quite different. While studying the connection between speech and OSA requires simple narrow models that can be easily interpreted, classification requires larger models including a large number dimensions for the characterization and posterior identification of the observed patterns. Anyhow, it is clear that any progress made in the first task should allow us to improve our performance on the second one, and that the incorporation of the predictors used by clinicians shall contribute in this same direction. The Thesis considers both continuous and sustained speech analysis, to exploit the synergies and differences between them. On continuous speech analysis, a conventional speech processing scheme, designed and evaluated before this Thesis, was taken as a baseline. Over this initial system several alternative representations of the speech information were proposed, optimized and tested to select those more suitable for the characterization of OSA-specific patterns. Evidences were found on the existence of a connection between OSA and the fundamental constituents of the speech: the formants. Experimental results proved that the success of the proposed solution is well explained by the ability of speech representations to describe these specific OSA-related components, ignoring the noisy ones as well those presenting low discrimination capabilities. The resulting scheme obtained a 18% error rate, on a classification scheme significantly less complex than those described in the literature and operating on a single speech record. Regarding the connection between OSA and the observed patterns, it was necessary to consider inter-and intra-group differences for this analysis, and to focus on the articulation, replacing the complex classification models by the long-term average spectra. Results clearly point to certain regions on the frequency axis, suggesting the existence of a systematic narrowing in the vocal tract section at the oropharynx. This was already described in the pathogenesis of this syndrome. Regarding sustained speech, similar experiments as those conducted on continuous speech were reproduced on sustained phonations of vowel / a /. Results were qualitatively similar to the previous ones, though in this case perfomance rates were found to be noticeably lower. Trying to derive further knowledge from this result, experiments on the long-term average spectra and intraand inter-group variability ratios were also reproduced on sustained speech records. Results on both experiments showed significant differences from the previous ones obtained from continuous speech which could explain the differences observed on peformance. However, sustained speech also provided the opportunity to study phonation within the controlled framework it provides. This was also identified in the literature as a source of information for the detection of OSA. In this study it was found that, for the available dataset, no sistematic differences related to phonation could be found between the two groups of speakers. Only those dimensions which relate energy distribution along the frequency axis provided significant differences, pointing once again towards the direction of resonant components. Once classification schemes on both continuous and sustained speech were developed, the Thesis addressed their combination into a single classification system. Under the assumption that the information in continuous and sustained speech is fundamentally different, it should be possible to successfully merge the two of them. This was tested through a simple fusion scheme which obtained a 88.6% correct classification (11.4% error rate), which represents a significant improvement over the state of the art. Finally, the combination of this classifier with the variables used by clinicians obtained a 91.3% accuracy (8.7% error rate). This is within the range of alternative, but costly and intrusive schemes, which unlike the one proposed can not be used in the preliminary assessment of patients’ condition. In the end, this Thesis has shed new light on the underlying connection between OSA and speech, and evidenced the degree of maturity reached by speech technology on OSA characterization and detection, leaving the door open for future research which shall continue in the multiple directions that have been pointed out and left as future work.
Resumo:
La nueva legislación en materia fitosanitaria se dirige hacia una Gestión Integrada de Plagas (GIP). Estos programas dan preferencia a aquellos métodos más respetuosos y sostenibles con el medio ambiente, siendo piezas claves en ellos el control biológico, el físico y otros de carácter no químico. Sin embargo, el uso de insecticidas selectivos es a veces necesario para el adecuado manejo de plagas en cultivos hortícolas. Por ello, el objetivo general de este estudio es aportar conocimientos para mejorar el control de plagas en cultivos hortícolas, mediante la integración de tres estrategias de lucha: biológica, física y química. Una parte de este trabajo ha consistido en el estudio de los posibles efectos que mallas tratadas con insecticida (bifentrin) pudieran provocar mediante diferentes ensayos de laboratorio, invernadero y campo, en los enemigos naturales Orius laevigatus (Fieber) (Hemiptera: Anthocoridae) (depredador de trips), Nesidiocoris tenuis (Reuter) (Hemiptera: Miridae) (depredador de mosca blanca y Tuta absoluta (Meirick) (Lepidoptera: Gelechiidae)), y otros agentes de biocontrol comúnmente usados en cultivos hortícolas protegidos. Este tipo de mallas se han empleado con éxito en entomología médica para controlar mosquitos vectores de la malaria, y actualmente se está trabajando en su desarrollo para uso agrícola como método de exclusión, y método directo de control de plagas. En los ensayos realizados en laboratorio, O. laevigatus y N. tenuis no fueron capaces de detectar la presencia de bifentrin en el ensayo de preferencia. Además, no se produjo mortalidad a corto plazo (72 horas) en ambos chinches depredadores. Por el contrario, se registró una elevada mortalidad cuando se expusieron por contacto a la malla tratada durante 72 horas en cajas de dimensiones reducidas (10 cm de diámetro X 3 cm de altura). En ensayos llevados a cabo bajo condiciones más reales de exposición, en un invernadero experimental con jaulas de 25 X 25 X 60 cm de altura, no se produjo ningún efecto en la mortalidad a corto plazo (72 horas) o en los parámetros reproductivos de O. laevigatus y N. tenuis. Finalmente, en ensayos de campo realizados en túneles semi-comerciales (8 m de largo X 6,5 m de ancho X 2,6 m de altura), ni las condiciones ambientales [temperatura, humedad relativa, radiación ultravioleta (UV) y fotosintéticamente activa (PAR)], ni los enemigos naturales, se vieron afectados por la presencia de la malla tratada con bifentrin en el cultivo. Sin embargo, los resultados no fueron concluyentes, debido al bajo establecimiento de los agentes de biocontrol liberados. Por lo tanto, más estudios son necesarios en invernaderos comerciales para confirmar los resultados preliminares de compatibilidad. Además, en este trabajo se han evaluado los efectos letales (mortalidad) y subletales (parámetros reproductivos) de seis modernos insecticidas sobre los chinches depredadores O. laevigatus y N. tenuis, mediante ensayos de laboratorio y persistencia. Los ensayos se realizaron por contacto residual, aplicando los insecticidas a la dosis máxima de campo sobre placas de cristal (laboratorio) o plantas (persistencia). Los productos fitosanitarios se seleccionaron por representar a un grupo de modernos plaguicidas con modos de acción en principio más selectivos para los enemigos naturales que antiguos plaguicidas como organoclorados, oroganofosforados o carbamatos, y por su uso frecuente en cultivos hortícolas donde O. laevigatus y N. tenuis están presentes. Todos ellos están incluidos o en proceso de inclusión en la lista comunitaria de sustancias activas para uso agrícola, Anexo I de la Directiva 91/414/CEE: abamectina y emamectina (avermectinas neurotóxicas, activadoras del canal del cloro), deltametrina (piretroide neurotóxico, modulador del canal del sodio, control positivo), flubendiamida (neurotóxico, modulador del receptor de rianodina), spinosad (naturalito neurotóxico, agonistas/antagonistas del receptor de nicotínico acetilcolina) y spiromesifen (inhibidor de la acetil CoA carboxilasa). El estudio mostró que O. laevigatus fue más susceptible a los insecticidas que N. tenuis. Además, los resultados revelaron que flubendiamida y spiromesifen fueron compatibles con los dos enemigos naturales estudiados, y por tanto se podrían usar en programas de GIP. Por el contrario, los insecticidas abamectina, deltametrina, emamectina y spinosad no fueron selectivos para ninguno de los chinches depredadores. Sin embargo, los estudios de persistencia demostraron que a pesar de que estos insecticidas no proporcionaron selectividad fisiológica, pueden proporcionar selectividad ecológica en algunos casos. Abamectina, deltametrina, emamectina y spinosad podrían ser compatibles con N. tenuis si el enemigo natural es introducido en el cultivo 4 días después de su aplicación. En el caso de O. laevigatus, abamectina, deltametrina y spinosad se clasificaron como persistentes, por lo tanto es necesario completar el estudio con experimentos de semi-campo y campo que determinen si es posible su uso conjunto en programas de GIP. Por otro lado, emamectina podría ser compatible con O. laevigatus si el enemigo natural es introducido en el cultivo 7 días después de su aplicación. Por último, se ha comprobado la selectividad de tres insecticidas aceleradores de la muda (MACs) (metoxifenocida, tebufenocida y RH-5849) sobre O. laevigatus y N. tenuis. Además de realizar estudios para evaluar la toxicidad en laboratorio de los insecticidas por contacto residual e ingestión (principal modo de acción de los MAC´s), se extrajo RNA de los insectos y con el cDNA obtenido se secuenció y clonó el dominio de unión al ligando (LBD) del receptor de ecdisona correspondiente a O. laevigatus (OlEcR-LBD) y N. tenuis (NtEcR-LBD). Posteriormente, se obtuvo la configuración en tres dimensiones del LBD y se estudió el acoplamiento de las moléculas de los tres insecticidas en la cavidad que forman las 12 α-hélices que constituyen el EcR-LBD. En el caso de N. tenuis se debe mencionar que no fue posible la obtención de la secuencia completa del LBD. Sin embargo, se obtuvo una secuencia parcial (hélice 6-hélice 11), que mostró una alta conservación de aminoácidos con respecto a la obtenida en O. laevigatus. Los ensayos de toxicidad mostraron que metoxifenocida, tebufenocida y RH-5849 no produjeron ningún efecto nocivo en ambos depredadores. Además, los estudios de modelado por homología y acoplamiento molecular llevados a cabo con O. laevigatus, también indicaron que los MACs no produjeron ningún efecto deletéreo en este enemigo natural. Por lo tanto, estos compuestos pueden ser aplicados de manera segura en programas de GIP en los cuales O. laevigatus y N. tenuis estén presentes. ABSTRACT The new pesticide legislation on pest control is aimed at integrated pest management (IPM). These programs are based on the most environmentally sustainable approaches, where biological, physical control and other non-chemical methods are the cornerstone. However, selective pesticides are often required for pest management on horticultural crops. Therefore, the main goal of this study is to provide knowledge to improve pest control on horticultural crops through the integration of three strategies: biological, physical and chemical. Firstly, the effects of insecticide treated nets (bifenthrin) were evaluated in different laboratory, greenhouse and field experiments on the natural enemies Orius laevigatus (Fieber) (Hemiptera: Anthocoridae) (predator of thrips), Nesidiocoris tenuis (Reuter) (Hemiptera: Miridae) (predator of whiteflies and Tuta absoluta (Meirick) (Lepidoptera: Gelechiidae)), and other biocontrol agents commonly used on protected horticultural crops. These types of nets have been successfully used in medical entomology to control mosquito malaria vectors, and work is currently being done on their use as exclusion barriers and as a direct method of pest control in agriculture. In experiments made under laboratory conditions, O. laevigatus and N. tenuis were not able to detect the presence of bifenthrin in a dual-choice test. Furthermore, no shortterm mortality (72 hours) was recorded on both predatory bugs. In contrast, a high mortality rate was found when they were exposed by contact to the bifenthrin-treated net for 72 hours in small cages (10 cm diameter X 3 cm high). In assays carried out under more realistic conditions of exposure, in an experimental greenhouse with cages of 25 X 25 X 60 cm high, short-term mortality (72 hours) and reproductive parameters were not affected. Lastly, in field experiments carried out in semi-commercial tunnels (8 m long X 6.5 m width X 2.6 m high), neither environmental conditions [temperature, relative humidity, ultraviolet (UV) and photosynthetically active radiation (PAR)] nor natural enemies were affected by the presence of the bifenthrin-treated net on the crop. However, results were not conclusive, mainly due to a low settlement of the released biocontrol agents, and further studies are needed in commercial greenhouses to confirm our preliminary results of compatibility. Secondly, the lethal (mortality) and sublethal effects (reproductive parameters) of six modern pesticides on the predatory bugs O. laevigatus and N. tenuis has been evaluated through laboratory and persistence experiments. Trials were carried out by residual contact, applying the insecticides to the maximum field recommended concentration on glass plates (laboratory) or plants (persistence). Insecticides were chosen as representatives of modern pesticides with a more selective mode of action on natural enemies than organochlorine, organophosphorus and carbamate insecticides. Moreover, they were also chosen because of their frequent use on horticultural crops where O. laevigatus and N. tenuis are present. All of them have been included or have been requested for inclusion in the community list of active substances on the agricultural market, Annex I of the European Directive 91/414/EEC: abamectin and emamectin (neurotoxic avermectins, chloride channel activators), deltamethrin (neutotoxic pyrethroid, sodium channel modulator, positive commercial standard), flubendiamide (neurotoxic, rianodine receptor modulator), spinosad (neurotoxic naturalyte, nicotinic acetylcholine receptor allosteric activator) and spiromesifen (inhibitors of acetyl CoA carboxylase). The study showed that O. laevigatus was more susceptible to all the studied pesticides than N. tenuis. In addition, the research results indicated no impact of flubendiamide and spiromesifen on the two natural enemies studied under laboratory conditions. Consequently, both pesticides are candidates to be included in IPM programmes where these biocontrol agents are present. On the other hand, abamectin, deltamethrin, emamectin and spinosad were not selective for both predatory bugs in laboratory experiments. However, persistence test demonstrated that in spite of the lack of physiological selectivity, these pesticides can provide ecological selectivity in some cases. Abamectin, deltamethrin, emamectin and spinosad could be compatible with N. tenuis if the mirid bug is released 4 days after the insecticide treatment on the crop. With regard to O. laevigatus, abamectin, deltamethrin and spinosad were classified as persistent in our assays, thus the study should be completed with semi-field and field experiments in order to ascertain their possible joint use in IPM programs. In contrast, emamectin could be compatible with O. laevigatus if the pirate bug is released 7 days after the insecticide treatment on the crop. Finally, the selectivity of three moulting accelerating compounds (MACs) (methoxyfenozide, tebufenozide and RH-5849) has also been evaluated on O. laevigatus and N. tenuis. In addition to laboratory experiments to evaluate the toxicity of the insecticides by residual contact and ingestion, molecular approaches were used as well. RNA of both insects was isolated, cDNA was subsequently synthesized and the complete sequence of the ligand binding domain (LBD) of the ecdysone receptor of O. laevigatus (OlEcR-LBD) and N. tenuis (NtEcR-LBD) were determined. Afterwards, the three dimensional structure of LBD was constructed. Finally, the docking of the insecticide molecules in the cavity delineated by the 12 α-helix that composed the EcRLBD was performed. In the case of N. tenuis, it should be noted that in spite of intensive efforts, we did not manage to complete the sequence for the LBD.However, a partial sequence of the LBD was obtained (helix 6-helix 11), and a strong conservation between the amino acids of N. tenuis and O. laevigatus was observed. Results showed no biological activity of methoxyfenozide, tebufenozide and RH-5849, on both predatory bugs. Moreover, modeling of the OlEcR-LBD and docking experiments also suggested that MACs were devoid of any deleterious effect on O. laevigatus. Therefore, our results indicate that these compounds could be safely applied in IPM programs in which O. laevigatus and N. tenuis are present.
Resumo:
Sign.: [ ]2, A2-X2, Y1
Resumo:
El ciclo térmico natural de la célula y receptores en módulos CPV (Concentrated PhotoVoltaic) es considerado un punto débil en la operación de campo real de estos dispositivos, así como la fluctuación entre valores altos y bajos de niveles de irradiancia incidente en la célula, comúnmente causadas por nubes, produce un estrés termo-mecánico que puede ser motivo de fallo. La normativa IEC 6218 ha tenido en cuenta esta serie de problemas a la hora de diseñar una norma de calificación y homologación para módulos CPV. En concreto, este proyecto se va a basar en el test denominado "Thermal cycling test" que realiza un ciclo térmico en la base de la célula mientras se le inyectan pulsos de corriente. Sin embargo, este método produce un nivel de estrés un 50% menor que el estrés real en condiciones nominales. En este proyecto se diseña e implementa la máquina LYSS (Light cYcling Stress Source) que trata de realizar dos tipos de ciclos basados en el definido en la IEC 62108 con la variación de utilizar pulsos de luz directa a muy alta irradiancia focalizada en la parte activa de la célula en lugar de los pulsos de corriente mencionados. Con este método se pretende acelerar el proceso de degradación en la célula de manera que en tan solo 2 meses se pueda producir la misma que en 30 años de vida útil de la célula. En el primer tipo de ciclo la temperatura permanece constante durante la ejecución de los pulsos de luz y, en el segundo se realiza un ciclo térmico que varía entre una temperatura mínima y otra máxima durante estos pulsos. Además, se establece un criterio de fallo basado en la estimación de la resistencia serie de la célula a partir de los valores de su curva característica IV en condiciones de oscuridad. La metodología del proyecto realizado consiste en realizar un estudio detallado para identificar los componentes necesarios para construir la máquina, adquirirlos, llevar a cabo el montaje de éstos para que la máquina pueda implementar los ciclos diseñados, realizar los experimentos necesarios para caracterizar los diferentes dispositivos que componen la máquina, programar una aplicación de control, monitorización y adquisición de datos que comande la máquina, realizar una serie de pruebas basadas en uno de los ciclos térmico-luminosos diseñados a receptores solares de concentración reales y, por último, observar la degradación que se pudiera producirse en ésta conforme aumenta el número de ciclos realizados analizando su curva IV en condiciones de oscuridad y obteniendo conclusiones sobre la fiabilidad de la célula y/o el receptor CPV.
Resumo:
Texto firmado por el Clero de S. Berthomeu, lo prior
Resumo:
El proyecto trata de realizar una comparativa de dos metodologías mediante la realización de un inventario, una metodología clásica como es la metodología GNSS y la metodología Mobile Mapping. El inventario se realiza en tres escenarios distintos, un escenario es una zona verde, una zona urbana y una zona interurbana. La zona verde es el Parque Central de Tres Cantos, la zona urbano es una zona de viviendas unifamiliares deTres Cantos y la zona interurbana es tramo de la carretera M-618 que une los municipios de Colmenar Viejo y Hoyo de manzanares. Para la metodología GNSS se ha utilizado un receptor GRS-1 y para la metodología Mobile Mapping se ha utilizado el sistema IP-S2 Compact+. Con la realización de este inventario se pretende poder comparar los posibles casos que hay en tres escenarios distintos, estudiando los tiempos que se tarda en realizar un inventario con cada metodología, así como los costes que suponen. Los datos obtenidos por cada equipo se exportan en fichero Shapfile para poder abrirlos en ArcGIS y así poder realizar la comparativa. Para finalizar el proyecto y con los conocimientos adquiridos en esta materia se obtienen una conclusiones referidas al trabajo realizado con cada equipo.
Resumo:
Los sistemas de telealimentación han tomado gran importancia en diferentes campos, incluido el de las telecomunicaciones, algunos ejemplos pueden ser: En la red conmutada telefónica junto con la señal de información y llamada existe una alimentación de 48v que se transmite a través de toda la línea de transmisión hasta los terminales. En algunos ferrocarriles eléctricos, se aprovecha la producción de energía eléctrica cuando un tren baja una cuesta y el motor funciona como generador, devolviendo la energía excedente a la propia catenaria por medio de superposición, y siendo esta recuperada en otro lugar y aprovechada por ejemplo por otro tren que requiere energía. Otro uso en ferrocarriles de la telealimentación es la llamada "tecnología del transpondedor magnético", en la que el tren transmite a las balizas una señal en 27MHz además de otras de información propias, que se convierte en energía útil para estas balizas. En este proyecto pretendemos implementar un pequeño ejemplo de sistema de telealimentación trabajando en 5 MHz (RF). Este sistema transforma una señal de CC en una señal de potencia de CA que podría ser, por ejemplo, transmitida a lo largo de una línea de transmisión o radiada por medio de una antena. Después, en el extremo receptor, esta señal RF se transforma finalmente en DC. El objetivo es lograr el mejor rendimiento de conversión de energía, DC a AC y AC a DC. El sistema se divide en dos partes: El inversor, que es la cadena de conversión DC-AC y el rectificador, que es la cadena de conversión AC-DC. Cada parte va a ser calculada, simulada, implementada físicamente y medida aparte. Finalmente el sistema de telealimentación completo se va a medir mediante la interconexión de cada parte por medio de un adaptador o una línea de transmisión. Por último, se mostrarán los resultados obtenidos. ABSTRACT. Remote powering systems have become very important in different fields, including telecommunications, some examples include: In the switched telephone network with the information signal and call there is a 48v supply that is transmitted across the transmission line to the terminals. In some electric railways, the production of electrical energy is used when a train is coming down a hill and the motor acts as a generator, returning the surplus energy to the catenary itself by overlapping, and this being recovered elsewhere and used by other train. Home TV amplifiers that are located in places (storage, remote locations ..) where there is no outlet, remote power allows to carry information and power signal by the same physical medium, for instance a coax. The AC power signal is transformed into DC at the end to feed the amplifier. In medicine, photovoltaic converters and fiber optics can be used as means for feeding devices implanted in patients. Another use of the remote powering systems on railways is the "magnetic transponder technology", in which the station transmits a beacon signal at 27MHz own as well as other information, which is converted into useful energy to these beacons. In this Project we are pretending to implement a little example of remote powering system working in 5 MHz (RF). This system transform DC into an AC-RF power signal which could be, for instance, transmitted throughout a transmission line or radiated by means of an aerial. At the receiving end, this RF signal is then transformed to DC. The objective is to achieve the best power conversion performance, DC to AC and AC to DC. The system is divided in two parts: The inverter, that is the DC-AC conversion chain and the rectifier that is the AC-DC conversion chain. Each part is going to be calculated, simulated, implemented physically and measured apart. Then the complete remote-powering system is to be measured by interconnecting each part by means of a interconnector or a transmission line. Finally, obtained results will be shown.
Diseño de algoritmos de guerra electrónica y radar para su implementación en sistemas de tiempo real
Resumo:
Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.
Resumo:
El objetivo de este trabajo fin de grado (TFG) consiste en estudiar algunas técnicas de análisis tiempo-frecuencia y aplicarlas a la detección de señales radar. Estas técnicas se incorporan en los actuales equipos de guerra electrónica radar, tales como los interceptadores digitales. La principal motivación de estos equipos consiste en detectar y localizar las fuentes radiantes enemigas e intentar obtener cierta información de las señales interceptadas, tal como, la dirección de llegada (DOA, Direction Of Arrival), el tiempo de llegada (TOA, Time Of Arrival), amplitud de pulso (PA, Pulse Amplitude), anchura de pulso (PW, Pulse Width), frecuencia instantánea (IF, Instantaneous Frequency) o modulación intrapulso. Se comenzará con un estudio detallado de la Short-Time Fourier Transform (STFT),dado su carácter lineal es la técnica más explotada actualmente. Este algoritmo presenta una mala resolución conjunta tiempo-frecuencia. Este hecho provoca el estudio complementario de una segunda técnica de análisis basada en la distribución de Wigner-Ville (WVD). Mediante este método se logra una resolución optima tiempo-frecuencia. A cambio, se obtienen términos cruzados indeseados debido a su carácter cuadrático. Uno de los objetivos de este TFG reside en calcular la sensibilidad de los sistemas de detección analizados a partir de las técnicas tiempo-frecuencia. Se hará uso del método de Monte Carlo para estimar ciertos parámetros estadísticos del sistema tales como la probabilidad de falsa alarma y de detección. Así mismo, se llevará a cabo el estudio completo de un receptor digital de guerra electrónica a fin de comprender el funcionamiento de todos los subsistemas que componen el conjunto (STFT/WVD, medidor instantáneo de frecuencias, procesamiento no coherente y generación de descriptores de pulso). Por último, se analizará su comportamiento frente a diferentes señales Radar (FM-lineal, BPSK, chirp o Barker). Se utilizará para ello la herramienta Matlab.
Resumo:
Este proyecto se encuadra dentro de los estudios de impacto que están produciendo en las empresas el desarrollo e incorporación de las nuevas tecnologías, y más concretamente la implantación de las aplicaciones provenientes de la denominada web 2.0. Se conoce con este nombre a las herramientas web que permiten una comunicación bidireccional, es decir, el usuario y la empresa pueden intercambiar opiniones, de manera que el usuario adquiere un nuevo papel más protagonista, presentando ideas, aclaraciones, gustos, críticas...que son tenidas en cuenta por la empresa para realizar su actividad. De esta manera se ha roto con el modelo anterior donde el usuario solo podía consultar la información de una página web, era simple receptor de la información. El objetivo de este estudio es conocer cómo las empresas están incorporando estas tecnologías 2.0 a su estrategia empresarial, y cómo términos como innovación abierta o co-creación están tomando mayor importancia en el entorno empresarial gracias a estas nuevas tecnologías. Si bien existen estudios a nivel de consultoría que generalmente aportan información sobre cuáles son las plataformas 2.0 más utilizadas en el mundo empresarial, no se han encontrado hasta ahora estudios que vinculen estas plataformas entre ellas y con la estructura empresarial, para poder definir un perfil de la organización que trabaja con ellas o el nivel de madurez de la incorporación de estas tecnologías en las organizaciones. Analizar cualitativamente estos aspectos, significa estudiar los nuevos conceptos incorporados a las tecnologías 2.0 en la empresa. Un análisis cuantitativo nos llevaría a estudiar de manera práctica que tipo de recursos y en qué cantidad se están utilizando y su vinculación con la estructura de la organización. Para ello: En una primera parte, nos centraremos en las diferentes formas en las que se puede acceder a Internet, y a continuación enfocaremos el estudio en los dispositivos móviles que nos permiten la conexión desde cualquier lugar y en cualquier instante. Con esto conseguiremos tener una situación actual del mercado de las TIC y veremos cómo las empresas han ido construyendo nuevas políticas para cambiar su estrategia con el fin de estar presentes en los nuevos dispositivos móviles y no perder cuota de mercado. Tras ello, veremos porqué conceptos como el de innovación abierta y proceso de co-creación han sido posibles gracias a la implantación de las tecnologías 2.0 en el ámbito empresarial, facilitando que la empresa y el usuario final cooperen y vayan de la mano en una misma dirección; la empresa se surte de las aportaciones que los usuarios ofrecen, y por otra parte el usuario se siente valorado por la empresa para conseguir la meta final. Es aquí donde comprobaremos la transformación que ha sufrido la empresa en sus distintos sectores departamentales (marketing, ventas, recursos humanos y atención al cliente) como consecuencia de la incorporación de las herramientas 2.0 al mundo laboral. Por todo ello, se enumerarán los distintos usos que realizan las empresas de las redes social más habituales, y además se describirán las principales herramientas y/o aplicaciones para monitorizar las redes sociales que servirán a la empresa para hacer un seguimiento de las mismas. La segunda parte del proyecto será un caso práctico y servirá para ofrecer una visión más real del estado actual de las empresas y su relación con las redes sociales. Para la recopilación de los datos se han escogido las empresas que pertenecen al sector de la “Fabricación de productos informáticos, electrónicos y ópticos”. En cuento a las redes sociales elegidas, han sido Facebook y Twitter. Este estudio práctico nos hará entender mejor el impacto directo que tienen las redes sociales en la actividad diaria de las empresas. Finalmente se realizarán una serie de consideraciones a modo de directrices que servirán para tratar de entender cómo se están utilizando las redes sociales en el entorno empresarial y cuál puede ser la manera más óptima de utilizarlas según el estudio presentado. ABSTRACT. This project is part of the impact studies arisen in companies by the development and incorporation of new technologies and, specifically, by the implementation of applications from the so-called web 2.0. That is how we call the web tools that allow bidirectional communication, this is, user and company can exchange opinions, in such a way that users acquire a leading role, submitting ideas, explanations, preferences, criticism... considered by the company when performing its activities. This way, we have broken with the previous model, where users could only check information from a web page and were simple information recipients. The objective of this study is to get to know how companies are incorporating these technologies 2.0 to their business strategy and how terms such as open innovation or co-creation are becoming more important in the business sphere thanks to these new technologies. Even if there are consulting studies that generally provide information about which are the platforms 2.0 more used in the business world, no studies have been found until now that link such platforms among them and with the business structure, in order to define a profile of the organization that works with them or the level of development of the incorporation of these technologies in the organizations. A qualitative analysis of these aspects involves studying the new concepts incorporated to technologies 2.0 by companies. A qualitative analysis would lead us to study in a practical manner what kind of resources and what amount are being used and their relation with the organization structure. Therefore: First, we will focus on the different ways to gain access to the Internet and, afterwards, we will focus the study on mobile devices that allow us to be connected everywhere any time. This way, we will manage to obtain a present situation of the ICT market and we will see how companies have constructed new policies to change their strategy in order to be present in the new mobile devices without losing their market share. Later, we will review why concepts such as open innovation and co-creation process have been possible thanks to the implementation of technologies 2.0 in the business environment, facilitating that companies and final users cooperate and walk hand in hand in the same direction; companies stock up on the contributions offered by users and, on the other hand, users feel appreciated by companies in the achievement of the final goal. Here we will confirm the transformation suffering by companies in different department sectors (marketing, sales, human resources and customer service) as a result of the incorporation of tools 2.0 to the work environment. Therefore, we will enumerate the different uses that companies make of the most common social networks, describing the main tools and/or applications to monitor social networks used by companies to follow them up. The second part of the project will be a case study to offer a more real vision of the present status of companies and their relation with social networks. To collect the data, we have selected companies from the “Manufacture of computer, electronic and optical products” industry. The social networks chosen are Facebook and Twitter. This case study will help us to get a better understanding of the direct impact of social networks in companies’ daily activity. Finally, we will offer a series of considerations and guidelines to try to understand how are social networks being used in the business environment and what can be the most suitable manner to use them according to this study.
Resumo:
Desde que las Tecnologías de la Información y la Comunicación comenzaron a adquirir una gran importancia en la sociedad, uno de los principales objetivos ha sido conseguir que la información transmitida llegue en perfectas condiciones al receptor. Por este motivo, se hace necesario el desarrollo de nuevos sistemas de comunicación digital capaces de ofrecer una transmisión segura y fiable. Con el paso de los años, se han ido mejorando las características de los mismos, lo que significa importantes avances en la vida cotidiana. En este contexto, uno de los sistemas que más éxito ha tenido es la Modulación Reticulada con Codificación TCM, que aporta grandes ventajas en la comunicación digital, especialmente en los sistemas de banda estrecha. Este tipo de código de protección contra errores, basado en la codificación convolucional, se caracteriza por realizar la modulación y codificación en una sola función. Como consecuencia, se obtiene una mayor velocidad de transmisión de datos sin necesidad de incrementar el ancho de banda, a costa de pasar a una constelación superior. Con este Proyecto Fin de Grado se quiere analizar el comportamiento de la modulación TCM y cuáles son las ventajas que ofrece frente a otros sistemas similares. Se propone realizar cuatro simulaciones, que permitan visualizar diversas gráficas en las que se relacione la probabilidad de bit erróneo BER y la relación señal a ruido SNR. Además, con estas gráficas se puede determinar la ganancia que se obtiene con respecto a la probabilidad de bit erróneo teórica. Estos sistemas pasan de una modulación QPSK a una 8PSK o de una 8PSK a una 16QAM. Finalmente, se desarrolla un entorno gráfico de Matlab con el fin de proporcionar un sencillo manejo al usuario y una mayor interactividad. ABSTRACT. Since Information and Communication Technologies began to gain importance on society, one of the main objectives has been to achieve the transmitted information reaches the receiver perfectly. For this reason, it is necessary to develop new digital communication systems with the ability to offer a secure and reliable transmission. The systems characteristics have improved over the past years, what it means important progress in everyday life. In this context, one of the most successful systems is Trellis Coded Modulation TCM, that brings great advantages in terms of digital communications, especially narrowband systems. This kind of error correcting code, based on convolutional coding, is characterized by codifying and modulating at the same time. As a result, a higher data transmission speed is achieved without increasing bandwidth at the expense of using a superior modulation. The aim of this project is to analyze the TCM performance and the advantages it offers in comparison with other similar systems. Four simulations are proposed, that allows to display several graphics that show how the Bit Error Ratio BER and Signal Noise Ratio SNR are related. Furthermore, it is possible to calculate the coding gain. Finally, a Matlab graphic environment is designed in order to guarantee the interactivity with the final user.
Resumo:
Los nuevos comportamientos urbanos nos permiten observar cada vez con más frecuencia en nuestras calles y plazas realidades que siempre habíamos considerado domésticas. Al contrario también pasa, todos los días vivimos en nuestras casas situaciones que implican relacionarnos con personas que no son de nuestro núcleo familiar. El diseño doméstico de nuestras ciudades y el urbanismo del diseño de interiores parecen herramientas oportunas en el mundo que nos ha tocado vivir. Esto nos lleva a pensar que los espacios públicos y privados son términos simplificados, definidos en base a conceptos de propiedad para organizar la ciudad. En cambio, sus usos y vivencias, su gestión y sus comportamientos se han complejizado, distorsionando la terminología convencional hasta hacerla obsoleta. En este contexto, considerado también el marco socioeconómico actual, surgen las “acciones de abajo a arriba” como nuevo paradigma o modelo de renovación urbana, que entienden la involucración del ciudadano como parte activa en el proceso de construcción de la urbe desde la misma gestación del proyecto, frente a las acciones habituales que consideran al usuario como mero receptor de las propuestas. Un ciudadano que parece estar cada vez más radicalizado y una administración que parece asustarse ante el desconcierto que el acercamiento al ciudadano puede acarrear, han ocasionado por un lado, espacios “gueto” de carácter casi anárquico y, por el otro lado, lugares tan institucionalizados que derivan en espacios asociados a la administración y ajenos al ciudadano. Por ello, se considera imprescindible la colaboración entre ambos poderes. De acuerdo con el discurso que precede, dentro de un marco comparativo, se estudian 5 supuestos seleccionados de las ciudades Madrid y Zaragoza. Madrid porque es referencia nacional e internacional en el desarrollo urbano a través de procesos ‘abajo arriba’. Zaragoza porque es una ciudad ‘media’ que históricamente no se ha definido por estrategias urbanas claras, ya sean de carácter social o institucional. Sin embargo, en el momento actual se pueden identificar planteamientos relacionados con la recuperación de construcciones y espacios vacantes que pueden ser determinantes a la hora de alcanzar equilibrios con los intensos procesos institucionales acaecidos en las dos últimas décadas. De los procesos urbanos registrados en cada lugar, desarrollados en construcciones y espacios vacantes, he seleccionado: Construcciones Vacantes Madrid |Tabacalera de Lavapiés Zaragoza | Antiguo I.E.S. Luis Buñuel y antiguo Convento de Mínimos Espacios Vacantes Madrid | Campo de Cebada [solar] Zaragoza | Patio ‘antiguo I.E.S. Luis Buñuel [espacio libre] y plaza Eduardo Ibarra [espacio libre] El proyecto de investigación ha partido de las hipótesis de partida que siguen: UNA… Las ‘acciones de abajo arriba’ o renovación desde abajo no tienen cabida como elementos urbanos aislados sino conectados entre sí, posibilitando la producción de sinergias y la construcción de la ciudad; pudiendo ser consideradas acciones de desarrollo y enlace urbano, pues su objetivo es convertirse en motores del espacio público. Cuestión que es aplicable al resto de los procesos o acciones urbanas [‘horizontales’ o ‘institucionales’] DOS… La capacidad de adaptación manifestada por las ‘acciones de abajo arriba’ implica un marco ideológico de referencia asociado a la importancia de la construcción con mínimos recursos [Re-ocupación y/o Re- Construcción de estructuras urbanas en desuso] en los procesos urbanos descritos, como vía para comprender los concepto sostenibilidad y calidad figurativa de lo construido. Cuestión que es aplicable a la recuperación de aquellos aspectos de la arquitectura que la convierten en necesaria para la sociedad. Y tiene como objetivo: Identificar modelos de sostenibilidad urbana como una estrategia que va de lo individual a lo colectivo y que se transmite fundamentalmente con la acción, mezclando la innovación y la tecnología en múltiples ámbitos, utilizando los recursos naturales e intelectuales de una manera eficiente y entendiendo la inteligencia humana y sobre todo la inteligencia colectiva, como principio y justificación. Se han analizado los siguientes aspectos: sociales [participación ciudadana e implicación de la administración pública], urbanos [conexiones con otros colectivos o espacios urbanos / transformaciones urbanas a través de los procesos de gestión utilizados], constructivos [materiales utilizados en la re-construcción de construcciones y espacios vacantes / sistemas constructivos utilizados] y los relacionados con la sostenibilidad [sostenibilidad económica / sostenibilidad de mantenimiento / sostenibilidad funcional / inteligencia colectiva] El estudio de los aspectos considerados se ha desarrollado con las herramientas metodológicas siguientes: Entrevistas abiertas a expertos: se han obtenido respuestas de 25 personas expertas [5 por cada espacio o construcción vacante] relacionadas con las acciones urbanas sostenibles, la cultura y las relaciones sociales, y que también conocen los lugares y su entorno desde los puntos de vista urbano y construido. Son ‘tipos ideales’ asociados a uno de los cinco poderes que se manifiestan en la ciudad: el poder educativo [la universidad], el poder creativo [la cultura], el poder administrativo [la política], el poder empresarial [la empresa privada] y los usuarios [un usuario activo y representativo de cada lugar elegido que haya intervenido en la gestación del proceso]. Han sido personas que conocían el tejido social y urbano de la ciudad de Zaragoza y Madrid, ya que la herramienta ‘entrevista abierta a expertos’, recoge datos y opiniones planteadas en las construcciones y espacios vacantes ubicados en Zaragoza y Madrid. Entrevistas cerradas a usuarios: como la población de usuarios que se somete a la investigación es infinita o muy grande, resulta imposible o inconveniente realizar la obtención de los datos sobre todos aquellos elementos que la forman. Por lo tanto, he decidido estudiar sólo una parte de la población que denomino ‘tipos ideales’, obteniendo respuestas de 150 usuarios [30 personas por cada espacio o construcción vacante]. La selección de grupos de personas entrevistadas, debe permitir que los resultados sean representativos de la población total de usuarios. Además, la elección de ‘tipos ideales’ se ha identificado con los vecinos de los núcleos urbanos [o barrios] en los que se ubican las construcciones o espacios vacantes analizados. Observación estructurada: recoger información a través de la observación me ha permitido conocer las actuaciones y comportamientos de los ciudadanos en el medio urbano. Esto ha facilitado el estudio del medio a nivel práctico, valorando el uso que la sociedad da a las construcciones y a los espacios vacantes analizados. Es importante posicionar la estrategia en relación con el tema de investigación propuesto. Una estrategia que dibuje un panorama plural, desarrollado a través de herramientas sociales y constructivas que permitan que la arquitectura hable de cosas parecidas a lo que interesa a la ciudadanía. Para ello, propuse un catálogo de herramientas arquitectónicas que han permitido evaluar todas las propuestas. Un contexto de estrategias comunes que han descrito con los mismos códigos las distintas actuaciones analizadas. Estas herramientas tocan diferentes campos de interés. Desde las partes más tectónicas y constructivas, hasta las más ligadas con el desarrollo urbanístico y social. Acciones de participación colectiva: Experiencias o laboratorios urbanos participados por los alumnos del grado de arquitectura de la UNIZAR y los agentes sociales. Las acciones son una herramienta propositiva. Investigar y analizar proponiendo ha permitido que el análisis del contexto pueda llegar a capas de mucha más profundidad. No se ha trabajado estableciendo jerarquías de profesores y alumnos, sino que se ha intentado posibilitar la conexión de distintos agentes que trabajan coordinadamente durante el tiempo que han durado las acciones. Por un lado esto ha permite que cada integrante haya aportado al grupo lo que mejor sabe hacer y de la misma manera, que cada uno pueda aprender aquello de lo que tenga más ganas… y reflexionar sobre determinados aspectos objeto del análisis. Una vez interpretados los resultados, obtenidos a través de las herramientas metodológicas referenciadas, se ha concluido lo que sigue: Respecto de la Hipótesis de partida UNO LAS ACCIONES ‘ABAJO ARRIBA’ han revelado que no se puede entender ningún proceso de gestión urbana fuera de la participación ciudadana. El ‘ESPACIO LIBRE’ de una ciudad necesita lugares de autogestión, espacios de cogestión, movimientos de ‘arriba abajo’ y también modelos que todavía no sabemos ni que existen. LAS ACCIONES INSTITUCIONALES ‘ARRIBA ABAJO’ han demostrado que no han presentado permeabilidad ni relación con las circulaciones de entorno. Tampoco han tenido en cuenta a otras muchas personas, ‘usuarios productores’, a las que les interesan los procesos de búsqueda y las fórmulas de conexión más interactivas. Respecto de la hipótesis de partida DOS LAS ACCIONES ‘ABAJO ARRIBA’ han revelado que el ‘derecho a la ciudad’, paradigma defendido por Lefebvre desde el cual se piensa el urbanismo ciudadano, en estos supuestos podría entenderse como el ‘derecho a la infraestructura’. El ESPACIO LIBRE es infraestructura y se quiere para infraestructurar los derechos de cada uno. Y aunque también es verdad que estas acciones son simples destellos, han hecho visible otro paradigma de gestión y propuesta urbana que puede ser predominante en un futuro próximo. LAS ACCIONES INSTITUCIONALES ‘ARRIBA ABAJO’ han revelado que las intervenciones estuvieron enfocadas únicamente a la resolución de los procesos constructivos y a la incorporación del programa como un dato ‘problema’ que era necesario resolver para evitar la afección al diseño. ABSTRACT The new urban ways of behaviour let us watch more and more frequently in our streets and squares, realities that we had always considered as domestic. This also happens the other way round. Every day we have to go through situations at home which imply relationships with people who don’t belong to our family circle. The domestic design of our cities and the urban planning of indoor design seem to be adequate tools in the world we have to live in. This leads us to think that public and private spaces are simplified terms, defined according to concepts of property in order to organise the city. On the other hand, its uses and the experiences of people, its management and ways of behaviour is now more complex, changing the conventional terminology that has become outdated. In this context, ‘bottom-up’ actions arise as a new paradigm or model of urban renewal. These actions consider the active role of social participation in the process of building up the city from the very beginning, in comparison with the former way of acting that considered the user as mere receptor of the proposals. A citizen who seems to become more and more radical, and an administration that seems to be afraid of the unknown, have created both almost anarchic ghetto spaces and, on the other hand, spaces which have been so institutionalised that derive into areas associated to the administration but alienated from the citizen. For this reason, cowork of both forces is considered as crucial. In accordance with the above mentioned ideas and within a comparative framework, five situations chosen from the cities of Madrid and Zaragoza are studied. Madrid because is a national and international reference in urban development that uses “bottom-up” processes. Zaragoza because is a “medium-size” city that, historically, has not been defined by clear social or institutional urban strategies. Nevertheless, at the present time we can identify approaches on the recovery of constructions and empty areas that may be determining for reaching a balance with the intense institutional processes that have taken place in the two last decades. From the urban processes registered in every place and developed in vacant areas and constructions, I have chosen: Vacant constructions Madrid | Lavapiés Tobacco Factory Zaragoza | Old Secondary School Luis Buñuel and old Convent of the Minimos Vacant areas Madrid | Campo de Cebada [non-built site]. Zaragoza | Old courtyard of the secondary school and Eduardo Ibarra square [free space] The research project has been issued from the following starting hypotheses: ONE… “Bottom-up actions” or renewal from below have no place as isolated urban elements but as connected parts that can produce synergies and the construction of the city, and that can also be considered as actions producing urban development and links. This can also be applied to the rest of urban processes or actions [‘horizontal’ or ‘institutional’]. TWO… The capacity of adaptation shown by “bottom-up actions” implies an ideological framework of reference which is related to the importance of construction with minimal resources (re-occupation and/or reconstruction of urban structures in disuse) in the above mentioned urban processes, as a way for understanding the concepts of sustainability and the representational quality of what has been constructed. This can also be applied to the recovery of those architectural aspects that make architecture necessary for society. And its objective is: Identify models of urban sustainability as a strategy going from the individual to the collective, which are mainly transferred by action and that mix innovation and technology in many fields. Models that use natural and intellectual resources in an efficient way, and understand human intelligence and, above all, collective intelligence, as principle and justification. The following aspects have been analysed: social [civic participation and involvement of the public Administration], urban [connections with other collectives or urban spaces / urban transformation by the processes of administration used], constructive [materials used for the re-construction of empty spaces / construction systems used] and those focusing on sustainability [economic sustainability /maintenance sustainability /functional sustainability / collective intelligence]. For researching into the above mentioned aspects, the following methodological tools have been developed: Open interviews with experts: answers from 25 experts have been obtained [five for every vacant space or empty construction] on sustainable urban actions, culture and social relations, who also know the places and their environment from an urban and constructive point of view. These are “ideal types” linked to one of the five powers acting in the city: the educational power [University], the creative power [culture], the administration power [politics], the corporate power [private companies] and the users [an active and representative user for every place selected during the establishment of the process]. They were people who knew the social and urban fabric of Zaragoza and Madrid, since the “open interview for experts” tool collects data and points of view set out in vacant constructions and spaces of Zaragoza and Madrid. Close interviews with users: as the number of users targeted for the research is very big or infinite, it is impossible or inconvenient to get data from all its constituent parts. Therefore, I have decided to research into the part of the population that I call “ideal types”, obtaining answers from 150 users [30 people for every empty space or construction]. The selection of the groups of people interviewed must produce results which are representative of the total population of users. Furthermore, the election of “ideal types” has been identified with the inhabitants of urban areas [or city districts] in which the vacant spaces or constructions analysed are located. A structured observation: I have known the actions and ways of behaving of the citizens in the urban environment by means of collecting information after observation. Therefore, the practical research into the target environment has been easier by valuing the use that society gives to the empty constructions and spaces analysed. It is important to position the strategy with respect to the research subject proposed. It involves a strategy able to get an overview of a plural landscape, developed by social and constructive tools, allowing architecture to talk about topics which are interesting for city dwellers. Therefore, I proposed a set of architectural tools to evaluate all the proposals. A context of common strategies describing the different actions analysed by using the same codes. These tools focus on different fields of interests, from the most tectonic and constructive parts, to the most related to urban and social development. Actions on collective participation: experiences or urban laboratories shared by the students of architecture of the University of Zaragoza and social agents. The actions are a proactive tool. Researching and analysing by means of proposing, has allowed me to analyse the context and much deeper layers. This work has not been done by establishing ranks of professors and student, but trying to get an interaction between the different agents who work in close coordination during the implementation of the actions. This has allowed every agent to contribute the group what they do the best, and also every individual has had the possibility to learn what s/he prefers…, thinking about the different aspects targeted by the analysis. Once the different methodological tools have been interpreted, this is the conclusion: With regard to the initial hypothesis ONE “BOTTOM-UP” ACTIONS have proven that no process of urban management can be understood outside civic participation. The “FREE SPACE” of a city needs self-managed places, co-managed spaces, “up-bottom” movements, and also models whose existence is still ignored. “UP-BOTTOM” INSTITUTIONAL ACTIONS have proven that they have not presented neither permeability nor relation with local ideas. They have also disregarded many other people, the “usersproducers”, who are interested in the most interactive means of searching and connecting processes. With regard to the initial hypothesis TWO Under these premises, “BOTTOM-UP” ACTIONS have shown that the “right to the city”, a paradigm defended by Lefebvre and from which citizen-focused urbanism is conceived, could be considered as a “right to the infrastructures”. A FREE SPACE is an infrastructure and must be used to “infrastructure” the rights of every citizen. And, even though it is true that these actions are mere flashes, they have made visible another paradigm of management and urban proposal that can be prevailing in a near future. “UP-BOTTOM” INSTITUTIONAL ACTIONS have revealed that the interventions have only focused on resolving construction processes and the incorporation of the program as a “problem” data that was necessary to resolve in order to avoid its influence on the design.
Resumo:
Hay ejemplar encuadernado con XVII/1212