81 resultados para Anticuerpos antirreceptor tipo M de la fosfolipasa


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Entendemos por inteligencia colectiva una forma de inteligencia que surge de la colaboración y la participación de varios individuos o, siendo más estrictos, varias entidades. En base a esta sencilla definición podemos observar que este concepto es campo de estudio de las más diversas disciplinas como pueden ser la sociología, las tecnologías de la información o la biología, atendiendo cada una de ellas a un tipo de entidades diferentes: seres humanos, elementos de computación o animales. Como elemento común podríamos indicar que la inteligencia colectiva ha tenido como objetivo el ser capaz de fomentar una inteligencia de grupo que supere a la inteligencia individual de las entidades que lo forman a través de mecanismos de coordinación, cooperación, competencia, integración, diferenciación, etc. Sin embargo, aunque históricamente la inteligencia colectiva se ha podido desarrollar de forma paralela e independiente en las distintas disciplinas que la tratan, en la actualidad, los avances en las tecnologías de la información han provocado que esto ya no sea suficiente. Hoy en día seres humanos y máquinas a través de todo tipo de redes de comunicación e interfaces, conviven en un entorno en el que la inteligencia colectiva ha cobrado una nueva dimensión: ya no sólo puede intentar obtener un comportamiento superior al de sus entidades constituyentes sino que ahora, además, estas inteligencias individuales son completamente diferentes unas de otras y aparece por lo tanto el doble reto de ser capaces de gestionar esta gran heterogeneidad y al mismo tiempo ser capaces de obtener comportamientos aún más inteligentes gracias a las sinergias que los distintos tipos de inteligencias pueden generar. Dentro de las áreas de trabajo de la inteligencia colectiva existen varios campos abiertos en los que siempre se intenta obtener unas prestaciones superiores a las de los individuos. Por ejemplo: consciencia colectiva, memoria colectiva o sabiduría colectiva. Entre todos estos campos nosotros nos centraremos en uno que tiene presencia en la práctica totalidad de posibles comportamientos inteligentes: la toma de decisiones. El campo de estudio de la toma de decisiones es realmente amplio y dentro del mismo la evolución ha sido completamente paralela a la que citábamos anteriormente en referencia a la inteligencia colectiva. En primer lugar se centró en el individuo como entidad decisoria para posteriormente desarrollarse desde un punto de vista social, institucional, etc. La primera fase dentro del estudio de la toma de decisiones se basó en la utilización de paradigmas muy sencillos: análisis de ventajas e inconvenientes, priorización basada en la maximización de algún parámetro del resultado, capacidad para satisfacer los requisitos de forma mínima por parte de las alternativas, consultas a expertos o entidades autorizadas o incluso el azar. Sin embargo, al igual que el paso del estudio del individuo al grupo supone una nueva dimensión dentro la inteligencia colectiva la toma de decisiones colectiva supone un nuevo reto en todas las disciplinas relacionadas. Además, dentro de la decisión colectiva aparecen dos nuevos frentes: los sistemas de decisión centralizados y descentralizados. En el presente proyecto de tesis nos centraremos en este segundo, que es el que supone una mayor atractivo tanto por las posibilidades de generar nuevo conocimiento y trabajar con problemas abiertos actualmente así como en lo que respecta a la aplicabilidad de los resultados que puedan obtenerse. Ya por último, dentro del campo de los sistemas de decisión descentralizados existen varios mecanismos fundamentales que dan lugar a distintas aproximaciones a la problemática propia de este campo. Por ejemplo el liderazgo, la imitación, la prescripción o el miedo. Nosotros nos centraremos en uno de los más multidisciplinares y con mayor capacidad de aplicación en todo tipo de disciplinas y que, históricamente, ha demostrado que puede dar lugar a prestaciones muy superiores a otros tipos de mecanismos de decisión descentralizados: la confianza y la reputación. Resumidamente podríamos indicar que confianza es la creencia por parte de una entidad que otra va a realizar una determinada actividad de una forma concreta. En principio es algo subjetivo, ya que la confianza de dos entidades diferentes sobre una tercera no tiene porqué ser la misma. Por otro lado, la reputación es la idea colectiva (o evaluación social) que distintas entidades de un sistema tiene sobre otra entidad del mismo en lo que respecta a un determinado criterio. Es por tanto una información de carácter colectivo pero única dentro de un sistema, no asociada a cada una de las entidades del sistema sino por igual a todas ellas. En estas dos sencillas definiciones se basan la inmensa mayoría de sistemas colectivos. De hecho muchas disertaciones indican que ningún tipo de organización podría ser viable de no ser por la existencia y la utilización de los conceptos de confianza y reputación. A partir de ahora, a todo sistema que utilice de una u otra forma estos conceptos lo denominaremos como sistema de confianza y reputación (o TRS, Trust and Reputation System). Sin embargo, aunque los TRS son uno de los aspectos de nuestras vidas más cotidianos y con un mayor campo de aplicación, el conocimiento que existe actualmente sobre ellos no podría ser más disperso. Existen un gran número de trabajos científicos en todo tipo de áreas de conocimiento: filosofía, psicología, sociología, economía, política, tecnologías de la información, etc. Pero el principal problema es que no existe una visión completa de la confianza y reputación en su sentido más amplio. Cada disciplina focaliza sus estudios en unos aspectos u otros dentro de los TRS, pero ninguna de ellas trata de explotar el conocimiento generado en el resto para mejorar sus prestaciones en su campo de aplicación concreto. Aspectos muy detallados en algunas áreas de conocimiento son completamente obviados por otras, o incluso aspectos tratados por distintas disciplinas, al ser estudiados desde distintos puntos de vista arrojan resultados complementarios que, sin embargo, no son aprovechados fuera de dichas áreas de conocimiento. Esto nos lleva a una dispersión de conocimiento muy elevada y a una falta de reutilización de metodologías, políticas de actuación y técnicas de una disciplina a otra. Debido su vital importancia, esta alta dispersión de conocimiento se trata de uno de los principales problemas que se pretenden resolver con el presente trabajo de tesis. Por otro lado, cuando se trabaja con TRS, todos los aspectos relacionados con la seguridad están muy presentes ya que muy este es un tema vital dentro del campo de la toma de decisiones. Además también es habitual que los TRS se utilicen para desempeñar responsabilidades que aportan algún tipo de funcionalidad relacionada con el mundo de la seguridad. Por último no podemos olvidar que el acto de confiar está indefectiblemente unido al de delegar una determinada responsabilidad, y que al tratar estos conceptos siempre aparece la idea de riesgo, riesgo de que las expectativas generadas por el acto de la delegación no se cumplan o se cumplan de forma diferente. Podemos ver por lo tanto que cualquier sistema que utiliza la confianza para mejorar o posibilitar su funcionamiento, por su propia naturaleza, es especialmente vulnerable si las premisas en las que se basa son atacadas. En este sentido podemos comprobar (tal y como analizaremos en más detalle a lo largo del presente documento) que las aproximaciones que realizan las distintas disciplinas que tratan la violación de los sistemas de confianza es de lo más variado. únicamente dentro del área de las tecnologías de la información se ha intentado utilizar alguno de los enfoques de otras disciplinas de cara a afrontar problemas relacionados con la seguridad de TRS. Sin embargo se trata de una aproximación incompleta y, normalmente, realizada para cumplir requisitos de aplicaciones concretas y no con la idea de afianzar una base de conocimiento más general y reutilizable en otros entornos. Con todo esto en cuenta, podemos resumir contribuciones del presente trabajo de tesis en las siguientes. • La realización de un completo análisis del estado del arte dentro del mundo de la confianza y la reputación que nos permite comparar las ventajas e inconvenientes de las diferentes aproximación que se realizan a estos conceptos en distintas áreas de conocimiento. • La definición de una arquitectura de referencia para TRS que contempla todas las entidades y procesos que intervienen en este tipo de sistemas. • La definición de un marco de referencia para analizar la seguridad de TRS. Esto implica tanto identificar los principales activos de un TRS en lo que respecta a la seguridad, así como el crear una tipología de posibles ataques y contramedidas en base a dichos activos. • La propuesta de una metodología para el análisis, el diseño, el aseguramiento y el despliegue de un TRS en entornos reales. Adicionalmente se exponen los principales tipos de aplicaciones que pueden obtenerse de los TRS y los medios para maximizar sus prestaciones en cada una de ellas. • La generación de un software que permite simular cualquier tipo de TRS en base a la arquitectura propuesta previamente. Esto permite evaluar las prestaciones de un TRS bajo una determinada configuración en un entorno controlado previamente a su despliegue en un entorno real. Igualmente es de gran utilidad para evaluar la resistencia a distintos tipos de ataques o mal-funcionamientos del sistema. Además de las contribuciones realizadas directamente en el campo de los TRS, hemos realizado aportaciones originales a distintas áreas de conocimiento gracias a la aplicación de las metodologías de análisis y diseño citadas con anterioridad. • Detección de anomalías térmicas en Data Centers. Hemos implementado con éxito un sistema de deteción de anomalías térmicas basado en un TRS. Comparamos la detección de prestaciones de algoritmos de tipo Self-Organized Maps (SOM) y Growing Neural Gas (GNG). Mostramos como SOM ofrece mejores resultados para anomalías en los sistemas de refrigeración de la sala mientras que GNG es una opción más adecuada debido a sus tasas de detección y aislamiento para casos de anomalías provocadas por una carga de trabajo excesiva. • Mejora de las prestaciones de recolección de un sistema basado en swarm computing y odometría social. Gracias a la implementación de un TRS conseguimos mejorar las capacidades de coordinación de una red de robots autónomos distribuidos. La principal contribución reside en el análisis y la validación de las mejoras increméntales que pueden conseguirse con la utilización apropiada de la información existente en el sistema y que puede ser relevante desde el punto de vista de un TRS, y con la implementación de algoritmos de cálculo de confianza basados en dicha información. • Mejora de la seguridad de Wireless Mesh Networks contra ataques contra la integridad, la confidencialidad o la disponibilidad de los datos y / o comunicaciones soportadas por dichas redes. • Mejora de la seguridad de Wireless Sensor Networks contra ataques avanzamos, como insider attacks, ataques desconocidos, etc. Gracias a las metodologías presentadas implementamos contramedidas contra este tipo de ataques en entornos complejos. En base a los experimentos realizados, hemos demostrado que nuestra aproximación es capaz de detectar y confinar varios tipos de ataques que afectan a los protocoles esenciales de la red. La propuesta ofrece unas velocidades de detección muy altas así como demuestra que la inclusión de estos mecanismos de actuación temprana incrementa significativamente el esfuerzo que un atacante tiene que introducir para comprometer la red. Finalmente podríamos concluir que el presente trabajo de tesis supone la generación de un conocimiento útil y aplicable a entornos reales, que nos permite la maximización de las prestaciones resultantes de la utilización de TRS en cualquier tipo de campo de aplicación. De esta forma cubrimos la principal carencia existente actualmente en este campo, que es la falta de una base de conocimiento común y agregada y la inexistencia de una metodología para el desarrollo de TRS que nos permita analizar, diseñar, asegurar y desplegar TRS de una forma sistemática y no artesanal y ad-hoc como se hace en la actualidad. ABSTRACT By collective intelligence we understand a form of intelligence that emerges from the collaboration and competition of many individuals, or strictly speaking, many entities. Based on this simple definition, we can see how this concept is the field of study of a wide range of disciplines, such as sociology, information science or biology, each of them focused in different kinds of entities: human beings, computational resources, or animals. As a common factor, we can point that collective intelligence has always had the goal of being able of promoting a group intelligence that overcomes the individual intelligence of the basic entities that constitute it. This can be accomplished through different mechanisms such as coordination, cooperation, competence, integration, differentiation, etc. Collective intelligence has historically been developed in a parallel and independent way among the different disciplines that deal with it. However, this is not enough anymore due to the advances in information technologies. Nowadays, human beings and machines coexist in environments where collective intelligence has taken a new dimension: we yet have to achieve a better collective behavior than the individual one, but now we also have to deal with completely different kinds of individual intelligences. Therefore, we have a double goal: being able to deal with this heterogeneity and being able to get even more intelligent behaviors thanks to the synergies that the different kinds of intelligence can generate. Within the areas of collective intelligence there are several open topics where they always try to get better performances from groups than from the individuals. For example: collective consciousness, collective memory, or collective wisdom. Among all these topics we will focus on collective decision making, that has influence in most of the collective intelligent behaviors. The field of study of decision making is really wide, and its evolution has been completely parallel to the aforementioned collective intelligence. Firstly, it was focused on the individual as the main decision-making entity, but later it became involved in studying social and institutional groups as basic decision-making entities. The first studies within the decision-making discipline were based on simple paradigms, such as pros and cons analysis, criteria prioritization, fulfillment, following orders, or even chance. However, in the same way that studying the community instead of the individual meant a paradigm shift within collective intelligence, collective decision-making means a new challenge for all the related disciplines. Besides, two new main topics come up when dealing with collective decision-making: centralized and decentralized decision-making systems. In this thesis project we focus in the second one, because it is the most interesting based on the opportunities to generate new knowledge and deal with open issues in this area, as well as these results can be put into practice in a wider set of real-life environments. Finally, within the decentralized collective decision-making systems discipline, there are several basic mechanisms that lead to different approaches to the specific problems of this field, for example: leadership, imitation, prescription, or fear. We will focus on trust and reputation. They are one of the most multidisciplinary concepts and with more potential for applying them in every kind of environments. Besides, they have historically shown that they can generate better performance than other decentralized decision-making mechanisms. Shortly, we say trust is the belief of one entity that the outcome of other entities’ actions is going to be in a specific way. It is a subjective concept because the trust of two different entities in another one does not have to be the same. Reputation is the collective idea (or social evaluation) that a group of entities within a system have about another entity based on a specific criterion. Thus, it is a collective concept in its origin. It is important to say that the behavior of most of the collective systems are based on these two simple definitions. In fact, a lot of articles and essays describe how any organization would not be viable if the ideas of trust and reputation did not exist. From now on, we call Trust an Reputation System (TRS) to any kind of system that uses these concepts. Even though TRSs are one of the most common everyday aspects in our lives, the existing knowledge about them could not be more dispersed. There are thousands of scientific works in every field of study related to trust and reputation: philosophy, psychology, sociology, economics, politics, information sciences, etc. But the main issue is that a comprehensive vision of trust and reputation for all these disciplines does not exist. Every discipline focuses its studies on a specific set of topics but none of them tries to take advantage of the knowledge generated in the other disciplines to improve its behavior or performance. Detailed topics in some fields are completely obviated in others, and even though the study of some topics within several disciplines produces complementary results, these results are not used outside the discipline where they were generated. This leads us to a very high knowledge dispersion and to a lack in the reuse of methodologies, policies and techniques among disciplines. Due to its great importance, this high dispersion of trust and reputation knowledge is one of the main problems this thesis contributes to solve. When we work with TRSs, all the aspects related to security are a constant since it is a vital aspect within the decision-making systems. Besides, TRS are often used to perform some responsibilities related to security. Finally, we cannot forget that the act of trusting is invariably attached to the act of delegating a specific responsibility and, when we deal with these concepts, the idea of risk is always present. This refers to the risk of generated expectations not being accomplished or being accomplished in a different way we anticipated. Thus, we can see that any system using trust to improve or enable its behavior, because of its own nature, is especially vulnerable if the premises it is based on are attacked. Related to this topic, we can see that the approaches of the different disciplines that study attacks of trust and reputation are very diverse. Some attempts of using approaches of other disciplines have been made within the information science area of knowledge, but these approaches are usually incomplete, not systematic and oriented to achieve specific requirements of specific applications. They never try to consolidate a common base of knowledge that could be reusable in other context. Based on all these ideas, this work makes the following direct contributions to the field of TRS: • The compilation of the most relevant existing knowledge related to trust and reputation management systems focusing on their advantages and disadvantages. • We define a generic architecture for TRS, identifying the main entities and processes involved. • We define a generic security framework for TRS. We identify the main security assets and propose a complete taxonomy of attacks for TRS. • We propose and validate a methodology to analyze, design, secure and deploy TRS in real-life environments. Additionally we identify the principal kind of applications we can implement with TRS and how TRS can provide a specific functionality. • We develop a software component to validate and optimize the behavior of a TRS in order to achieve a specific functionality or performance. In addition to the contributions made directly to the field of the TRS, we have made original contributions to different areas of knowledge thanks to the application of the analysis, design and security methodologies previously presented: • Detection of thermal anomalies in Data Centers. Thanks to the application of the TRS analysis and design methodologies, we successfully implemented a thermal anomaly detection system based on a TRS.We compare the detection performance of Self-Organized- Maps and Growing Neural Gas algorithms. We show how SOM provides better results for Computer Room Air Conditioning anomaly detection, yielding detection rates of 100%, in training data with malfunctioning sensors. We also show that GNG yields better detection and isolation rates for workload anomaly detection, reducing the false positive rate when compared to SOM. • Improving the performance of a harvesting system based on swarm computing and social odometry. Through the implementation of a TRS, we achieved to improve the ability of coordinating a distributed network of autonomous robots. The main contribution lies in the analysis and validation of the incremental improvements that can be achieved with proper use information that exist in the system and that are relevant for the TRS, and the implementation of the appropriated trust algorithms based on such information. • Improving Wireless Mesh Networks security against attacks against the integrity, confidentiality or availability of data and communications supported by these networks. Thanks to the implementation of a TRS we improved the detection time rate against these kind of attacks and we limited their potential impact over the system. • We improved the security of Wireless Sensor Networks against advanced attacks, such as insider attacks, unknown attacks, etc. Thanks to the TRS analysis and design methodologies previously described, we implemented countermeasures against such attacks in a complex environment. In our experiments we have demonstrated that our system is capable of detecting and confining various attacks that affect the core network protocols. We have also demonstrated that our approach is capable of rapid attack detection. Also, it has been proven that the inclusion of the proposed detection mechanisms significantly increases the effort the attacker has to introduce in order to compromise the network. Finally we can conclude that, to all intents and purposes, this thesis offers a useful and applicable knowledge in real-life environments that allows us to maximize the performance of any system based on a TRS. Thus, we deal with the main deficiency of this discipline: the lack of a common and complete base of knowledge and the lack of a methodology for the development of TRS that allow us to analyze, design, secure and deploy TRS in a systematic way.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El sistema energético mundial actual es insostenible a largo plazo debido a la fuerte presencia de los combustibles fósiles. Es por ello que se está llevando a cabo gradualmente un proceso de cambio de modelo energético, teniendo como base la incorporación de las energías renovables. Dentro de este tipo de energías la energía solar, tanto fotovoltaica como de concentración, es una de las tecnologías con más crecimiento y potencial en el futuro. Las mejoras en materiales y dispositivos en energía solar permiten la reducción de costes y la mejora de la eficiencia causando un aumento en la competitividad de esta tecnología. El objetivo de este proyecto es el de diseñar y construir un sistema de orientación solar electrónico. Para ello será necesario la utilización de sensores de luminosidad, un controlador y un motor eléctrico. El sistema detectará el punto de mayor intensidad lumínica y orientará la superficie de una placa hacia este punto. El proyecto se desarrollará empleando la plataforma Arduino, una serie de micro procesadores de libre acceso destinados al uso en aplicaciones de electrónica general en el ámbito educativo y de bajo coste. Todo el sistema estará dirigido por un programa que controlalas lecturas de luz y el movimiento del motor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The proliferation of video games and other applications of computer graphics in everyday life demands a much easier way to create animatable virtual human characters. Traditionally, this has been the job of highly skilled artists and animators that painstakingly model, rig and animate their avatars, and usually have to tune them for each application and transmission/rendering platform. The emergence of virtual/mixed reality environments also calls for practical and costeffective ways to produce custom models of actual people. The purpose of the present dissertation is bringing 3D human scanning closer to the average user. For this, two different techniques are presented, one passive and one active. The first one is a fully automatic system for generating statically multi-textured avatars of real people captured with several standard cameras. Our system uses a state-of-the-art shape from silhouette technique to retrieve the shape of subject. However, to deal with the lack of detail that is common in the facial region for these kind of techniques, which do not handle concavities correctly, our system proposes an approach to improve the quality of this region. This face enhancement technique uses a generic facial model which is transformed according to the specific facial features of the subject. Moreover, this system features a novel technique for generating view-independent texture atlases computed from the original images. This static multi-texturing system yields a seamless texture atlas calculated by combining the color information from several photos. We suppress the color seams due to image misalignments and irregular lighting conditions that multi-texturing approaches typically suffer from, while minimizing the blurring effect introduced by color blending techniques. The second technique features a system to retrieve a fully animatable 3D model of a human using a commercial depth sensor. Differently to other approaches in the current state of the art, our system does not require the user to be completely still through the scanning process, and neither the depth sensor is moved around the subject to cover all its surface. Instead, the depth sensor remains static and the skeleton tracking information is used to compensate the user’s movements during the scanning stage. RESUMEN La popularización de videojuegos y otras aplicaciones de los gráficos por ordenador en el día a día requiere una manera más sencilla de crear modelos virtuales humanos animables. Tradicionalmente, estos modelos han sido creados por artistas profesionales que cuidadosamente los modelan y animan, y que tienen que adaptar específicamente para cada aplicación y plataforma de transmisión o visualización. La aparición de los entornos de realidad virtual/mixta aumenta incluso más la demanda de técnicas prácticas y baratas para producir modelos 3D representando personas reales. El objetivo de esta tesis es acercar el escaneo de humanos en 3D al usuario medio. Para ello, se presentan dos técnicas diferentes, una pasiva y una activa. La primera es un sistema automático para generar avatares multi-texturizados de personas reales mediante una serie demaras comunes. Nuestro sistema usa técnicas del estado del arte basadas en shape from silhouette para extraer la forma del sujeto a escanear. Sin embargo, este tipo de técnicas no gestiona las concavidades correctamente, por lo que nuestro sistema propone una manera de incrementar la calidad en una región del modelo que se ve especialmente afectada: la cara. Esta técnica de mejora facial usa un modelo 3D genérico de una cara y lo modifica según los rasgos faciales específicos del sujeto. Además, el sistema incluye una novedosa técnica para generar un atlas de textura a partir de las imágenes capturadas. Este sistema de multi-texturización consigue un atlas de textura sin transiciones abruptas de color gracias a su manera de mezclar la información de color de varias imágenes sobre cada triángulo. Todas las costuras y discontinuidades de color debidas a las condiciones de iluminación irregulares son eliminadas, minimizando el efecto de desenfoque de la interpolación que normalmente introducen este tipo de métodos. La segunda técnica presenta un sistema para conseguir un modelo humano 3D completamente animable utilizando un sensor de profundidad. A diferencia de otros métodos del estado de arte, nuestro sistema no requiere que el usuario esté completamente quieto durante el proceso de escaneado, ni mover el sensor alrededor del sujeto para cubrir toda su superficie. Por el contrario, el sensor se mantiene estático y el esqueleto virtual de la persona, que se va siguiendo durante el proceso, se utiliza para compensar sus movimientos durante el escaneado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Entre los problemas medioambientales más trascendentales para la sociedad, se encuentra el del cambio climático así como el de la calidad del aire en nuestras áreas metropolitanas. El transporte por carretera es uno de los principales causantes, y como tal, las administraciones públicas se enfrentan a estos problemas desde varios ángulos: Cambios a modos de transporte más limpios, nuevas tecnologías y combustibles en los vehículos, gestión de la demanda y el uso de tecnologías de la información y la comunicación (ICT) aplicadas al transporte. En esta tesis doctoral se plantea como primer objetivo el profundizar en la comprensión demo ciertas medidas ICT afectan al tráfico, las emisiones y la propia dinámica de los vehículos. El estudio se basa en una campaña de recogida de datos con vehículos flotantes para evaluar los impactos de cuatro medidas concretas: Control de velocidad por tramo, límites variables de velocidad, limitador de velocidad (control de crucero) y conducción eficiente (eco‐driving). Como segundo objetivo, el estudio se centra en la conducción eficiente, ya que es una de las medidas que más ahorros de combustible presenta a nivel individual. Aunque estas reducciones están suficientemente documentadas en la literatura, muy pocos estudios se centran en estudiar el efecto que los conductores eficientes pueden tener en el flujo de tráfico, y cuál sería el impacto si se fuera aumentando el porcentaje de este tipo de conductores. A través de una herramienta de microsimulación de tráfico, se han construido cuatro modelos de vías urbanas que se corresponden con una autopista urbana, una arteria, un colector y una vía local. Gracias a los datos recogidos en la campaña de vehículos flotantes, se ha calibrado el modelo, tanto el escenario base como el ajuste de parámetros de conducción para simular la conducción eficiente. En total se han simulado 72 escenarios, variando el tipo de vía, la demanda de tráfico y el porcentaje de conductores eficientes. A continuación se han calculado las emisiones de CO2 and NOx mediante un modelo de emisiones a nivel microscópico. Los resultados muestran que en escenarios con alto porcentaje de conductores eficientes y altas demandas de tráfico las emisiones aumentan. Esto se debe a que las mayores distancias de seguridad y las aceleraciones y frenadas suaves hacen que aumente la congestión, produciendo así mayores emisiones a nivel global. Climate change and the reduced air quality in our metropolitan areas are two of the main environmental problems that the society is addressing currently. Being road transportation one of the main contributors, public administrations are facing these problems from different points of view: shift to cleaner modes, new fuels and vehicle technologies, demand management and the use of information and communication technologies (ICT) applied to transportation. The first objective of this thesis is to understand how certain ICT measures affect traffic, emissions and vehicle dynamics. The study is based on a data collection campaign with floating vehicles to evaluate the impact of four specific measures: section speed control, variable speed limits, cruise control and eco‐driving. The second objective of the study focuses on eco‐driving, as it is one of the measures that present the largest fuel savings at an individual level. Although these savings are well documented in the literature, few studies focus on how ecodrivers affect the surrounding vehicles and the traffic, and what would be the impact in case of different eco‐drivers percentage. Using a traffic micro‐simulation tool, four models in urban context have been built, corresponding to urban motorway, urban arterial, urban collector and a local street. Both the base‐case and the parameters setting to simulate eco‐driving have been calibrated with the data collected through floating vehicles. In total 72 scenarios were simulated, varying the type of road, traffic demand and the percentage of eco‐drivers. Then, the CO2 and NOx emissions have been estimated through the use of an emission model at microscopic level. The results show that in scenarios with high percentage of co‐drivers and high traffic demand the emissions rise. Higher headways and smooth acceleration and decelerations increase congestion, producing higher emissions globally.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El desarrollo económico y social, a veces excesivamente rápido, que se ha producido en las últimas décadas ha generado una serie de problemas medioambientales generalmente más acuciantes en el entorno de las grandes ciudades. Dentro de este contexto y debido a este desarrollo exponencial de las actividades humanas, la contaminación acústica se ha convertido en uno de los problemas de peor solución, tanto a nivel de reducción como de atenuación, por lo que el diseño de pantallas acústicas está siendo uno de los objetivos prioritarios en la lucha contra la contaminación sonora. La expresión más extendida para designar a las barreras acústicas es la de pantallas acústicas, entendiéndose por éstas, muros de espesor relativamente pequeño concebidos como barreras acústicas. Hasta la fecha los avances en el diseño de estas pantallas han sido notables y ya se cuentan por cientos los kilómetros de las mismas que han sido construidas e instaladas, sobre todo en la periferia de las grandes ciudades cerca de las llamadas vías de tráfico rápido. Estos avances se han centrado sobre todo en el diseño de materiales de gran poder de absorción de las ondas, como método principal de atenuación, o bien en la forma geométrica de la superficie expuesta al tráfico, formas que por medio de reflexiones son capaces de anular o mitigar parte de la energía transportada por las ondas sonoras. A la vista de estos resultados las actuales pantallas acústicas reducen el nivel sonoro por atenuación, pero no son capaces de anular la onda incidente. Por otro lado, los últimos estudios de la tecnología japonesa en estos temas es el análisis del problema de borde, ya que este fenómeno de difracción es uno de los causantes principales del nivel sonoro en el trasdós de la pantalla. Pese a que es imposible anular este efecto de borde los estudios se han encauzado a intentar obtener una forma de la sección de la pantalla en su parte superior que sea capaz de mitigar este efecto, bien por interferencia entre las ondas incidentes o bien por superposición de diversos fenómenos de difracciones. En este orden de cosas entra a escena el concepto de pantalla tubular, como una nueva pantalla perforada que anula ondas sonoras basándose en el efecto físico de los tubos de Kundt. Su funcionamiento es debido a la propiedad de las ondas sonoras de producir resonancias al transmitirse dentro de cavidades de diferentes secciones tipo. Este tipo de pantallas se olvida del concepto clásico de pantalla acústica y su forma de atenuar el sonido y pasa al cálculo de la atenuación por eliminación de frecuencias. Esta tesis ofrece una nueva visión de este tipo de pantallas tubulares, optimizando su funcionamiento en función de la longitud de las cavidades tubulares, que han de ser diseñadas no de forma rectilínea, sino según directrices de curvas conocidas. El método operativo consistirá en aplicar las propiedades morfológicas de estas curvas a la propagación de ondas dentro de cavidades curvilíneas, obteniendo una serie de funciones de onda transmitidas y otras anuladas, lo que permite evaluar el porcentaje de energía que es capaz de anular cada tipo de curva para un espesor prefijado de pantalla. Este planteamiento nos permite elaborar un método de diseño y optimización por consideraciones exclusivamente geométricas, en función de un número muy reducido de parámetros, entre los que destaca la frecuencia que se presenta con mayor asiduidad, que es la principal causante del nivel sonoro. Asimismo, el método está apoyado en gran manera en un soporte gráfico, lo que le hace de sencilla aplicación incluso entre técnicos no excesivamente acostumbrados a trabajar con ondas sonoras. Como resumen final, las aportaciones más relevantes que incorpora esta tesis son las siguientes: Desarrollo práctico de la teoría global de pantallas acústicas tubulares ; Aplicación de la geometría clásica, en el concepto de longitudes de curvas tipo, a las técnicas de ingeniería del medio ambiente lo que representa un avance cualitativo notable ya que hasta la fecha no se había planteado la interacción de dos disciplinas en apariencia tan dispares y de conceptos tan heterogéneos ; Desarrollo de un método secuencial que es capaz de engarzar el análisis acústico de un cierto flujo de tráfico vehicular con el análisis geométrico de curvas tipo y dotar así al futuro diseñador de pantallas acústicas de una poderosa herramienta que le permita variar la tipología y forma de la pantalla en función de parámetros que pueden variar de manera aleatoria.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En referencia a la población de personas mayores de la provincia de Guadalajara, los objetivos del estudio persiguen aportar evidencias sobre la relación entre la recomendación médica a las personas mayores de realizar actividad física, el tipo de demanda y las variables socio demográficas. Ha sido efectuado un estudio transversal en una muestra de 989 personas de esa población. El muestreo ha sido polietápico y se ha aplicado un cuestionario estructurado. Los resultados muestran que existe una relación significativa de la recomendación médica de actividad física con las siguientes variables: tipo de demanda [χ2 (2) = 31.649; p < .001; Φ = .18], género [χ2 (1) = 5.397; p = .020; Φ = -.08] y clase social [χ2 (2)= 6.435; p = .040; Φ = .08]. No se ha encontrado relación con la edad. Los resultados parecen sugerir que, en este segmento de población, una de las estrategias para incrementar los practicantes de actividad físico-deportiva, son las acciones específicas del personal médico de recomendación de actividad física.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La simulación de accidentes de rotura pequeña en el fondo de la vasija se aparta del convencional análisis de LOCA de rama fría, el más limitante en los análisis deterministas La rotura de una de las penetraciones de instrumentación de la vasija ha sido desestimada históricamente en los análisis de licencia y en los Análisis Probabilistas de Seguridad y por ello, hay una falta evidente de literatura para dicho análisis. En el año 2003 durante una inspección, se detectó una considerable corrosión en el fondo de la vasija de South Texas Project Unit I NPP. La evolución en el tiempo de dicha corrosión habría derivado en una pequeña rotura en el fondo de la vasija si su detección no se hubiera producido a tiempo. La OECD/NEA considela importancia de simular dicha secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Tanto en el experimento como en la simulación se observaron las dificultades de reinundar la vasija al tener la rotura en el fondo de la misma, haciendo clave la gestión del accidente por parte del operador. Dadas las condiciones excesivamente conservadoras del test experimental, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Maíz, trigo y cebada son cereales comúnmente utilizados en piensos para ponedoras. A nivel práctico estos piensos incluyen un mínimo de 25 a 30% de maíz para asegurar altos consumos y mejorar el tamaño del huevo. Esta práctica puede estar relacionada con la mejora de la estructura del pienso maíz, así como al mayor contenido en ácido linoléico (LIN) de este cereal, que puede dar lugar en un incremento del peso del huevo, especialmente cuando el consumo es bajo. La adición de grasa al pienso aumenta la concentración energética del mismo y en general, el contenido en LIN (Schutze and Jensen, 1963). En este trabajo se investigó el efecto del tipo de cereal y grasa añadida sobre la productividad en ponedoras rubias. Un segundo objetivo fue evaluar la relación entre contenido en LIN del pienso y el tamaño del huevo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El injerto en hortalizas es uno de los temas de más actualidad en el panorama hortícola, no solo español, sino occidental, y recalcamos occidental, pues en muchos países que no corresponden a ese ámbito, sobre todo asiáticos: Japón, Corea, China, Filipinas, etc., esta es una técnica que cuenta con una gran difusión desde hace décadas, siendo, por ejemplo en Japón, la mayoría de sus cultivos de cucurbitáceas y solanáceas realizados con planta injertada. A finales de los noventa quedó claro que el empleo de bromuro de metilo tenía una fecha de caducidad y que las zonas que tenían una fuerte dependencia de este desinfectante de suelo debían de buscar alternativas a un plazo lo más corto posible, con un punto añadido sobre etapas anteriores, debían ser alternativas lo más respetuosas posible con el medio ambiente y que no incrementaran, de forma importante, los costes de producción. En la zona centro y concretamente en los invernaderos de la Comunidad de Madrid y zonas cercanas de Toledo y Guadalajara el pepino era y es el cultivo predominante, los horticultores empleaban el bromuro de metilo de forma sistemática para desinfectar sus suelos y la desaparición de este producto les planteaba una gran incertidumbre, lo que llevó a que desde diferentes instancias se buscaran diferentes alternativas. Tras analizar las posibilidades que se podían implementar y conocido el buen resultado que había dado el injerto en sandía en Almería, se decidió acometer los trabajos que conforman esta Tesis Doctoral, planteando en la zona, diferentes ensayos con la idea de conocer, si el injerto en pepino, con los cultivares empleados habitualmente, podía ser una alternativa real para los horticultores, tanto de Madrid, como los de las zonas cercanas de Toledo y Guadalajara. Se pretendía conocer sobre todo las repercusiones agronómicas y si esta técnica podría emplearse en solitario o era necesario complementarla con otras alternativas: desinfectantes químicos, solarización, biofumigación e incluso desinfección con vapor de agua. Los ensayos fueron realizados de forma secuencial entre el año 1999 y el 2011, comprobándose en primer lugar que el empleo de portainjertos híbridos de calabaza era posible con los cultivares de pepino corto tipo español, mayoritariamente empleados en los últimos años del siglo XX y primeros del XXI, fundamentalmente: Serena. Tras los primeros ensayos, Shintoza parecía el portainjerto híbrido de calabaza (Cucurbita maxima x C. moschata) con mejores perspectivas de empleo, pues presentaba la ventaja adicional de ser bien conocido por los semilleros que producen planta injertada al ser, en esos momentos, el portainjerto más empleado en sandía, lo que garantizaba por su lado, su empleo en pepino, y que los horticultores pudiesen disponer de planta injertada. Más adelante los trabajos se encaminaron hacia la determinación de la densidad y tipo de poda más adecuado para la planta injertada, realizándose múltiples ensayos en esta dirección, que culminaron con la conclusión de que el extravigor que los portainjertos conferían a las plantas permitía conducir estas a dos o más brazos (se suelen emplear dos, por mejor adaptación a los trabajos de manejo de la planta por parte de los agricultores), con lo que se podría disminuir la densidad de planta y por tanto ahorrar en este capítulo, cosa que preocupaba y preocupa a los agricultores. Se llegó a determinar que es posible reducir la densidad de plantación en alrededor de un 25%, estando la densidad de brazos más adecuada entre 3 y 3.5 br•m-2. Tras las primeras decisiones tomadas sobre el portainjerto y la densidad más adecuada, se continuó con el estudio de adaptación de estas propuestas a los nuevos cultivares que las empresas de semillas iban proponiendo y los agricultores adoptando. Estas acciones se complementaron con la introducción de nuevos portainjertos susceptibles de sustituir a Shintoza o rotar con él para cambiar de sistema radicular, lo que es conveniente cuando se emplean, como es el caso, portainjertos que no son resistentes a nematodos, principalmente de la especie Meloidogyne incognita, el mayor problema en la zona, debido al suelo. Cultivares como Trópico, en un primer momento, y Urano y Motril más recientemente, se adaptaron muy bien a esta técnica. Entre los portainjertos que mostraron buena adaptación a la técnica de injerto y suficientemente buena compatibilidad con la mayoría de los cultivares ensayados destacan: RS-841, Strongtosa y Camel. Azman también mostró un comportamiento relevante, pero este portainjerto no podrá ser empleado, al ser recientemente retirado del mercado por la empresa que lo obtuvo y comercializó Aunque no era el objetivo principal de esta Tesis Doctoral, se ha comprobado que puede ser interesante combinar el empleo del injerto con otras técnicas alternativas al bromuro de metilo para superar los problemas debidos a enfermedades del suelo o nematodos, pero debe seguirse trabajando pues este es un tema en continua evolución, tanto si se trata de desinfectantes, a la mayoría de los cuales les está siendo retirado el permiso para su comercialización, como de otros métodos como la biofumigación o el empleo de vapor de agua. Queda muy claro que el injerto puede considerarse entre los métodos respetuosos con el medio ambiente, si no el que más, en lo que alternativas al bromuro de metilo se refiere. También en otro momento, se comprobó que con plantas injertadas es posible reducir el aporte de nutrientes, sobre todo nitrógeno, lo que además de un ahorro supone una mejora más desde el punto de vista medioambiental. En definitiva, queda demostrado que es factible el empleo del injerto en pepino corto tipo español, que las selecciones de los híbridos entre Cucurbita maxima y C. moschata que habitualmente se están empleando en sandía son también de aplicación en estos pepinos y que su empleo puede llevarnos a producciones suficientemente remuneradoras, alargándose en muchos casos el ciclo y no modificando, de forma apreciable, la calidad. Queda también demostrado que aunque los portainjertos no sean resistentes a nematodos, su extravigor les hace desarrollarse, desde el punto de vista productivo, suficientemente, llegando por tanto, a “convivir” con ese problema. Al no ser resistentes los portainjertos, y permanecer e incluso agravarse el problema de nematodos es conveniente poder contar con diferentes portainjertos que nos permitan rotar entre ellos y utilizar diferentes sistemas radiculares que harán menos fácil el parasitismo de los nematodos, como recomiendan los nematólogos que se haga. ABSTRACT Vegetable grafting is one of the most current practices in horticulture, not only in Spain, but also in other Western and Asian countries, such as Japan, South Korea, China, the Philippines, etc. This is a decades-old, widespread technique: In fact, most cucurbit and solanaceous crops in Japan and Korea are grafted. At the end of the 1990s, it was clear that methyl bromide had an expiry date. Consequently, the areas strongly dependant on this soil disinfectant had to look for alternatives as quickly as possible. Besides, these had to be as environmentally friendly as possible and should not increase production costs significantly. The cucumber has been and still is the most important crop in greenhouses of the Comunidad de Madrid and in areas near Toledo and Guadalajara. Cucumber growers used methyl bromide systematically to disinfect the soil. The banning of this chemical product brought about uncertainty, which encouraged the search for different alternatives. After analyzing the different possibilities and taking into account the good results of watermelon grafting in Almería, it was decided to carry out the works that make up this doctoral thesis. Different trials were made in order to know if the cultivars used in cucumber grafting might be a real alternative for farmers, not only in Madrid, but also in the areas near Toledo and Guadalajara. The main aim was to assess the agronomic repercussions and whether that technique could be used alone, or if other complementary alternatives, such as chemical disinfectants, solarisation, biofumigation, or even steam disinfection, were necessary. Trials were carried out sequentially from 1999 to 2011. It was observed that the use of pumpkin hybrid rootstocks could be applied to cultivars of Spanish short cucumbers, mainly grown in the late 20th and early 21st centuries eg Serena. After the early trials, Shintoza (Cucurbita maxima x C. moschata), a pumpkin hybrid rootstock, seemed to be the best option, as it had the additional advantage of being well known by nurseries growing grafting plants. Bearing this in mind, Shintoza was then the hybrid rootstock to be used in cucumbers and consequently growers could have grafted plants at their disposal. Later on, research was focused on density and the most adequate type of pruning, by carrying out several trials. These experiments showed that, the extra vigour the rootstocks gave to the plants, allowed them to have two or three stems, (normally nurserymen use two, as it is easier for them to manage the plants). These findings would lead to the lessening the density of the plant and thus reduce costs, something which worried and still worries farmers. It was stated that it would be possible to reduce the density of the plants by about 25%, the optimum density of the stems ranging from 3 to 3.5 stem-m-2. Once decisions were taken both on the rootstock and the appropriate density, we went on to study how to apply these proposals to the new cultivars which the seed companies were proposing and the farmers were applying. These measures were complemented with the introduction of new rootstocks capable of replacing Shintoza, or rotating with it in order to change the root system. This is particularly necessary when rootstocks, non-resistant to nematodes, mainly of the species Meloidogyne incognita, are used. This is the main problem due to the soil of that area. Cultivars such as Trópico, at first, and Urano and Motril, more recently, adapted quite well to this technique. Among the rootstocks which adapted well to grafting and which were compatible with most tested cultivars, were, in particular, RS-841 Strongtosa and Camel. The behaviour of Azman was worth studying, but this rootstock was removed from the market by the company which had bought and commercialized it. Although not the main purpose of the research, it was observed that combining grafting with other alternatives to methyl bromide in order to overcome problems due to soil diseases or nematodes may be worthwhile. However, further research is needed, as this topic is in constant evolution, not only when we come to disinfectants, most of which are being affected by the removal of the permit for commercialization, but also when we refer to other techniques such as biofumigation or the use of steam. Results also showed that grafted plants may reduce the amount of fertilizers, particularly nitrogen, used: This means both saving money and the protection of the environment. We may conclude by saying that grafting Spanish short cucumbers is feasible, that the selections of the hybrids between Cucurbita maxima and C. moschata, habitually used in watermelon grafting, can also be applied to these cucumbers. It can also be concluded that the use of these grafting techniques may lead to profitable yields, by lengthening the growing cycle in many cases and by maintaining the quality to a large extent. Although these rootstocks are not resistant to nematodes, the results showed that their extra vigour enables them to develop in terms of production, and thus they cope with this problem. Since these rootstocks are not resistant to nematodes and the problem with these nematodes may even worsen, it is recommended that different types of rootstocks should be available to enable both the rotation and the use of different root systems, which will encourage the parasitism of nematodes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta tesis doctoral es el fruto de un trabajo de investigación cuyo objetivo principal es definir criterios de diseño de protecciones en forma de repié en presas de materiales sueltos cuyo espaldón de aguas abajo esté formado por escollera. La protección propuesta consiste en un relleno de material granular situado sobre el pie de aguas abajo de la presa y formado a su vez por una escollera con características diferenciadas respecto de la escollera que integra el espaldón de la presa. La función de esta protección es evitar que se produzcan deslizamientos en masa cuando una cantidad de agua anormalmente elevada circula accidentalmente por el espaldón de aguas abajo de la presa por distintos motivos como pueden ser el vertido por coronación de la presa o la pérdida de estanqueidad del elemento impermeable o del cimiento. Según los datos de la International Commission on Large Dams (ICOLD 1995) el 70% de las causas de rotura o avería grave en presas de materiales sueltos en el mundo están dentro de las que se han indicado con anterioridad. Esta circulación accidental de agua a través del espaldón de escollera, típicamente turbulenta, se ha denominado en esta tesis percolación (“through flow”, en inglés) para diferenciarla del término filtración, habitualmente utilizada para el flujo laminar a través de un material fino. El fenómeno físico que origina la rotura de presas de materiales sueltos sometidas a percolación accidental es complejo, entrando en juego diversidad de parámetros, muchas veces no deterministas, y con acoplamiento entre procesos, tanto de filtración como de arrastre y deslizamiento. En esta tesis se han realizado diferentes estudios experimentales y numéricos con objeto de analizar el efecto sobre el nivel de protección frente al deslizamiento en masa que producen los principales parámetros geométricos que definen el repié: la anchura de la berma, el talud exterior y su altura máxima desde la base. También se han realizado estudios sobre factores con gran influencia en el fenómeno de la percolación como son la anisotropía del material y el incremento de los caudales unitarios en el pie de presa debidos a la forma de la cerrada. A partir de los resultados obtenidos en las distintas campañas de modelación física y numérica se han obtenido conclusiones respecto a la efectividad de este tipo de protección para evitar parcial o totalmente los daños provocados por percolación accidental en presas de escollera. El resultado final de la tesis es un procedimiento de diseño para este tipo de protecciones. Con objeto de completar los criterios de dimensionamiento, teniendo en cuenta los mecanismos de rotura por erosión interna y arrastre, se han incluido dentro del procedimiento recomendaciones adicionales basadas en investigaciones existentes en la bibliografía técnica. Finalmente, se han sugerido posibles líneas de investigación futuras para ampliar el conocimiento de fenómenos complejos que influyen en el comportamiento de este tipo de protección como son el efecto de escala, la anisotropía de la escollera, las leyes de resistencia que rigen la filtración turbulenta a través de medios granulares, los efectos de cimentaciones poco competentes o la propia caracterización de las propiedades de la escollera de presas. This thesis is the result of a research project that had the main objective of defining criteria to design rockfill toe protections for dams with a highly‐permeable downstream shoulder. The proposed protection consists of a rockfill toe berm situated downstream from the dam with specific characteristics with respect to the rockfill that integrates the shoulder of the main dam. The function of these protections is to prevent mass slides due to an abnormally high water flow circulation through the dam shoulder. This accidental seepage flow may be caused by such reasons as overtopping or the loss of sealing at the impervious element of the dam or its foundation. According to data from the International Commission on Large Dams (ICOLD 1995), 70% of the causes of failure or serious damage in embankment dams in the world are within that described previously. This accidental seepage of water through the rockfill shoulder, typically turbulent, is usually called through‐flow. The physical phenomenon which causes the breakage of the rockfill shoulder during such through‐flow processes is complex, involving diversity of parameters (often not deterministic) and coupling among processes, not only seepage but also internal erosion, drag or mass slide. In this thesis, numerical and experimental research is conducted in order to analyze the effects of the main parameters that define the toe protection, i.e. the toe crest length, its slope and maximum height. Additional studies on significant factors which influence the seepage, such as the anisotropy of the material and the increase of the unit flows at the dam toe due to the valley shape are also performed. In addition, conclusions regarding the effectiveness of this type of protection are obtained based on the results of physical and numerical models. The main result of the thesis is a design procedure for this type of protection to avoid mass sliding. In order to complete the design criteria, additional recommendations about internal and external erosion based on the state of the art are included. Finally, new lines of research are suggested for the future to expand the level of knowledge of the complex phenomena that influence the behavior of this type of protection, such as the effects of scale, rockfill anisotropy, non‐linear seepage laws in turbulent seepage through granular media, effects of erodible foundations, or new procedures to characterize the properties of dam rockfill as a construction material.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El presente trabajo de tesis investiga el efecto del fenómeno conocido como “Cross-talk” generado por el modo lateral de vibración, en la respuesta de un transductor ultrasónico formado por un arreglo de elementos piezoeléctricos tipo PZT (Zircanato Titanato de Plomo), la investigación se lleva a cabo desde el punto de vista de la naturaleza física de este efecto, así como de los parámetros asociados al mismo, así como un análisis del efecto del “Cross-talk” en la respuesta del transductor, formado por arreglos de elementos piezoeléctricos. Diversas investigaciones han abordado el fenómeno del “Cross-talk” y de sus efectos en la respuesta de los transductores, estos se han enfocado principalmente al modo espesor (thickness) de vibración. Sin embargo no ha habido un estudio a fondo para el estudio de este fenómeno en el modo lateral de vibración tema de interés de este trabajo de tesis. Este trabajo incluye simulaciones del fenómeno del “Cross-talk” mediante el método de los elementos finitos (MEF), así como la construcción de un transductor tipo matricial (arrray) de 2x3 elementos, en el que fueron realizadas las mediciones físicas del fenómeno. El trabajo abarca un estudio comparativo entre las simulaciones y las mediciones realizadas en el transductor, considerando que las cerámicas del transductor están montadas sobre diferentes materiales (backing) en donde la propagación de la energía emitida por las cerámicas piezoeléctricas provoca un mayor o menor grado de “Cross-talk” dependiendo de la velocidad en que se propaga dicha energía. Esta investigación también llevó a cabo el estudio del efecto del “Cross-talk” en el patrón de radiación que emite el arreglo de elementos piezoeléctricos, siendo este patrón de radiación un factor importante en la respuesta del transductor, motivo por el cual se realizó un análisis demo se ve afectado este patrón bajo la influencia del fenómeno del “Cross-talk”. Como ya se mencionó debido a la falta de un estudio a profundidad del fenómeno del “Cross-talk” en el modo lateral, la contribución del presente trabajo es importante ya que se enfoca al modo lateral de vibración de los elementos piezoeléctricos del arreglo. En particular se desarrollo una ecuación que permite cuantificar el fenómeno del “Cross-talk” y visualizar sus efectos en el arreglo. Derivando de este estudio se concluye que el fenómeno del “Cross-talk” generado por el modo lateral de vibración tiene un efecto significativo en la respuesta de los diferentes transductores matriciales considerados. ABSTRACT This thesis investigates the effect of the phenomenon known as crosstalk from the point of view of its physical nature and the elements that lead to the formation of this phenomenon to an analysis of how it may affect the performance of the ultrasonic transducer. This phenomenon occurs primarily in matrix arrays and this phenomenon is magnified by certain factors causing serious problems in the performance of a transducer. Researchers have addressed the phenomenon of crosstalk and their effects on the response of these transducers. They have mainly focused in the thickness vibration mode, and there has been no comprehensive study of this phenomenon in the lateral vibration mode, issue of interest of this thesis. This work includes simulations of the crosstalk phenomenon using the finite element method (FEM), and the construction of a matrix type transducer (array) of 2x3 elements, in which physical measurements were made. The work includes a comparative study between simulations and measurements in the transducer, whereas the ceramic transducer are mounted on different materials (backing) where the spread of the energy emitted by the piezoelectric ceramic causes a greater or lesser degree of crosstalk depending on the speed at which this energy spreads. This research also carried out the study of the effect of the crosstalk in the radiation pattern emitted by the piezoelectric array. The radiation pattern is an important factor in the response of the transducer that is why we conducted an analysis of how this pattern is affected under the influence of the crosstalk phenomenon. As mentioned before because of the lack of an in-depth study of the crosstalk phenomenon in the lateral vibration mode, the contribution of this work is important because it focuses in this vibration mode of the piezoelectric elements in the array. In particular, an equation was developed to quantify the crosstalk phenomenon and to see its effects in the array. Deriving from this study it is possible to conclude that the crosstalk phenomenon generated by the lateral vibration mode has a significant effect on the response of the different matrix transducers considered in this work.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Las microbalanzas de cristal de cuarzo (QCM), son mecanismos piezoeléctricos, para transformarlos en sensores químicos es necesario recubrirlos con una capa de material capaz de capturar las moléculas del ambiente. Cuando una masa es adsorbida sobre la superficie del cristal, la frecuencia de oscilación cambia en proporción a la cantidad de masa (Di Natale et al. 1997). La respuesta de los sensores depende de numerosos factores que pueden ser difíciles de controlar, tales como la temperatura y la humedad del gas portador. Todos estos factores producen cambios en la selectividad de los sensores que afectan a la reproducibilidad de las medidas. A pesar de la existencia de numerosos estudios no existe ningún procedimiento establecido para la calibración de las QCM en relación con la sensibilidad necesaria en los sensores para el aseguramiento de la calidad en pera o en otras frutas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En este estudio se exploró y analizó el comportamiento visual de un grupo de porteros expertos de fútbol sala con el objetivo de comprobar cómo el tipo de respuesta motriz solicitada influía en su comportamiento visual. Participaron 4 porteros a los que se les presentó un total de 48 clips dedeo en una pantalla a tamaño real, bajo dos condiciones de respuesta: con movimiento de parada y sin movimiento de parada. Se registró su mirada con el pupilómetro ASL Mobile Eye durante dos condiciones de tiro de penalti. Se analizó la mirada en el intervalo de -250 a 205 ms en torno al disparo. Los resultados mostraron que cuando respondían con la acción habitual de parada, solo se encontraron fijaciones en la mitad de los casos, estas fijaciones eran de corta duración y localizadas principalmente en la zona del suelo justo enfrente del balón. Por el contrario, cuando se mantenían en posición estática, su mirada se dirigía hacia la zona entre el balón y la pierna de apoyo, empleando fijaciones de una duración más larga. Se puede concluir que el comportamiento visual fue diferente entre las dos condiciones como resultado de la adaptación a las demandas espacio-temporales específicas de cada condición, ya que el grado de movimiento en la respuesta solicitada tuvo influencia en el comportamiento visual asociado.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Síntesis del procedimiento de diseño formulado en la tesis doctoral de Rafael Morán. La demanda de seguridad en infraestructuras críticas ha aumentado en los últimos años, especialmente en los países con mayor nivel de desarrollo económico y social. En estos países, el control del estado de la seguridad de estas infraestructuras y las medidas para disminuir los riesgos asociados en caso de avería están adquiriendo una gran relevancia, lo que se ha plasmado en unas normativas más exigentes. Las presas están dentro de este tipo de infraestructuras tanto por su interés estratégico como por los daños que pueden llegar a ocasionar en caso de un mal funcionamiento o de su eventual rotura. La tecnología de protecciones de presas surge como respuesta a esta demanda de seguridad y, por este motivo, ha experimentado un gran avance en las últimas décadas. Dentro de este artículo se va a describir la protección tipo repié y el procedimiento de diseño propuesto para evitar el deslizamiento en masa de presas con espaldón de aguas abajo de escollera, cuando se produce una filtración anormalmente elevada debido a un fallo en la impermeabilidad en el conjunto presa-cimiento. El artículo describe brevemente el estado del arte de la tecnología y de sus aplicaciones así como de la innovación conseguida en este campo a partir de las investigaciones desarrolladas en la Universidad Politécnica de Madrid (UPM), en colaboración con el Centro de Estudios Hidrográficos del CEDEX y el Centro Internacional de Métodos Numéricos en la Ingeniería (CIMNE), en el marco del proyecto de investigación del Plan Nacional denominado EDAMS.