44 resultados para Parking lots


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The commercial centre VIALIA and the new railway station of the AVE (high speed train) in Malaga was inaugurated in November 2006, just on the place of the former railway station. The new railway station with an investment of 134,7 million Euros occupies a surface of 51.377 m2, five times the surface of the former station. The enclosure is the biggest intermodal and commercial centre of Spain which comprises a parking of 21.000 m2 for 1300 parking places, one commercial area and a hotel with a total extension constructed of approximately 100.000 m2. The spaces of leisure contain cinemas, shops, restaurants, bowling, gymnasium, swimming pool and zones of passenger's traffic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las últimas décadas el mundo ha sufrido un aumento exponencial en la utilización de soluciones tecnológicas, lo que ha desembocado en la necesidad de medir situaciones o estados de los distintos objetos que nos rodean. A menudo, no es posible cablear determinados sensores por lo que ese aumento en la utilización de soluciones tecnológicas, se ha visto traducido en un aumento de la necesidad de utilización de sensórica sin cables para poder hacer telemetrías correctas. A nivel social, el aumento de la demografía mundial está estrechamente ligado al aumento de la necesidad de servicios tecnológicos, por lo que es lógico pensar que a más habitantes, más tecnología será consumida. El objetivo de este Proyecto Final de Carrera está basado en la utilización de diversos nodos o también llamados motas capaces de realizar transferencia de datos en modo sin cables, permitiendo así realizar una aplicación real que solvente problemas generados por el aumento de la densidad de población. En concreto se busca la realización de un sistema de aparcamiento inteligente para estacionamientos en superficie, ayudando por tanto a las tareas de ordenación vehicular dentro del marco de las Smart cities. El sistema está basado en el protocolo de comunicaciones 802.15.4 (ZigBee) cuyas características fundamentales radican en el bajo consumo de energía de los componentes hardware asociados. En primer lugar se realizará un Estado del Arte de las Redes Inalámbricas de Sensores, abordando tanto la arquitectura como el estándar Zigbee y finalmente los componentes XBee que se van a utilizar en este Proyecto. Seguidamente se realizará la algoritmia necesaria para el buen funcionamiento del sistema inteligente de estacionamiento y finalmente se realizará un piloto demostrador del correcto funcionamiento de la tecnología. ABSTRACT In the last decades the world has experienced an exponential increase in the use of technological solutions, which has resulted in the need to measure situations or states of the objects around us. Often, wired sensors cannot be used at many situations, so the increase in the use of technological solutions, has been translated into a increase of the need of using wireless sensors to make correct telemetries. At the social level, the increase in global demographics is closely linked to the increased need for technological services, so it is logical that more people, more technology will be consumed. The objective of this Final Project is based on the use of various nodes or so-called motes, capable of performing data transfer in wireless mode, thereby allowing performing a real application solving problems generated by the increase of population densities. Specifically looking for the realization of a smart outdoor parking system, thus helping to vehicular management tasks within the framework of the Smart Cities. The system is based on the communication protocol 802.15.4 (ZigBee) whose main characteristics lie in the low energy consumption associated to the hardware components. First there will be a State of the Art of Wireless Sensor Networks, addressing both architecture and finally the Zigbee standard XBee components to be used in this project. Then the necessary algorithms will be developed for the proper working of the intelligent parking system and finally there will be a pilot demonstrator validating the whole system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto engloba el estudio del potencial fotovoltaico del Campus Sur de la Universidad Politécnica de Madrid. Este estudio se divide en tres partes. En primer lugar, se calcula la productividad del campus. En segundo lugar, se diseña la disposición de los generadores fotovoltaicos en los terrenos disponibles. Como paso final, se realiza un estudio económico de distintos supuestos. Para realizar los cálculos de productividad, se utiliza IESPRO, un programa desarrollado en Matlab©, junto con una aplicación complementaria desarrollada en el mismo lenguaje. Gracias a estos dos software es posible obtener una estimación muy realista de la energía anual generada. El aprovechamiento del terreno se estudia con la ayuda del software libre Sketchup©. Gracias a esta aplicación, es posible la reconstrucción del Campus Sur en 3D. Dicha reconstrucción incluye edificaciones y vegetación, facilitando la distribución de los generadores fotovoltaicos en todas las zonas, pudiendo evitar zonas con sombreado o no aptas para la instalación, y maximizando la utilización del terreno. El conjunto de los análisis anteriores permiten determinar el rendimiento energético del Campus Sur en sus distintas configuraciones, es decir, únicamente instalando generadores fotovoltaicos en las azoteas de los edificios, o la instalación en todo el terreno disponible, el cual incluye las azoteas y los descampados. Este rendimiento energético, comparado con el consumo anual de todo el campus, permite estimar el coste financiero de llevar a cabo la instalación y su rentabilidad, todo ello detallado en el estudio económico. El estudio económico se basa en dos supuestos, el primero de ellos, únicamente tiene en cuenta la instalación en las azoteas de los edificios. El segundo estudio, incluye los descampados y las azoteas. Con estos dos estudios se puede verificar la viabilidad del proyecto, facilitando datos concretos sobre las ventajas de cada uno de ellos. ABSTRACT. The aim of this work is to study the photovoltaic potential in the South Campus of the Polytechnic University of Madrid. The work has been divided into three parts. The first one is focused on the calculus of the solar harvesting productivity of the South Campus. The second part is centered in the development of the complete photovoltaic system layout design, taking into account the available placement. In the third part, an economic study considering several different scenarios is carried out. In order to calculate the solar productivity, the MATLAB based software tool IESPRO together with a complementary application developed in MATLAB as well, have been used. These programs allow to obtain an accurate estimation of the generated annual energy. The land use is studied with the help of free software SketchUp. With this application, it is possible to rebuild the South Campus in 3D. This reconstruction includes: buildings and vegetation, facilitating the distribution of photovoltaic generators in all areas, to avoid shaded or unsuitable areas for the installation, and maximizing land use. All the above analysis allow determining the energy efficiency of the South Campus for two different configurations, i.e., installing solar photovoltaic arrays only on the roofs of the buildings, or installing solar photovoltaic arrays throughout the land available, including vacant lots and rooftops. The facilities final cost and the cost effectiveness are estimated by comparing the energy efficiency with the South Campus total consumption. This study is based on two different scenarios: the first one considers the solar arrays installation in the buildings roofs, and the second one includes in the layout the vacant lots and rooftops. These studies allow verifying the feasibility of the project, and provide specific information related to the advantages and drawbacks of each scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día, el desarrollo tecnológico en el campo de los sistemas inteligentes de transporte (ITS por sus siglas en inglés) ha permitido dotar a los vehículos con diversos sistemas de ayuda a la conducción (ADAS, del inglés advanced driver assistance system), mejorando la experiencia y seguridad de los pasajeros, en especial del conductor. La mayor parte de estos sistemas están pensados para advertir al conductor sobre ciertas situaciones de riesgo, como la salida involuntaria del carril o la proximidad de obstáculos en el camino. No obstante, también podemos encontrar sistemas que van un paso más allá y son capaces de cooperar con el conductor en el control del vehículo o incluso relegarlos de algunas tareas tediosas. Es en este último grupo donde se encuentran los sistemas de control electrónico de estabilidad (ESP - Electronic Stability Program), el antibloqueo de frenos (ABS - Anti-lock Braking System), el control de crucero (CC - Cruise Control) y los más recientes sistemas de aparcamiento asistido. Continuando con esta línea de desarrollo, el paso siguiente consiste en la supresión del conductor humano, desarrollando sistemas que sean capaces de conducir un vehículo de forma autónoma y con un rendimiento superior al del conductor. En este trabajo se presenta, en primer lugar, una arquitectura de control para la automatización de vehículos. Esta se compone de distintos componentes de hardware y software, agrupados de acuerdo a su función principal. El diseño de la arquitectura parte del trabajo previo desarrollado por el Programa AUTOPIA, aunque introduce notables aportaciones en cuanto a la eficiencia, robustez y escalabilidad del sistema. Ahondando un poco más en detalle, debemos resaltar el desarrollo de un algoritmo de localización basado en enjambres de partículas. Este está planteado como un método de filtrado y fusión de la información obtenida a partir de los distintos sensores embarcados en el vehículo, entre los que encontramos un receptor GPS (Global Positioning System), unidades de medición inercial (IMU – Inertial Measurement Unit) e información tomada directamente de los sensores embarcados por el fabricante, como la velocidad de las ruedas y posición del volante. Gracias a este método se ha conseguido resolver el problema de la localización, indispensable para el desarrollo de sistemas de conducción autónoma. Continuando con el trabajo de investigación, se ha estudiado la viabilidad de la aplicación de técnicas de aprendizaje y adaptación al diseño de controladores para el vehículo. Como punto de partida se emplea el método de Q-learning para la generación de un controlador borroso lateral sin ningún tipo de conocimiento previo. Posteriormente se presenta un método de ajuste on-line para la adaptación del control longitudinal ante perturbaciones impredecibles del entorno, como lo son los cambios en la inclinación del camino, fricción de las ruedas o peso de los ocupantes. Para finalizar, se presentan los resultados obtenidos durante un experimento de conducción autónoma en carreteras reales, el cual se llevó a cabo en el mes de Junio de 2012 desde la población de San Lorenzo de El Escorial hasta las instalaciones del Centro de Automática y Robótica (CAR) en Arganda del Rey. El principal objetivo tras esta demostración fue validar el funcionamiento, robustez y capacidad de la arquitectura propuesta para afrontar el problema de la conducción autónoma, bajo condiciones mucho más reales a las que se pueden alcanzar en las instalaciones de prueba. ABSTRACT Nowadays, the technological advances in the Intelligent Transportation Systems (ITS) field have led the development of several driving assistance systems (ADAS). These solutions are designed to improve the experience and security of all the passengers, especially the driver. For most of these systems, the main goal is to warn drivers about unexpected circumstances leading to risk situations such as involuntary lane departure or proximity to other vehicles. However, other ADAS go a step further, being able to cooperate with the driver in the control of the vehicle, or even overriding it on some tasks. Examples of this kind of systems are the anti-lock braking system (ABS), cruise control (CC) and the recently commercialised assisted parking systems. Within this research line, the next step is the development of systems able to replace the human drivers, improving the control and therefore, the safety and reliability of the vehicles. First of all, this dissertation presents a control architecture design for autonomous driving. It is made up of several hardware and software components, grouped according to their main function. The design of this architecture is based on the previous works carried out by the AUTOPIA Program, although notable improvements have been made regarding the efficiency, robustness and scalability of the system. It is also remarkable the work made on the development of a location algorithm for vehicles. The proposal is based on the emulation of the behaviour of biological swarms and its performance is similar to the well-known particle filters. The developed method combines information obtained from different sensors, including GPS, inertial measurement unit (IMU), and data from the original vehicle’s sensors on-board. Through this filtering algorithm the localization problem is properly managed, which is critical for the development of autonomous driving systems. The work deals also with the fuzzy control tuning system, a very time consuming task when done manually. An analysis of learning and adaptation techniques for the development of different controllers has been made. First, the Q-learning –a reinforcement learning method– has been applied to the generation of a lateral fuzzy controller from scratch. Subsequently, the development of an adaptation method for longitudinal control is presented. With this proposal, a final cruise control controller is able to deal with unpredictable environment disturbances, such as road slope, wheel’s friction or even occupants’ weight. As a testbed for the system, an autonomous driving experiment on real roads is presented. This experiment was carried out on June 2012, driving from San Lorenzo de El Escorial up to the Center for Automation and Robotics (CAR) facilities in Arganda del Rey. The main goal of the demonstration was validating the performance, robustness and viability of the proposed architecture to deal with the problem of autonomous driving under more demanding conditions than those achieved on closed test tracks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cualquier indagación sobre proyectos representativos en la historia contemporánea de la vivienda, nos lleva inevitablemente a darnos cuenta como predomina en gran parte de ellos una actitud que tiene que ver con producir indiscriminadamente nuevos productos arquitectónicos. EMBT construyen su propia casa en la calle Mercaders de Barcelona, e inciden en entender la arquitectura no como la creación de nuevos productos sino como una capa más dentro de un sustrato ya informado(materia no prima), una característica puramente postproductiva. Como ellos apuntan su nueva capa de información se ‘instala’, añade sólo información precisa de su tiempo, pero no intenta volver hacia atrás ni rehabilitar o restaurar el edificio existente. Esta comunicación persigue poner de manifiesto la existencia velada de esta otra actitud dentro del campo de la vivienda, una actitud no opuesta y si complementaria, que opera desde una voluntad de no ser, de hacer con (casi) nada. ABSTRACT: Any inquiry about representative projects in the contemporary history of housing, lead us to inevitably understand how in lots of them dominates an attitude related to the indiscriminate production of new architectural products. EMBT build their own house on Mercaders street of Barcelona, and promote the understanding of architecture not as the creation of new products but as a new layer within a substrate already full of information (not a raw material), a feature purely postproductive. As they point, the new information layer is ‘installed’, adds only precise information of its time, but does not try to get back or restore the existing building. This paper aims to demonstrate the veiled existence of this different attitude within the housing field, an attitude not opposed but complementary, that works from a desire of not to do, a desire to do with (almost) nothing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The new railway station of María Zambrano for AVE (Spanish high-speed trains) located in Malaga, has been inaugurated in November 2006, just on the site of the former railway station. The new railway station with an investment of 134.7 million Euros occupies a surface of 51.377 m2, five times the surface of the former station. The enclosure is the biggest intermodal transport and commercial center of Spain which comprises a parking of 21,000 m2 for 1,300 parking places, one commercial area and a hotel of 35 m height, with a total extension constructed of approximately 100,000 m2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto tiene como objetivo principal el análisis de la viabilidad de estacionamiento de vehículos propulsados por gas natural comprimido (GNC) desde el punto de vista de formación de atmosferas potencialmente explosivas en los garajes subterráneos. Además se ha realizado una breve introducción sobre el GNC explicando el origen, la composición y los diferentes usos que tiene. Se ha realizado la evaluación de riesgos asociados a la utilización de vehículos propulsados por gas natural y estimación de tasas de escape en el circuito de combustible de los vehículos propulsados por GNC. Para ello se ha aplicado la normativa UNE EN 60079-10 traspuesta en España mediante el Real Decreto del 681/2003 sobre la salud y la seguridad de los trabajadores y el Real Decreto 400/1996 sobre aparatos y sistemas de protección para su uso en atmósferas explosivas. Finalmente se han expuesto las medidas de prevención y protección necesarias para prevenir la generación de atmosferas potencialmente explosivas en los garajes subterráneos y se han detallado los procedimientos y las operaciones que han de realizarse. En las conclusiones se han explicado las acciones más importantes que deben emprenderse para mejorar la seguridad de personas e instalaciones en las áreas de riesgo por presencia de atmósferas potencialmente explosivas. ABSTRACT The main objective of this project is to analyze the viability of the parking of vehicles powered by compressed natural gas (CNG) in the underground garages from the point of view of generated of potentially explosive atmospheres in garages. A brief introduction about the CNG explaining the origin, composition and the different uses that it has is also included. An assessment of the risks associated with the use of vehicles powered by natural gas has been provided as well as an estimate of the exhaust rates on the gas circuit of CNG vehicles. In order to do that, the standard UNE EN 60079-10 transposed in Spain by the Royal Decree 681/2003 about the health and safety of workers and the Royal Decree 400/1996 about equipment and protection systems to be used in explosive atmospheres have been applied. Finally, the necessary preventive and protective measures to prevent the generation of potentially explosive atmospheres in underground garages have been presented and the procedures and operations to be performed have been detailed. In the conclusions, the most important actions to be taken in order to improve the safety of people and facilities in the areas at risk of having potentially explosive atmospheres have been described.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper is an introduction of the regret theory-based scenario building approach combining with a modified Delphi method that uses an interactive process to design and assess four different TDM measures (i.e., cordon toll, parking charge, increased bus frequency and decreased bus fare). The case study of Madrid is used to present the analysis and provide policy recommendations. The new scenario building approach incorporates expert judgement and transport models in an interactive process. It consists of a two-round modified Delphi survey, which was answeared by a group of Spanish transport experts who were the participants of the Transport Engineering Congress (CIT 2012), and an integrated land-use and transport model (LUTI) for Madrid that is called MARS (Metropolitan Activity Relocation Simulator).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Air Mines The sky over the city's port was the color of a faulty screen, only partly lit up. As the silhouette of nearby buildings became darker, but more clearly visible against the fading blur-filter of a background, the realization came about how persistent a change had been taking place. Slowly, old wooden water reservoirs and rattling HVAC systems stopped being the only inhabitants of roofs. Slightly trembling, milkish jellyfish-translucent air volumes had joined the show in multiples. A few years ago artists and architects seized upon the death of buildings as their life-saving media. Equipped with constructive atlases and instruments they started disemboweling their subjects, poking about their systems, dumping out on the street the battered ugliness of their embarrassing bits and pieces, so rightly hidden by facades and height from everyday view. But, would you believe it? Even ?old ladies?, investment bankers or small children failed to get upset. Of course, old ladies are not what they used to be. It was old ladies themselves that made it happen after years of fights with the town hall, imaginative proposals and factual arguments. An industry with little financial gains but lots of welcome externalities was not, in fact, the ground for investment bankers. But they too had to admit that having otherwise stately buildings make fine particulate pencils with their facades was not the worse that could happen. Yes, making soot pencils had been found an interesting and visible end product of the endeavor, a sort of mining the air for vintage writing tools one can actually touch. The new view from the street did not seem as solid or dignified as that of old, and they hated that the market for Fine Particulates Extraction (FPE, read efpee) had to be applied on a matrix of blocks and streets that prevented undue concentration of the best or worse solutions. It had to be an evenly distributed city policy in order for the city to apply for cleaning casino money. Once the first prototypes had been deployed in buildings siding Garden Avenue or Bulwark Street even fast movers appreciated the sidekick of flower and plant smell dripping down the Urban Space Stations (USS, read use; USSs, read uses) as air and walls cooled off for a few hours after sunset. Enough. It was all nice to remember, but it was now time to go up and start the lightweight afternoon maintenance of their USS. Coop discussions had taken place all through the planning and continued through the construction phase as to how maintenance was going to be organized. Fasters had voted for a pro, pay a small amount and let them use it for rent and produce. In the end some neighbors decided they were slow enough to take care and it was now the turn. Regret came periodically, sometimes a week before, and lasted until work actually started. But lately it had been replaced by anxiety when it needed to be passed over to the next caretaker. It did not look their shift was good enough and couldn?t wait to fix it. Today small preparations needed to be made for a class visit next day from a nearby cook school. They were frequenters. It had not been easy, but it shouldn?t have been that hard. In the end, even the easiest things are hard if they involve a city, buildings and neighbors. On the face of the data, the technicalities and the way final designs had been worked out for adaptation to the different settings, the decision of where to go was self evident, but organization issues and the ever-growing politics of taste in a city of already-gentrified-rodents almost put the project in the frozen orbit of timeless beautiful future possibilities. This is how it was. A series of designs by XClinic and OSS had made it possible to adapt to different building structures, leave in most cases the roof untouched and adapted a new technology of flexing fiberglass tubes that dissipated wind pressure in smooth bending.......

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto surge por la problemática ocasionada por elevadas cantidades de ruido ambiental producido por aviones en sus operaciones cotidianas como despegue, aterrizaje o estacionamiento, que afecta a zonas pobladas cercanas a recintos aeroportuarios. Una solución para medir y evaluar los niveles producidos por el ruido aeronáutico son los sistemas de monitorado de ruido. Gracias a ellos se puede tener un control acústico y mejorar la contaminación ambiental en las poblaciones que limitan con los aeropuertos. El objetivo principal será la elaboración de un prototipo de sistema de monitorado de ruido capaz de medir el mismo en tiempo real, así como detectar y evaluar eventos sonoros provocados por aviones. Para ello se cuenta con un material específico: ordenador portátil, tarjeta de sonido externa de dos canales, dos micrófonos y un software de medida diseñado y desarrollado por el autor. Este será el centro de control del sistema. Para su programación se utilizará la plataforma y entorno de desarrollo LabVIEW. La realización de esta memoria se estructurará en tres partes. La primera parte está dedicada al estado del arte, en la que se explicarán algunos de los conceptos teóricos que serán utilizados para la elaboración del proyecto. En la segunda parte se explica la metodología seguida para la realización del sistema de monitorado. En primer lugar se describe el equipo usado, a continuación se expone como se realizó el software de medida así como su arquitectura general y por último se describe la interfaz al usuario. La última parte presenta los experimentos realizados que demuestran el correcto funcionamiento del sistema. ABSTRACT. This project addresses for the problematics caused by high quantities of environmental noise produced by planes in his daily operations as takeoff, landing or parking produced in populated areas nearly to airport enclosures. A solution to measure and to evaluate the levels produced by the aeronautical noise are aircraft noise monitoring systems. Thanks to these systems it is possible to have an acoustic control and improve the acoustic pollution in the populations who border on the airports. The main objective of this project is the production of a noise monitoring systems prototype capable of measuring real time noise, beside detecting and to evaluate sonorous events produced by planes. The specific material used is portable computer,sound external card of two channels, two microphones and a software of measure designed and developed by the author. This one will be the control center of the system. For his programming is used the platform of development LabVIEW. This memory is structured in three parts. The first part is dedicated to the condition of the art, in that will be explained some of the theoretical concepts that will be used for the production of the project. The second phase is to explain the methodology followed for the development of the noise monitoring systems. First a description of the used equipment, the next step, it is exposed how was realized the software of measure and his general architecture and finally is described the software user interface. The last part presents the realized experiments that demonstrate the correct use of the system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis trata sobre métodos de corrección que compensan la variación de las condiciones de iluminación en aplicaciones de imagen y video a color. Estas variaciones hacen que a menudo fallen aquellos algoritmos de visión artificial que utilizan características de color para describir los objetos. Se formulan tres preguntas de investigación que definen el marco de trabajo de esta tesis. La primera cuestión aborda las similitudes que se dan entre las imágenes de superficies adyacentes en relación a su comportamiento fotométrico. En base al análisis del modelo de formación de imágenes en situaciones dinámicas, esta tesis propone un modelo capaz de predecir las variaciones de color de la región de una determinada imagen a partir de las variaciones de las regiones colindantes. Dicho modelo se denomina Quotient Relational Model of Regions. Este modelo es válido cuando: las fuentes de luz iluminan todas las superficies incluídas en él; estas superficies están próximas entre sí y tienen orientaciones similares; y cuando son en su mayoría lambertianas. Bajo ciertas circunstancias, la respuesta fotométrica de una región se puede relacionar con el resto mediante una combinación lineal. No se ha podido encontrar en la literatura científica ningún trabajo previo que proponga este tipo de modelo relacional. La segunda cuestión va un paso más allá y se pregunta si estas similitudes se pueden utilizar para corregir variaciones fotométricas desconocidas en una región también desconocida, a partir de regiones conocidas adyacentes. Para ello, se propone un método llamado Linear Correction Mapping capaz de dar una respuesta afirmativa a esta cuestión bajo las circunstancias caracterizadas previamente. Para calcular los parámetros del modelo se requiere una etapa de entrenamiento previo. El método, que inicialmente funciona para una sola cámara, se amplía para funcionar en arquitecturas con varias cámaras sin solape entre sus campos visuales. Para ello, tan solo se necesitan varias muestras de imágenes del mismo objeto capturadas por todas las cámaras. Además, este método tiene en cuenta tanto las variaciones de iluminación, como los cambios en los parámetros de exposición de las cámaras. Todos los métodos de corrección de imagen fallan cuando la imagen del objeto que tiene que ser corregido está sobreexpuesta o cuando su relación señal a ruido es muy baja. Así, la tercera cuestión se refiere a si se puede establecer un proceso de control de la adquisición que permita obtener una exposición óptima cuando las condiciones de iluminación no están controladas. De este modo, se propone un método denominado Camera Exposure Control capaz de mantener una exposición adecuada siempre y cuando las variaciones de iluminación puedan recogerse dentro del margen dinámico de la cámara. Los métodos propuestos se evaluaron individualmente. La metodología llevada a cabo en los experimentos consistió en, primero, seleccionar algunos escenarios que cubrieran situaciones representativas donde los métodos fueran válidos teóricamente. El Linear Correction Mapping fue validado en tres aplicaciones de re-identificación de objetos (vehículos, caras y personas) que utilizaban como caracterísiticas la distribución de color de éstos. Por otra parte, el Camera Exposure Control se probó en un parking al aire libre. Además de esto, se definieron varios indicadores que permitieron comparar objetivamente los resultados de los métodos propuestos con otros métodos relevantes de corrección y auto exposición referidos en el estado del arte. Los resultados de la evaluación demostraron que los métodos propuestos mejoran los métodos comparados en la mayoría de las situaciones. Basándose en los resultados obtenidos, se puede decir que las respuestas a las preguntas de investigación planteadas son afirmativas, aunque en circunstancias limitadas. Esto quiere decir que, las hipótesis planteadas respecto a la predicción, la corrección basada en ésta y la auto exposición, son factibles en aquellas situaciones identificadas a lo largo de la tesis pero que, sin embargo, no se puede garantizar que se cumplan de manera general. Por otra parte, se señalan como trabajo de investigación futuro algunas cuestiones nuevas y retos científicos que aparecen a partir del trabajo presentado en esta tesis. ABSTRACT This thesis discusses the correction methods used to compensate the variation of lighting conditions in colour image and video applications. These variations are such that Computer Vision algorithms that use colour features to describe objects mostly fail. Three research questions are formulated that define the framework of the thesis. The first question addresses the similarities of the photometric behaviour between images of dissimilar adjacent surfaces. Based on the analysis of the image formation model in dynamic situations, this thesis proposes a model that predicts the colour variations of the region of an image from the variations of the surrounded regions. This proposed model is called the Quotient Relational Model of Regions. This model is valid when the light sources illuminate all of the surfaces included in the model; these surfaces are placed close each other, have similar orientations, and are primarily Lambertian. Under certain circumstances, a linear combination is established between the photometric responses of the regions. Previous work that proposed such a relational model was not found in the scientific literature. The second question examines whether those similarities could be used to correct the unknown photometric variations in an unknown region from the known adjacent regions. A method is proposed, called Linear Correction Mapping, which is capable of providing an affirmative answer under the circumstances previously characterised. A training stage is required to determine the parameters of the model. The method for single camera scenarios is extended to cover non-overlapping multi-camera architectures. To this extent, only several image samples of the same object acquired by all of the cameras are required. Furthermore, both the light variations and the changes in the camera exposure settings are covered by correction mapping. Every image correction method is unsuccessful when the image of the object to be corrected is overexposed or the signal-to-noise ratio is very low. Thus, the third question refers to the control of the acquisition process to obtain an optimal exposure in uncontrolled light conditions. A Camera Exposure Control method is proposed that is capable of holding a suitable exposure provided that the light variations can be collected within the dynamic range of the camera. Each one of the proposed methods was evaluated individually. The methodology of the experiments consisted of first selecting some scenarios that cover the representative situations for which the methods are theoretically valid. Linear Correction Mapping was validated using three object re-identification applications (vehicles, faces and persons) based on the object colour distributions. Camera Exposure Control was proved in an outdoor parking scenario. In addition, several performance indicators were defined to objectively compare the results with other relevant state of the art correction and auto-exposure methods. The results of the evaluation demonstrated that the proposed methods outperform the compared ones in the most situations. Based on the obtained results, the answers to the above-described research questions are affirmative in limited circumstances, that is, the hypothesis of the forecasting, the correction based on it, and the auto exposure are feasible in the situations identified in the thesis, although they cannot be guaranteed in general. Furthermore, the presented work raises new questions and scientific challenges, which are highlighted as future research work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The paper describes some relevant results of an on-going research aiming to elaborate a methodology to help the mobility management in natural parks, compatible with their protection missions: it has been developed a procedure to reproduce the mobility-environment relationships in various operational conditions. The final purpose is the identification of: a) the effects of various choices in transport planning, both at long term and strategic level; b) the most effective policies of mobility management. The work is articulated in the following steps: 1) definition of protected area on the basis of ecological and socio-economic criteria and legislative constraints; 2) analysis of mobility needs in the protected areas; 3) reconstruction of the state of the art of mobility management in natural parks at European level; 4) analysis of used traffic flows measurement methods; 5) analysis of environmental impacts due to transport systems modelling (air pollution and noise only); 6) identification of mitigation measures to be potentially applied. The whole methodology has been tested and validated on Italian case studies: i) the concerned area has been zoned according to the land-use peculiarities; ii) the local situations of transport infrastructure (roads and parking), services (public transport systems) and rules (traffic regulations) have been mapped with references to physical and functional attributes; iii) the mobility, both systematic and touristic, has been represented in an origin-destination matrix. By means of an assignment model the flows have been distributed and the corresponding average speeds to quantify gaseous and noise emissions was calculated, the criticalities in the reference scenario have been highlighted, as well as some alternative scenarios, including both operational and infrastructural measures have been identified. The comparison between projects and reference scenario allowed the quantification of effects (variation of emissions) for each scenario and a selection of the most effective management actions to be taken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La emisión de polvo por efecto del viento desde depósitos de residuos mineros o industriales y el paso de vehículos en vías no pavimentadas, es un problema que afecta las actividades productivas; el ambiente y la salud de las personas que permanecen en el área contaminada. En Chile, en los últimos años la sensibilidad social y las exigencias ambientales han aumentado, así como la oferta de diferentes supresores y tecnologías de aplicación. Se han revisado las causas que provocan emisión de polvo y las tecnologías disponibles en Chile para la supresión de polvo, además de las metodologías y normativa para evaluar el desempeño de los materiales tratados con diferentes supresores. En algunos casos no es posible comparar propiedades de desempeño, como durabilidad, dosis a aplicar y frecuencia de las aplicaciones, entre otros aspectos. Los procedimientos descritos en la norma NCh3266-2012 permiten evaluar la erosión eólica en depósitos de residuos, sitios eriazos y caminos no pavimentados, entre otros, junto con evaluar el desempeño de diferentes tipos de supresores de polvo a partir de datos objetivos comparables. Esto permite seleccionar el supresor más adecuado, mejorar la eficiencia de los tratamientos, optimizar los costos y mejorar los procesos productivos. Palabras clave: Erosión-eólica, supresor de polvo, residuos-mineros, caminos-no pavimentados. Dust emissions by wind effect from mining deposits or industrial waste and passing vehicles on unpaved roads, is a problem that affects the productive activities; the environment and the health of those who remain in the contaminated area. The social sensitivity and environmental requirements on this issue in Chile have increased, as well as offering different suppressors and application technologies. Have been reviewed the causes of dust emission and technologies available in Chile for dust suppression, plus methodologies and standards for assessing the performance of the treated materials with different suppressors. In some cases it is not possible to compare performance properties such as durability, application dose and frequency of applications, among others aspects. The procedures described in the NCh 3266-2012 standard allows the assessment of wind erosion in waste deposits, vacant lots and unpaved roads, among others, along with evaluating the performance of different types of dust suppressants from comparable objective data. This allows selecting the most suitable suppressor, improve efficiency of treatments, optimize costs and improve production processes. Keywords: Wind-erosion, dust-suppressor, mining-waste, unpavedroads

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The final purpose is the identification of: a) the effects of various choices in transport planning, both at long term and strategic level; b) the most effective policies of mobility management. The preliminary work was articulated in the following steps: 1) definition of protected area on the basis of ecological and socio-economic criteria and legislative constraints; 2) analysis of mobility needs in the protected areas; 3) reconstruction of the state of the art of mobility management in natural parks at European level; 4) analysis of used traffic flows measurement methods; 5) analysis of environmental impacts due to transport systems modelling (limited to air pollution and noise); 6) identification of mitigation measures to the potentially applied. The whole methodology has been firstly tested on the case study of the National Park of ?Gran Sasso and Monti della Laga? and further validated on the National Park of ?Gargano?, both located Italy: i) the concerned area has been zoned according to the land-use peculiarities; ii) the local situations of transport infrastructure (roads and parking), services (public transport systems) and rules (traffic regulations) have been mapped with references to physical and functional attributes; iii) the mobility, both systematic and touristic, has been synthetically represented in an origin-destination matrix. By means of an assignment model it has been determined the distribution of flows and the corresponding average speeds to quantify gaseous and noise emissions. On this basis the environmental criticalities in the reference scenario have been highlighted, as well as some alternative scenarios including both operational and infrastructural measures have been identified. The comparison between the projects and the reference scenario allowed the quantification of the effects (variation of emissions) for each scenario and a selection of the most effective management actions to be taken.