808 resultados para Estándar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis Doctoral evalúa la contribución de una fachada activa, constituida por acristalamientos con circulación de agua, en el rendimiento energético del edificio. Con especial énfasis en la baja afección sobre su imagen, su integración ha de favorecer la calificación del edificio con el futuro estándar de Edificio de consumo de Energía Casi Nulo (EECN). El propósito consiste en cuantificar su aportación a limitar la demanda de climatización, como solución de fachada transparente acorde a las normas de la energía del 2020. En el primer capítulo se introduce el planteamiento del problema. En el segundo capítulo se desarrollan la hipótesis y el objetivo fundamental de la investigación. Para tal fin, en el tercer capítulo, se revisa el estado del arte de la tecnología y de la investigación científica, mediante el análisis de la literatura de referencia. Se comparan patentes, prototipos, sistemas comerciales asimilables, investigaciones en curso en Universidades, y proyectos de investigación y desarrollo, sobre envolventes que incorporan acristalamientos con circulación de agua. El método experimental, expuesto en el cuarto capítulo, acomete el diseño, la fabricación y la monitorización de un prototipo expuesto, durante ciclos de ensayos, a las condiciones climáticas de Madrid. Esta fase ha permitido adquirir información precisa sobre el rendimiento del acristalamiento en cada orientación de incidencia solar, en las distintas estaciones del año. En paralelo, se aborda el desarrollo de modelos teóricos que, mediante su asimilación a soluciones multicapa caracterizadas en las herramientas de simulación EnergyPlus y IDA-ICE (IDA Indoor Climate and Energy), reproducen el efecto experimental. En el quinto capítulo se discuten los resultados experimentales y teóricos, y se analiza la respuesta del acristalamiento asociado a un determinado volumen y temperatura del agua. Se calcula la eficiencia en la captación de la radiación y, mediante la comparativa con un acristalamiento convencional, se determina la reducción de las ganancias solares y las pérdidas de energía. Se comparan el rendimiento del acristalamiento, obtenido experimentalmente, con el ofrecido por paneles solares fototérmicos disponibles en el mercado. Mediante la traslación de los resultados experimentales a casos de células de tamaño habitable, se cuantifica la afección del acristalamiento sobre el consumo en refrigeración y calefacción. Diferenciando cada caso por su composición constructiva y orientación, se extraen conclusiones sobre la reducción del gasto en climatización, en condiciones de bienestar. Posteriormente, se evalúa el ahorro de su incorporación en un recinto existente, de construcción ligera, localizado en la Escuela de Arquitectura de la Universidad Politécnica de Madrid (UPM). Mediante el planteamiento de escenarios de rehabilitación energética, se estima su compatibilidad con un sistema de climatización mediante bomba de calor y extracción geotérmica. Se describe el funcionamiento del sistema, desde la perspectiva de la operación conjunta de los acristalamientos activos e intercambio geotérmico, en nuestro clima. Mediante la parametrización de sus funciones, se estima el beneficio adicional de su integración, a partir de la mejora del rendimiento de la bomba de calor COP (Coefficient of Performance) en calefacción, y de la eficiencia EER (Energy Efficiency Ratio) en refrigeración. En el recinto de la ETSAM, se ha analizado la contribución de la fachada activa en su calificación como Edificio de Energía Casi Nula, y estudiado la rentabilidad económica del sistema. En el sexto capítulo se exponen las conclusiones de la investigación. A la fecha, el sistema supone alta inversión inicial, no obstante, genera elevada eficiencia con bajo impacto arquitectónico, reduciéndose los costes operativos, y el dimensionado de los sistemas de producción, de mayor afección sobre el edificio. Mediante la envolvente activa con suministro geotérmico no se condena la superficie de cubierta, no se ocupa volumen útil por la presencia de equipos emisores, y no se reduce la superficie o altura útil a base de reforzar los aislamientos. Tras su discusión, se considera una alternativa de valor en procesos de diseño y construcción de Edificios de Energía Casi Nulo. Se proponen líneas de futuras investigación cuyo propósito sea el conocimiento de la tecnología de los acristalamientos activos. En el último capítulo se presentan las actividades de difusión de la investigación. Adicionalmente se ha proporcionado una mejora tecnológica a las fachadas activas existentes, que ha derivado en la solicitud de una patente, actualmente en tramitación. ABSTRACT This Thesis evaluates the contribution of an active water flow glazing façade on the energy performance of buildings. Special emphasis is made on the low visual impact on its image, and the active glazing implementation has to encourage the qualification of the building with the future standard of Nearly Zero Energy Building (nZEB). The purpose is to quantify the façade system contribution to limit air conditioning demand, resulting in a transparent façade solution according to the 2020 energy legislation. An initial approach to the problem is presented in first chapter. The second chapter develops the hypothesis and the main objective of the research. To achieve this purpose, the third chapter reviews the state of the art of the technology and scientific research, through the analysis of reference literature. Patents, prototypes, assimilable commercial systems, ongoing research in other universities, and finally research and development projects incorporating active fluid flow glazing are compared. The experimental method, presented in fourth chapter, undertakes the design, manufacture and monitoring of a water flow glazing prototype exposed during test cycles to weather conditions in Madrid. This phase allowed the acquisition of accurate information on the performance of water flow glazing on each orientation of solar incidence, during different seasons. In parallel, the development of theoretical models is addressed which, through the assimilation to multilayer solutions characterized in the simulation tools EnergyPlus and IDA-Indoor Climate and Energy, reproduce the experimental effect. Fifth chapter discusses experimental and theoretical results focused to the analysis of the active glazing behavior, associated with a specific volume and water flow temperature. The efficiency on harvesting incident solar radiation is calculated, and, by comparison with a conventional glazing, the reduction of solar gains and energy losses are determined. The experimental performance of fluid flow glazing against the one offered by photothermal solar panels available on the market are compared. By translating the experimental and theoretical results to cases of full-size cells, the reduction in cooling and heating consumption achieved by active fluid glazing is quantified. The reduction of energy costs to achieve comfort conditions is calculated, differentiating each case by its whole construction composition and orientation. Subsequently, the saving of the implementation of the system on an existing lightweight construction enclosure, located in the School of Architecture at the Polytechnic University of Madrid (UPM), is then calculated. The compatibility between the active fluid flow glazing and a heat pump with geothermal heat supply system is estimated through the approach of different energy renovation scenarios. The overall system operation is described, from the perspective of active glazing and geothermal heat exchange combined operation, in our climate. By parameterization of its functions, the added benefit of its integration it is discussed, particularly from the improvement of the heat pump performance COP (Coefficient of Performance) in heating and efficiency EER (Energy Efficiency Ratio) in cooling. In the case study of the enclosure in the School of Architecture, the contribution of the active glazing façade in qualifying the enclosure as nearly Zero Energy Building has been analyzed, and the feasibility and profitability of the system are studied. The sixth chapter sets the conclusions of the investigation. To date, the system may require high initial investment; however, high efficiency with low architectural impact is generated. Operational costs are highly reduced as well as the size and complexity of the energy production systems, which normally have huge visual impact on buildings. By the active façade with geothermal supply, the deck area it is not condemned. Useful volume is not consumed by the presence of air-conditioning equipment. Useful surface and room height are not reduced by insulation reinforcement. After discussion, water flow glazing is considered a potential value alternative in nZEB design and construction processes. Finally, this chapter proposes future research lines aiming to increase the knowledge of active water flow glazing technology. The last chapter presents research dissemination activities. Additionally, a technological improvement to existing active facades has been developed, which has resulted in a patent application, currently in handling process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependerá de si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una de las características de la cartografía y SIG Participativos (SIGP) es incluir en sus métodos a la sociedad civil para aportar contenidos cualitativos a la información de sus territorios. Sin embargo no sólo se trata de datos, sino de los efectos que pueden tener estas prácticas sobre el territorio y su sociedad. El acceso a esa información se ve reducida en contraste con el incremento de información difundida a través de servicios de visualización, geoinformación y cartografía on-line. Todo esto hace que sea necesario el análisis del alcance real de las metodologías participativas en el uso de Información Geográfica (IG) y la comparación desde distintos contextos geográficos. También es importante conocer los beneficios e inconvenientes del acceso a la información para el planeamiento; desde la visibilidad de muchos pueblos desapercibidos en zonas rurales y periféricas, hasta la influencia en programas de gobierno sobre la gestión del territorio pasando por el conocimiento local espacial. El análisis se centró en los niveles de participación de la sociedad civil y sus grados de accesibilidad a la información (acceso y uso), dentro del estudio de los SIGP, Participatory Mapping, además se estudió de los TIG (Tecnologías de Información Geográfica), cartografías on-line (geoweb) y plataformas de geovisualización espacial, como recursos de Neocartografía. En este sentido, se realizó un trabajo de campo de cartografía participativa en Bolivia, se evaluaron distintos proyectos SIGP en países del norte y sur (comparativa de contextos en países en desarrollo) y se analizaron los resultados del cruce de las distintas variables.(validación, accesibilidad, verificación de datos, valor en la planificación e identidad) La tesis considera que ambos factores (niveles de participación y grado de accesibilidad) afectan a la (i) validación, verificación y calidad de los datos, la (ii) valor analítico en la planificación, y al (iii) modelo de identidad de un lugar, y que al ser tratados de forma integral, constituyen el valor añadido que los SIGP pueden aportar para lograr una planificación efectiva. Asimismo se comprueba, que la dimensión participativa en los SIGP varía según el contexto, la centralización de sus actores e intereses sectoriales. La información resultante de las prácticas SIGP tiende a estar restringida por la falta de legislaciones y por la ausencia de formatos estándar, que limitan la difusión e intercambio de la información. Todo esto repercute en la efectividad de una planificación estratégica y en la viabilidad de la implementación de cualquier proyecto sobre el territorio, y en consecuencia sobre los niveles de desarrollo de un país. Se confirma la hipótesis de que todos los elementos citados en los SIGP y mapeo participativo actuarán como herramientas válidas para el fortalecimiento y la eficacia en la planificación sólo si están interconectadas y vinculadas entre sí. Se plantea una propuesta metodológica ante las formas convencionales de planificación (nueva ruta del planeamiento; que incluye el intercambio de recursos y determinación participativa local antes de establecer la implementación), con ello, se logra incorporar los beneficios de las metodologías participativas en el manejo de la IG y los SIG (Sistemas de Información Geográfica) como instrumentos estratégicos para el desarrollo de la identidad local y la optimización en los procesos de planeamiento y estudios del territorio. Por último, se fomenta que en futuras líneas de trabajo los mapas de los SIGP y la cartografía participativa puedan llegar a ser instrumentos visuales representativos que transfieran valores identitarios del territorio y de su sociedad, y de esta manera, ayudar a alcanzar un mayor conocimiento, reconocimiento y valoración de los territorios para sus habitantes y sus planificadores. ABSTRACT A feature of participatory mapping and PGIS is to include the participation of the civil society, to provide qualitative information of their territories. However, focus is not only data, but also the effects that such practices themselves may have on the territory and their society. Access to this information is reduced in contrast to the increase of information disseminated through visualization services, geoinformation, and online cartography. Thus, the analysis of the real scope of participatory methodologies in the use of Geographic Information (GI) is necessary, including the comparison of different geographical contexts. It is also important to know the benefits and disadvantages of access to information needed for planning in different contexts, ranging from unnoticed rural areas and suburbs to influence on government programs on land management through local spatial knowledge. The analysis focused on the participation levels of civil society and the degrees of accessibility of the information (access and use) within the study of Participatory GIS (PGIS). In addition, this work studies GIT (Geographic Information Technologies), online cartographies (Geoweb) and platforms of spatial geovisualization, as resources of Neocartography. A participatory cartographic fieldwork was carried out in Bolivia. Several PGIS projects were evaluated in Northern and Southern countries (comparatively with the context of developing countries), and the results were analyzed for each these different variables. (validation, accessibility, verification,value, identity). The thesis considers that both factors (participation levels and degree of accessibility) affect the (i) validation, verification and quality of the data, (ii) analytical value for planning, and (iii) the identity of a place. The integrated management of all the above cited criteria constitutes an added value that PGISs can contribute to reach an effective planning. Also, it confirms the participatory dimension of PGISs varies according to the context, the centralization of its actors, and to sectorial interests. The resulting information from PGIS practices tends to be restricted by the lack of legislation and by the absence of standard formats, which limits in turn the diffusion and exchange of the information. All of this has repercussions in the effectiveness of a strategic planning and in the viability of the implementation of projects about the territory, and consequentially in the land development levels. The hypothesis is confirmed since all the described elements in PGISs and participatory mapping will act as valid tools in strengthening and improving the effectivity in planning only if they are interconnected and linked amongst themselves. This work, therefore, suggests a methodological proposal when faced with the conventional ways of planning: a new planning route which includes the resources exchange and local participatory determination before any plan is established -. With this, the benefits of participatory methodologies in the management of GI and GIS (Geographic Information Systems) is incorporated as a strategic instrument for development of local identity and optimization in planning processes and territory studies. Finally, the study outlines future work on PGIS maps and Participatory Mapping, such that these could eventually evolve into visual representative instruments that transfer identity values of the territory and its society. In this way, they would contribute to attain a better knowledge, recognition, and appraisement of the territories for their inhabitants and planners.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el futuro, la gestión del tráfico aéreo (ATM, del inglés air traffic management) requerirá un cambio de paradigma, de la gestión principalmente táctica de hoy, a las denominadas operaciones basadas en trayectoria. Un incremento en el nivel de automatización liberará al personal de ATM —controladores, tripulación, etc.— de muchas de las tareas que realizan hoy. Las personas seguirán siendo el elemento central en la gestión del tráfico aéreo del futuro, pero lo serán mediante la gestión y toma de decisiones. Se espera que estas dos mejoras traigan un incremento en la eficiencia de la gestión del tráfico aéreo que permita hacer frente al incremento previsto en la demanda de transporte aéreo. Para aplicar el concepto de operaciones basadas en trayectoria, el usuario del espacio aéreo (la aerolínea, piloto, u operador) y el proveedor del servicio de navegación aérea deben negociar las trayectorias mediante un proceso de toma de decisiones colaborativo. En esta negociación, es necesaria una forma adecuada de compartir dichas trayectorias. Compartir la trayectoria completa requeriría un gran ancho de banda, y la trayectoria compartida podría invalidarse si cambiase la predicción meteorológica. En su lugar, podría compartirse una descripción de la trayectoria independiente de las condiciones meteorológicas, de manera que la trayectoria real se pudiese calcular a partir de dicha descripción. Esta descripción de la trayectoria debería ser fácil de procesar usando un programa de ordenador —ya que parte del proceso de toma de decisiones estará automatizado—, pero también fácil de entender para un operador humano —que será el que supervise el proceso y tome las decisiones oportunas—. Esta tesis presenta una serie de lenguajes formales que pueden usarse para este propósito. Estos lenguajes proporcionan los medios para describir trayectorias de aviones durante todas las fases de vuelo, desde la maniobra de push-back (remolcado hasta la calle de rodaje), hasta la llegada a la terminal del aeropuerto de destino. También permiten describir trayectorias tanto de aeronaves tripuladas como no tripuladas, incluyendo aviones de ala fija y cuadricópteros. Algunos de estos lenguajes están estrechamente relacionados entre sí, y organizados en una jerarquía. Uno de los lenguajes fundamentales de esta jerarquía, llamado aircraft intent description language (AIDL), ya había sido desarrollado con anterioridad a esta tesis. Este lenguaje fue derivado de las ecuaciones del movimiento de los aviones de ala fija, y puede utilizarse para describir sin ambigüedad trayectorias de este tipo de aeronaves. Una variante de este lenguaje, denominada quadrotor AIDL (QR-AIDL), ha sido desarrollada en esta tesis para permitir describir trayectorias de cuadricópteros con el mismo nivel de detalle. Seguidamente, otro lenguaje, denominado intent composite description language (ICDL), se apoya en los dos lenguajes anteriores, ofreciendo más flexibilidad para describir algunas partes de la trayectoria y dejar otras sin especificar. El ICDL se usa para proporcionar descripciones genéricas de maniobras comunes, que después se particularizan y combinan para formar descripciones complejas de un vuelo. Otro lenguaje puede construirse a partir del ICDL, denominado flight intent description language (FIDL). El FIDL especifica requisitos de alto nivel sobre las trayectorias —incluyendo restricciones y objetivos—, pero puede utilizar características del ICDL para proporcionar niveles de detalle arbitrarios en las distintas partes de un vuelo. Tanto el ICDL como el FIDL han sido desarrollados en colaboración con Boeing Research & Technology Europe (BR&TE). También se ha desarrollado un lenguaje para definir misiones en las que interactúan varias aeronaves, el mission intent description language (MIDL). Este lenguaje se basa en el FIDL y mantiene todo su poder expresivo, a la vez que proporciona nuevas semánticas para describir tareas, restricciones y objetivos relacionados con la misión. En ATM, los movimientos de un avión en la superficie de aeropuerto también tienen que ser monitorizados y gestionados. Otro lenguaje formal ha sido diseñado con este propósito, llamado surface movement description language (SMDL). Este lenguaje no pertenece a la jerarquía de lenguajes descrita en el párrafo anterior, y se basa en las clearances (autorizaciones del controlador) utilizadas durante las operaciones en superficie de aeropuerto. También proporciona medios para expresar incertidumbre y posibilidad de cambios en las distintas partes de la trayectoria. Finalmente, esta tesis explora las aplicaciones de estos lenguajes a la predicción de trayectorias y a la planificación de misiones. El concepto de trajectory language processing engine (TLPE) se usa en ambas aplicaciones. Un TLPE es una función de ATM cuya principal entrada y salida se expresan en cualquiera de los lenguajes incluidos en la jerarquía descrita en esta tesis. El proceso de predicción de trayectorias puede definirse como una combinación de TLPEs, cada uno de los cuales realiza una pequeña sub-tarea. Se le ha dado especial importancia a uno de estos TLPEs, que se encarga de generar el perfil horizontal, vertical y de configuración de la trayectoria. En particular, esta tesis presenta un método novedoso para la generación del perfil vertical. El proceso de planificar una misión también se puede ver como un TLPE donde la entrada se expresa en MIDL y la salida consiste en cierto número de trayectorias —una por cada aeronave disponible— descritas utilizando FIDL. Se ha formulado este problema utilizando programación entera mixta. Además, dado que encontrar caminos óptimos entre distintos puntos es un problema fundamental en la planificación de misiones, también se propone un algoritmo de búsqueda de caminos. Este algoritmo permite calcular rápidamente caminos cuasi-óptimos que esquivan todos los obstáculos en un entorno urbano. Los diferentes lenguajes formales definidos en esta tesis pueden utilizarse como una especificación estándar para la difusión de información entre distintos actores de la gestión del tráfico aéreo. En conjunto, estos lenguajes permiten describir trayectorias con el nivel de detalle necesario en cada aplicación, y se pueden utilizar para aumentar el nivel de automatización explotando esta información utilizando sistemas de soporte a la toma de decisiones. La aplicación de estos lenguajes a algunas funciones básicas de estos sistemas, como la predicción de trayectorias, han sido analizadas. ABSTRACT Future air traffic management (ATM) will require a paradigm shift from today’s mainly tactical ATM to trajectory-based operations (TBOs). An increase in the level of automation will also relieve humans —air traffic control officers (ATCOs), flight crew, etc.— from many of the tasks they perform today. Humans will still be central in this future ATM, as decision-makers and managers. These two improvements (TBOs and increased automation) are expected to provide the increase in ATM performance that will allow coping with the expected increase in air transport demand. Under TBOs, trajectories are negotiated between the airspace user (an airline, pilot, or operator) and the air navigation service provider (ANSP) using a collaborative decision making (CDM) process. A suitable method for sharing aircraft trajectories is necessary for this negotiation. Sharing a whole trajectory would require a high amount of bandwidth, and the shared trajectory might become invalid if the weather forecast changed. Instead, a description of the trajectory, decoupled from the weather conditions, could be shared, so that the actual trajectory could be computed from this trajectory description. This trajectory description should be easy to process using a computing program —as some of the CDM processes will be automated— but also easy to understand for a human operator —who will be supervising the process and making decisions. This thesis presents a series of formal languages that can be used for this purpose. These languages provide the means to describe aircraft trajectories during all phases of flight, from push back to arrival at the gate. They can also describe trajectories of both manned and unmanned aircraft, including fixedwing and some rotary-wing aircraft (quadrotors). Some of these languages are tightly interrelated and organized in a language hierarchy. One of the key languages in this hierarchy, the aircraft intent description language (AIDL), had already been developed prior to this thesis. This language was derived from the equations of motion of fixed-wing aircraft, and can provide an unambiguous description of fixed-wing aircraft trajectories. A variant of this language, the quadrotor AIDL (QR-AIDL), is developed in this thesis to allow describing a quadrotor aircraft trajectory with the same level of detail. Then, the intent composite description language (ICDL) is built on top of these two languages, providing more flexibility to describe some parts of the trajectory while leaving others unspecified. The ICDL is used to provide generic descriptions of common aircraft manoeuvres, which can be particularized and combined to form complex descriptions of flight. Another language is built on top of the ICDL, the flight intent description language (FIDL). The FIDL specifies high-level requirements on trajectories —including constraints and objectives—, but can use features of the ICDL to provide arbitrary levels of detail in different parts of the flight. The ICDL and FIDL have been developed in collaboration with Boeing Research & Technology Europe (BR&TE). Also, the mission intent description language (MIDL) has been developed to allow describing missions involving multiple aircraft. This language is based on the FIDL and keeps all its expressive power, while it also provides new semantics for describing mission tasks, mission objectives, and constraints involving several aircraft. In ATM, the movement of aircraft while on the airport surface also has to be monitored and managed. Another formal language has been designed for this purpose, denoted surface movement description language (SMDL). This language does not belong to the language hierarchy described above, and it is based on the clearances used in airport surface operations. Means to express uncertainty and mutability of different parts of the trajectory are also provided. Finally, the applications of these languages to trajectory prediction and mission planning are explored in this thesis. The concept of trajectory language processing engine (TLPE) is used in these two applications. A TLPE is an ATM function whose main input and output are expressed in any of the languages in the hierarchy described in this thesis. A modular trajectory predictor is defined as a combination of multiple TLPEs, each of them performing a small subtask. Special attention is given to the TLPE that builds the horizontal, vertical, and configuration profiles of the trajectory. In particular, a novel method for the generation of the vertical profile is presented. The process of planning a mission can also be seen as a TLPE, where the main input is expressed in the MIDL and the output consists of a number of trajectory descriptions —one for each aircraft available in the mission— expressed in the FIDL. A mixed integer linear programming (MILP) formulation for the problem of assigning mission tasks to the available aircraft is provided. In addition, since finding optimal paths between locations is a key problem to mission planning, a novel path finding algorithm is presented. This algorithm can compute near-shortest paths avoiding all obstacles in an urban environment in very short times. The several formal languages described in this thesis can serve as a standard specification to share trajectory information among different actors in ATM. In combination, these languages can describe trajectories with the necessary level of detail for any application, and can be used to increase automation by exploiting this information using decision support tools (DSTs). Their applications to some basic functions of DSTs, such as trajectory prediction, have been analized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Until a few years ago, most of the network communications were based in the wire as the physical media, but due to the advances and the maturity of the wireless communications, this is changing. Nowadays wireless communications offers fast, secure, efficient and reliable connections. Mobile communications are in expansion, clearly driven by the use of smart phones and other mobile devices, the use of laptops, etc… Besides that point, the inversion in the installation and maintenance of the physical medium is much lower than in wired communications, not only because the air has no cost, but because the installation and maintenance of the wire require a high economic cost. Besides the economic cost we find that wire is a more vulnerable medium to external threats such as noise, sabotages, etc… There are two different types of wireless networks: those which the structure is part of the network itself and those which have a lack of structure or any centralization, in a way that the devices that form part of the network can connect themselves in a dynamic and random way, handling also the routing of every control and information messages, this kind of networks is known as Ad-hoc. In the present work we will proceed to study one of the multiple wireless protocols that allows mobile communications, it is Optimized Link State Routing, from now on, OLSR, it is an pro-active routing, standard mechanism that works in a distributed in order to stablish the connections among the different nodes that belong to a wireless network. Thanks to this protocol it is possible to get all the routing tables in all the devices correctly updated every moment through the periodical transmission of control messages and on this way allow a complete connectivity among the devices that are part of the network and also, allow access to other external networks such as virtual private networks o Internet. This protocol could be perfectly used in environments such as airports, malls, etc… The update of the routing tables in all the devices is got thanks to the periodical transmission of control messages and finally it will offer connectivity among all the devices and the corresponding external networks. For the study of OLSR protocol we will have the help of the network simulator “Network Simulator 2”, a freeware network simulator programmed in C++ based in discrete events. This simulator is used mainly in educational and research environments and allows a very extensive range of protocols, both, wired networks protocols and wireless network protocols, what is going to be really useful to proceed to the simulation of different configurations of networks and protocols. In the present work we will also study different simulations with Network Simulator 2, in different scenarios with different configurations, wired networks, and Ad-hoc networks, where we will study OLSR Protocol. RESUMEN. Hasta hace pocos años, la mayoría de las comunicaciones de red estaban basadas en el cable como medio físico pero debido al avance y madurez alcanzados en el campo de las comunicaciones inalámbricas esto está cambiando. Hoy día las comunicaciones inalámbricas nos ofrecen conexiones veloces, seguras, eficientes y fiables. Las comunicaciones móviles se encuentran en su momento de máxima expansión, claramente impulsadas por el uso de teléfonos y demás dispositivos móviles, el uso de portátiles, etc… Además la inversión a realizar en la instalación y el mantenimiento del medio físico en las comunicaciones móviles es muchísimo menor que en comunicaciones por cable, ya no sólo porque el aire no tenga coste alguno, sino porque la instalación y mantenimiento del cable precisan de un elevado coste económico por norma. Además del coste económico nos encontramos con que es un medio más vulnerable a amenazas externas tales como el ruido, escuchas no autorizadas, sabotajes, etc… Existen dos tipos de redes inalámbricas: las constituidas por una infraestructura que forma parte más o menos de la misma y las que carecen de estructura o centralización alguna, de modo que los dispositivos que forman parte de ella pueden conectarse de manera dinámica y arbitraria entre ellos, encargándose además del encaminamiento de todos los mensajes de control e información, a este tipo de redes se las conoce como redes Ad-hoc. En el presente Proyecto de Fin de Carrera se procederá al estudio de uno de los múltiples protocolos inalámbricos que permiten comunicaciones móviles, se trata del protocolo inalámbrico Optimized Link State Routing, de ahora en adelante OLSR, un mecanismo estándar de enrutamiento pro-activo, que trabaja de manera distribuida para establecer las conexiones entre los nodos que formen parte de las redes inalámbricas Ad-hoc, las cuales carecen de un nodo central y de una infraestructura pre-existente. Gracias a este protocolo es posible conseguir que todos los equipos mantengan en todo momento las tablas de ruta actualizadas correctamente mediante la transmisión periódica de mensajes de control y así permitir una completa conectividad entre todos los equipos que formen parte de la red y, a su vez, también permitir el acceso a otras redes externas tales como redes privadas virtuales o Internet. Este protocolo sería usado en entornos tales como aeropuertos La actualización de las tablas de enrutamiento de todos los equipos se conseguirá mediante la transmisión periódica de mensajes de control y así finalmente se podrá permitir conectividad entre todos los equipos y con las correspondientes redes externas. Para el estudio del protocolo OLSR contaremos con el simulador de redes Network Simulator 2, un simulador de redes freeware programado en C++ basado en eventos discretos. Este simulador es usado principalmente en ambientes educativos y de investigación y permite la simulación tanto de protocolos unicast como multicast. El campo donde más se utiliza es precisamente en el de la investigación de redes móviles Ad-hoc. El simulador Network Simulator 2 no sólo implementa el protocolo OLSR, sino que éste implementa una amplia gama de protocolos, tanto de redes cableadas como de redes inalámbricas, lo cual va a sernos de gran utilidad para proceder a la simulación de distintas configuraciones de redes y protocolos. En el presente Proyecto de Fin de Carrera se estudiarán también diversas simulaciones con el simulador NS2 en diferentes escenarios con diversas configuraciones; redes cableadas, redes inalámbricas Ad-hoc, donde se estudiará el protocolo antes mencionado: OLSR. Este Proyecto de Fin de Carrera consta de cuatro apartados distintos: Primeramente se realizará el estudio completo del protocolo OLSR, se verán los beneficios y contrapartidas que ofrece este protocolo inalámbrico. También se verán los distintos tipos de mensajes existentes en este protocolo y unos pequeños ejemplos del funcionamiento del protocolo OLSR. Seguidamente se hará una pequeña introducción al simulador de redes Network Simulator 2, veremos la historia de este simulador, y también se hará referencia a la herramienta extra NAM, la cual nos permitirá visualizar el intercambio de paquetes que se produce entre los diferentes dispositivos de nuestras simulaciones de forma intuitiva y amigable. Se hará mención a la plataforma MASIMUM, encargada de facilitar en un entorno académico software y documentación a sus alumnos con el fin de facilitarles la investigación y la simulación de redes y sensores Ad-hoc. Finalmente se verán dos ejemplos, uno en el que se realizará una simulación entre dos PCs en un entorno Ethernet y otro ejemplo en el que se realizará una simulación inalámbrica entre cinco dispositivos móviles mediante el protocolo a estudiar, OLSR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta memoria hacemos contribuciones dentro del campo de los lenguajes de bases de datos. Nos hemos propuesto tres objetivos fundamentales: 1. Mejorar la expresividad de los lenguajes de bases de datos actuales. 2. Desarrollar semánticas formales para nuestras propuestas de lenguajes de bases de datos extendidos. 3. Llevar a cabo la implementación de las semánticas anteriores en sistemas de bases de datos prácticos. Hemos conseguido estos tres objetivos en distintas áreas dentro de las bases de datos. Por un lado, en el campo de las bases de datos deductivas, proponemos HH:(C). Este lenguaje extiende las capacidades de los lenguajes de bases de datos deductivos con restricciones dado que permite consultas hipotéticas y cuanti cación universal. Por otro lado, utilizamos el estudio dentro de las bases de datos deductivas y lo aplicamos a las bases de datos relacionales. En concreto proponemos HR-SQL que incorpora consultas hipotéticas y de niciones recursivas no lineales y mutuamente recursivas. La idea tras esta propuesta es superar algunas limitaciones expresivas del lenguaje estándar de de nición de bases de datos SQL. A continuación introducimos ambas aproximaciones. Las fórmulas de Harrop hereditarias con restricciones, HH(C), se han usado como base para lenguajes de programación lógica con restricciones. Al igual que la programación lógica da soporte a lenguajes de bases de datos deductivas como Datalog (con restricciones), este marco se usa como base para un sistema de bases de datos deductivas que mejora la expresividad de los sistemas aparecidos hasta el momento. En el segundo capítulo de esta memoria se muestran los resultados teóricos que fundamentan el lenguaje HH:(C) y una implementación concreta de este esquema que demuestra la viabilidad y expresividad del esquema. Las principales aportaciones con respecto a Datalog son la incorporación de la implicación intuicionista, que permite formular hipótesis, y el uso de cuanti cadores incluso en el lenguaje de restricciones. El sistema está diseñado de forma que soporta diferentes sistemas de restricciones. La implementación incluye varios dominios concretos y también funciones de agregación y restricciones de integridad que son habituales en otros lenguajes de bases de datos relacionales. El signi cado del lenguaje se de ne mediante una semántica de pruebas y el mecanismo operacional se de ne mediante una sem ánica de punto jo que es correcta y completa con respecto a la primera. Para el cómputo de las consultas hipotéticas y de las funciones de agregación se hace uso de una noción de estrati cación más compleja que la que usa Datalog. La semántica de punto jo desarrollada constituye un marco apropiado que lleva a la implementación de un sistema concreto...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Material docente de la asignatura «Simulación y Optimización de procesos químicos». Parte de Optimización OPTIMIZACIÓN TEMA 6. Conceptos Básicos 6.1 Introducción. Desarrollo histórico de la optimización de procesos. 6.2 Funciones y regiones cóncavas y convexas. 6.3 Optimización sin restricciones. 6.4 Optimización con restricciones de igualdad y desigualdad. Condiciones de optimalidad de Karush Khun Tucker 6.5 Interpretación de los Multiplicadores de Lagrange. TEMA 7. Programación lineal 7.1 Introducción. Planteamiento del problema en forma canónica y forma estándar. 7.2 Teoremas de la programación lineal 7.3 Resolución gráfica 7.4 Resolución en forma de tabla. El método simplex. 7.5 Variables artificiales. Método de la Gran M y método de las dos fases. 7.6 Conceptos básicos de dualidad. TEMA 8. Programación no lineal 8.1 Repaso de métodos numéricos de optimización sin restricciones 8.2 Optimización con restricciones. Fundamento de los métodos de programación cuadrática sucesiva y de gradiente reducido. TEMA 9. Introducción a la programación lineal y no lineal con variables discretas. 9.1 Conceptos básicos para la resolución de problemas lineales con variables discretas.(MILP, mixed integer linear programming) 9.2 Introducción a la programación no lineal con variables continuas y discretas (MINLP mixed integer non linear programming) 9.3 Modelado de problemas con variables binarias: 9.3.1 Conceptos básicos de álgebra de Boole 9.3.2 Transformación de expresiones lógicas a expresiones algebraicas 9.3.3 Modelado con variables discretas y continuas. Formulación de envolvente convexa y de la gran M.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta presentación se describe el lenguaje CSS, el formato estándar en la web para asociar estilo a los documentos HTML/XHTML.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lenguaje de alto nivel utilizado: Java

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hospitals attached to the Spanish Ministry of Health are currently using the International Classification of Diseases 9 Clinical Modification (ICD9-CM) to classify health discharge records. Nowadays, this work is manually done by experts. This paper tackles the automatic classification of real Discharge Records in Spanish following the ICD9-CM standard. The challenge is that the Discharge Records are written in spontaneous language. We explore several machine learning techniques to deal with the classification problem. Random Forest resulted in the most competitive one, achieving an F-measure of 0.876.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective. To determine the level of involvement of clinical nurses accredited by the Universitat Jaume I (Spain) as mentors of practice (Reference Nurses) in the evaluation of competence of nursing students. Methodolgy. Cross-sectional study, in which the “Clinical Practice Assessment Manual” (CPAM) reported by reference 41 nurses (n=55) were analyzed. Four quality criteria for completion were established: with information at least 80% of the required data, the presence of the signature and final grade in the right place. Verification of learning activities was also conducted. Data collection was performed concurrently reference for nurses and teachers of the subjects in the formative evaluations of clinical clerkship period in the matter “Nursing Care in Healthcare Processes “, from March to June 2013. Results. 63% of CPAM were completed correctly, without reaching the quality threshold established (80%). The absence of the signature is the main criteria of incorrect completion (21%). Nine learning activities do not meet the quality threshold set (80%) (p < 0.05). There are significant differences according to clinical units p < 0.05. From the 30 learning activities evaluated in the CPAM, it can be stated that nine of them do not reach the verification threshold established (80%), therefore it cannot be assumed that these activities had been completed by students and evaluated by the RefN throughout the clinical clerkship period. Conclusion. The level of involvement of Reference Nurse cannot be considered adequate, although strategies to encourage involvement through collaboration and training must be developed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tema 5. Anotación de corpus literario. XML. El estándar TEI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La etiqueta azul del Marine Stewardship Council, pesca sostenible certificada, indica que un producto de pescado, fresco o transformado, procede de un recurso natural, salvaje, gestionado de manera respetuosa con el medio. Para obtenerla es necesario cumplir una serie de requisitos que son evaluados por una empresa certificadora (a la cual MSC ha dado el visto bueno y que es, a su vez, evaluada por otro organismo que asegura su completa imparcialidad). MSC presenta un modo de gestionar pesquerías que, según la propia organización, asegura la continuidad de la especie objetivo, de otras especies dependientes de ésta y del medio donde habitan. Sin embargo, obtener dicha eco-etiqueta azul es complejo y, sobre todo, económicamente difícil. El objetivo de este artículo es comprobar si el enfoque ecosistémico de este estándar ayudaría a paliar el impacto negativo de una pesquería que es fuente de riqueza, alimento y empleo perdurable en el Golfo de Cádiz. Es decir, aplicar los principios y criterios de MSC como herramienta de gestión de la pesquería de la chirla, Chamelea gallina (Linnaeus, 1758), con draga hidráulica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La constante innovación tecnológica y al abaratamiento de los dispositivos, han hecho que el fototrampeo se convierta en una técnica ampliamente utilizada para la realización de inventarios biológicos, generando gran cantidad de registros de alto interés ecológico. El principal objetivo de esta comunicación es presentar una herramienta de software libre (FOSS), desarrollada para facilitar el manejo de datos, obtenidos mediante fototrampeo en un espacio protegido de la Comunidad Valenciana. Así, a partir de un estudio iniciado en 2009, se ha analizado la composición de la comunidad de vertebrados en el Parque Natural de la Sierra de Mariola. Para la realización de los muestreos se han empleado cámaras de infrarrojos con sensor de movimiento (Moultrie Game Spy I-60®), obteniendo un total de 29,941 contactos que han servido para determinar la abundancia de las especies muestreadas en las 63 cuadrículas (2*2 Km) establecidas en la zona de estudio. La aplicación FOSS, denominada “Camera Trap Manager”, se ha diseñado para agilizar el tratamiento de esta información y funciona sobre la plataforma .NET, pudiendo ser utilizada en varios sistemas operativos. Además, este software dispone de un interfaz de usuario muy intuitivo, capacidad de extraer automáticamente distintos tipos de metadatos (fecha, hora, fase lunar, localización, temperatura, presión atmosférica, etc), basados en el estándar Exif; disponibilidad de listas taxonómicas para permitir a los usuarios etiquetar fácilmente las imágenes con las identidades de las especies, capacidad de análisis y creación de informes. El uso de esta aplicación ha permitido simplificar el procesado, análisis y edición de datos, consiguiendo una significativa reducción de los costes económicos y temporales. Mientras que en el procesado manual se alcanzaba una media de 55 fotografías/hora, el uso de esta herramienta permite procesar más de 1,000 fotografías/hora, obteniendo una mayor cantidad de información. Finalmente, se pone de manifiesto la gran utilidad de esta aplicación, que puede ser adaptada a las necesidades de otros proyectos de gestión de fauna, haciendo su uso extensivo no solamente a los profesionales del sector, sino a todos aquellos que requieran procesar gran cantidad de imágenes de fototrampeo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La técnica Holografía Acústica de Campo Cercano (NAH), es una técnica conocida en el ámbito de la ingeniería acústica que permite reconstruir el campo sonoro y la velocidad de vibración de una fuente sonora a partir de medidas con micrófonos, en un plano paralelo y cercano a la fuente. La técnica se presenta como una alternativa a las medidas de intensidad estándar. En la presente comunicación se explica la metodología seguida para visualizar el efecto sobre la respuesta en frecuencia de un altavoz coaxial de un cambio en el filtro de cruce y comprobar el efecto de un cambio en las condiciones de contorno del panel que forma un altavoz de modos distribuidos (DML). Esta práctica o lección magistral puede llevarse a cabo en una carrera técnica después de haber recibido un curso de acústica y tener nociones básicas sobre transductores acústicos y procesado de señal. Los resultados facilitan el aprendizaje del alumnado y la asimilación de conceptos que se han impartido en etapas anteriores.