332 resultados para captación


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente texto se ha desarrollado como Proyecto Fin de Grado en la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid en colaboración con la Consultora Tecnológica everis. El mismo tiene como objetivo realizar un estudio de los requisitos necesarios para poder desplegar un servicio que permita ofrecer a las Operadoras Móviles Virtuales (OMV) soporte técnico a sus clientes a través de las redes sociales. Este módulo establecerá una nueva vía de comunicación entre el consumidor y el cliente de la OMV con la propia OMV, el cual se caracterizará por una alta accesibilidad y una gran rapidez en el servicio permitiendo de este modo, una mayor satisfacción del cliente con su operador móvil y por tanto de una nueva vía para conseguir la fidelización del mismo y la captación de nuevos clientes. Para ello, este proyecto se lleva a cabo sobre el sistema de información 4mobile el cual es comercializado por la mencionada Consultora Tecnológica. Este sistema consiste en una plataforma web la cual permite cubrir todos los procesos de negocio comunes que un OMV necesita gestionar. Es por ello, que el mencionado estudio se centra en la evaluación de los aspectos necesarios para la integración de un módulo de estas características dentro de la plataforma de 4mobile. Este módulo, estará basado en una herramienta software que permitirá gestionar el ciclo de vida completo del comentario realizado por el cliente a través de una red social, desde que es publicado por el cliente, hasta que se haya respondido al mismo y su solución sea considerada como satisfactoria por el cliente. Por ello, y de cara a definir correctamente esta herramienta, será necesario un detallado análisis el cual recoja diversos aspectos y que a lo largo del texto, será denominado como Plan de Marketing de Medios Sociales (PMMS). Estos aspectos versarán tanto de las necesidades tecnológicas para su mencionada integración, como de la serie de características funcionales que una solución basada en servicio técnico a través de las redes sociales deberá poseer con el objetivo de ofrecer un servicio técnico de calidad. Finalmente, estas funcionalidades y necesidades tecnológicas se expondrán en forma de propuesta a everis para su integración en la plataforma 4mobile junto con un análisis de diseño a alto nivel software de la solución a desarrollar. ABSTRACT. This text has been developed as Final Degree Project in the Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid in collaboration with the Technology Consultant everis, aims to conduct a study of how to provide technical support through social networks and the evaluation of the integration of a social support module within the system platform 4mobile, which cover all business processes that need to manage a Mobile Virtual Network Operator (MVNO), which is marketed by above-mentioned consultant . This module will establish a new communication channel between the consumer and the client with the OMV and itself, which is characterized by high accessibility and great fast service. Thus will allow a higher customer satisfaction with him service and thus a new way to get the same loyalty and attract new customers To this end, this project is performed on the information system 4mobile which is marketed by the consulting part thereof everis. This system is a platform to cover all business processes that need to manage an MVNO. Therefore, the mentioned study focuses on the evaluation of the elements necessary for integrating module these features within the platform 4mobile. This module will be based on a software tool for managing the entire lifecycle of the comment made by the customer via social networking, from the moment it is published, until it has been respond and their solution is considered satisfactory for the customer. So, in order to properly define this tool, a detailed analysis which will be necessary to collect various aspects and throughout the text, it will be referred to as Plan of Social Media Marketing (PMMS). These aspects will be address both: the technological needs for the mentioned integration, and the number of functional characteristics-based service through social networking solution, as this must in order to provide a quality service Finally, these goals and requirements will be discussed as everis offer for integration into the platform 4mobile analysis along with a high level of software design to develop the solution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre todas las fuentes de ruido, la activación de la propulsión en reversa de un avión después de aterrizar es conocida por las autoridades del aeropuerto como una causa importante de impacto acústico, molestias y quejas en las proximidades vecinas de los aeropuertos. Por ello, muchos de los aeropuertos de todo el mundo han establecido restricciones en el uso de la reversa, especialmente en las horas de la noche. Una forma de reducir el impacto acústico en las actividades aeroportuarias es implementar herramientas eficaces para la detección de ruido en reversa en los aeropuertos. Para este proyecto de fin de carrera, aplicando la metodología TREND (Thrust Reverser Noise Detection), se pretende desarrollar un sistema software capaz de determinar que una aeronave que aterrice en la pista active el frenado en reversa en tiempo real. Para el diseño de la aplicación se plantea un modelo software, que se compone de dos módulos:  El módulo de adquisición de señales acústicas, simula un sistema de captación por señales de audio. Éste módulo obtiene muestra de señales estéreo de ficheros de audio de formato “.WAV” o del sistema de captación, para acondicionar las muestras de audio y enviarlas al siguiente módulo. El sistema de captación (array de micrófonos), se encuentra situado en una localización cercana a la pista de aterrizaje.  El módulo de procesado busca los eventos de detección aplicando la metodología TREND con las muestras acústicas que recibe del módulo de adquisición. La metodología TREND describe la búsqueda de dos eventos sonoros llamados evento 1 (EV1) y evento 2 (EV2); el primero de ellos, es el evento que se activa cuando una aeronave aterriza discriminando otros eventos sonoros como despegues de aviones y otros sonidos de fondo, mientras que el segundo, se producirá después del evento 1, sólo cuando la aeronave utilice la reversa para frenar. Para determinar la detección del evento 1, es necesario discriminar las señales ajenas al aterrizaje aplicando un filtrado en la señal capturada, después, se aplicará un detector de umbral del nivel de presión sonora y por último, se determina la procedencia de la fuente de sonido con respecto al sistema de captación. En el caso de la detección del evento 2, está basada en la implementación de umbrales en la evolución temporal del nivel de potencia acústica aplicando el modelo de propagación inversa, con ayuda del cálculo de la estimación de la distancia en cada instante de tiempo mientras el avión recorre la pista de aterrizaje. Con cada aterrizaje detectado se realiza una grabación que se archiva en una carpeta específica y todos los datos adquiridos, son registrados por la aplicación software en un fichero de texto. ABSTRACT. Among all noise sources, the activation of reverse thrust to slow the aircraft after landing is considered as an important cause of noise pollution by the airport authorities, as well as complaints and annoyance in the airport´s nearby locations. Therefore, many airports around the globe have restricted the use of reverse thrust, especially during the evening hours. One way to reduce noise impact on airport activities is the implementation of effective tools that deal with reverse noise detection. This Final Project aims to the development of a software system capable of detecting if an aircraft landing on the runway activates reverse thrust on real time, using the TREND (Thrust Reverser Noise Detection) methodology. To design this application, a two modules model is proposed: • The acoustic signals obtainment module, which simulates an audio waves based catchment system. This module obtains stereo signal samples from “.WAV” audio files or the catchment system in order to prepare these audio samples and send them to the next module. The catchment system (a microphone array) is located on a place near the landing runway. • The processing module, which looks for detection events among the acoustic samples received from the other module, using the TREND methodology. The TREND methodology describes the search of two sounds events named event 1 (EV1) and event 2 (EV2). The first is the event activated by a landing plane, discriminating other sound events such as background noises or taking off planes; the second one will occur after event one only when the aircraft uses reverse to slow down. To determine event 1 detection, signals outside the landing must be discriminated using a filter on the catched signal. A pressure level´s threshold detector will be used on the signal afterwards. Finally, the origin of the sound source is determined regarding the catchment system. The detection of event 2 is based on threshold implementations in the temporal evolution of the acoustic power´s level by using the inverse propagation model and calculating the distance estimation at each time step while the plane goes on the landing runway. A recording is made every time a landing is detected, which is stored in a folder. All acquired data are registered by the software application on a text file.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sistema portuario español movió en el año 2013 aproximadamente 458,54 millones de toneladas, 13,8 millones de TEUs, con un total de 131.128 buques que accedieron a puerto para el conjunto de las 28 Autoridades Portuarias. Con el 62% de las exportaciones y el 86% de las importaciones realizadas por vía marítima, una rentabilidad del 2,34 %, muy cerca del objetivo del 2,5 % de rentabilidad media annual establecida legalmente, y una cifra de negocios aproximada de 1.028 millones de euros equivalentes al 1,1 % del PIB que genera un empleo directo e indirecto vinculado de 145.000 personas, concluimos que estamos hablando de un sector estratégico para la economía del país. Desde hace décadas, en muchos puertos del mundo se han venido desarrollando terminales “hub” o de concentración y distribución de cargas. Las navieras concentran entre este tipo de terminales sus líneas transoceánicas con buques de enormes dimensiones y capacidad de carga para producir los tránsitos de contenedores desde estas líneas a otras líneas llamadas “feeder”, con buques de menor tamaño que enlazan el “hub” con los puertos de su área marítima de influencia. La excepcional ubicación geoestratégica de España, con aproximadamente ocho mil kilómetros de costa, ha originado que los puertos españoles de mayor dimensión aspiren a incorporarse a esta red marítima internacional de contenedores y determina que en nuestro sistema portuario los movimientos de contenedores de tránsito tengan gran importancia. Sin embargo, la crisis económica ha tenido un efecto decisivo en el sector marítimo, determinando una lucha feroz entre todos los puertos, nacionales e internacionales, por captar este tipo de tráficos, lo que origina una búsqueda de las compañías navieras de puertos cada vez más eficientes en términos calidad/coste del servicio. La entrada en vigor del Texto Refundido de la Ley de Puertos y la piedra angular de su reforma, la Ley 33/2010, plantea como objetivo principal la mejora de la competitividad del sistema portuario español y liderar su recuperación, ofreciendo unas condiciones de entorno favorables a los puertos españoles que acaben por incentivar la captación de tráficos e inversión privada a través de una oferta de servicios e infraestructura de calidad y a precios competitivos que consoliden su posición dentro del tráfico marítimo mundial. Surge, por tanto, la conveniencia de investigar la influencia de las medidas propuestas por dicha norma legal y las soluciones ofrecidas a las demandas de un sector considerado estratégico para la economía del país, y cuya resolución se considera imprescindible para consolidar su recuperación. Por eso, se han analizado los aspectos más importantes de la reforma mediante la realización de un resumen ejecutivo y se ha estudiado la influencia de las medidas que incorpora desde el punto de vista de tres factores, que previamente se han considerado como fundamentales para la recuperación del sistema portuario español, y que históricamente habían sido demandados por el mismo, como son, en primer lugar, un progresivo sistema de flexibilización tributaria que permitiera a los puertos españoles ganar en términos de competitividad respecto a otros modelos portuarios mucho más flexibles en materia tarifaria, en segundo lugar, una necesaria liberalización del régimen de prestación de los servicios portuarios que posibilite el libre acceso a cualquier interesado en su prestación y, en último lugar, el progresivo abaratamiento de los costes inherentes a dichos servicios, fundamentalmente la manipulación de mercancías. Con posterioridad se ha investigado el trámite parlamentario al que se ha sometido la ley, fruto del enorme consenso alcanzado entre las dos principales fuerzas políticas del país, que determinó que se presentaran más de 700 enmiendas al proyecto original, y en algunos casos, se ha prestado especial atención a determinadas enmiendas que se consideran, en opinión de este investigador, novedosas y aventuradas, razón por la cual quizás no fueron incorporadas definitivamente al texto legal. Y se han analizado las principales demandas y aportaciones extraídas de la Sesión Informativa sobre la tramitación del entonces proyecto de ley ofrecida por la Comisión de Fomento del Congreso de los Diputados a los principales representantes del sector, comunidad portuaria, universidad y sindicatos. Siendo conscientes de la incidencia que tiene el servicio portuario de manipulación de mercancías en el paso de la mercancía por el puerto, se ha hecho una referencia concreta al peculiar régimen jurídico y laboral del personal vinculado al servicio. Avanzamos que las características de la relación laboral especial, y su peculiar régimen jurídico, con una dualidad de relaciones laborales, tiene una influencia decisiva en la nómina del trabajador que se repercute en los usuarios del servicio, fundamentalmente el naviero y el operador de la terminal, que en definitiva, incide en la competitividad del puerto. Y se ha constatado el auge aperturista de numerosas legislaciones portuarias europeas, prestando especial atención al proyecto frustrado de liberalización de los servicios portuarios en la Unión Europea de la conocida como Directiva Loyola de Palacio del año 2003 y al Libro Blanco de Transportes del año 2011. Así como a las deficiencias advertidas por el Dictamen de la Comisión Europea de fecha 27/09/2012 en relación al régimen jurídico del servicio portuario de manipulación de mercancías, que lo considera disconforme y contrario con las normas de libertad de establecimiento en Europa y que amenaza con una previsible reforma unilateral de la legislación portuaria española, a instancias europeas. Bajo este planteamiento, se ha procedido a analizar el marco de prestación de dichos servicios desde el punto de vista de la propia comunidad portuaria. Inicialmente, a través de un estudio de fuerzas de la competitividad del sector de los servicios portuarios en el sistema portuario español que nos permitirá trazar un mapa estratégico del mismo a través del “Modelo de las Cinco Fuerzas de Porter” concluyendo, que el poder de los prestadores de servicios portuarios como proveedores de los mismos, fundamentalmente en la manipulación de mercancías, es máximo, con un único colectivo, los estibadores portuarios, que al amparo de la normativa legal vigente tienen la exclusividad de su prestación. Dichas circunstancias restan competitividad al sistema frente a alternativas portuarias más flexibles y desincentivan la inversión privada. Y, en segundo lugar, mediante un proceso participativo en distintas encuestas sobre el modelo legislativo y sobre el marco formativo del sector con los propios agentes afectados dentro de la comunidad portuaria, desde la triple perspectiva de la vertiente pública que representan las Autoridades Portuarias, como gestores de las infraestructuras, la vertiente privada que representan los usuarios y prestadores de servicios, como principal cliente del puerto y desde el punto de vista de la propia mano de obra portuaria materializada en la representación sindical de dichos trabajadores. Los resultados nos permitirán concluir, respectivamente, la incidencia del servicio portuario mercancía por el puerto, por representar más de la mitad de los costes. Así como la aspiración de los trabajadores adscritos a dicho servicio de consolidar un título formativo que unifique y potencie su capacitación profesional, circunstancia esta última, también demandada por toda comunidad portuaria. Analizadas las conclusiones extraídas en cada una de las líneas de investigación se han detectado una serie de ineficiencias dentro del mismo que dicho marco regulador no ha sabido resolver, por lo que se ha considerado la conveniencia de formular, como herramienta de ayuda a gestores del sistema portuario español, una relación de medidas que, en opinión de este investigador, se consideran necesarias para mejorar el régimen de prestación de los servicios portuarios y se ha propuesto un borrador de modificación del actual Texto Refundido que pueda servir de base para materializar una futura reforma legal. Las conclusiones obtenidas en la investigación deben sentar las bases de una profunda reflexión sobre la necesidad de encaminar, como alternativa a una previsible modificación a instancias europeas, una reforma legal que decididamente apueste por la competitividad del sistema portuario español desde el punto de vista de la liberalización de servicios, el abaratamiento de los costes de la estiba y la necesaria profesionalización de los trabajadores adscritos al servicio portuario de manipulación de mercancías. During 2013 the Spanish Port System moved nearly 458,54 million tons of freight, 13,8 million TEUs, involving a total of 131.128 ships for the 28 existing Port Authorities. With 62% of exports and 86% of imports made through sea transportation, a 2,34% profit, close to the 2,5% average annual profit goal legally established, revenues of 1.028 million € equivalent to a 1.1% of Spain’s GDP and a figure of 145.000 people a directly or indirectly employed we can conclude that maritime industry is undoubtedly one of the strategic and key sectors for the country’s economy. Since several decades many ports in the world have been increasingly developing “Hub” terminals, those which concentrate and distribute freight. Shipping companies place among these type of terminals their transoceanic sea liners along with huge dimension & capacity ships to make the container transit from these liners to other called “feeder” which are smaller freight ships that connect the “hub” with the ports within its maritime area of influence. Spain’s exceptional geostrategic location with over 8.000 km of coastline has originated that those big dimension Spanish ports aspire to become a part of a container international maritime network which also determines that transit container move is key within our port system. Nevertheless the economic crisis has had a decisive impact on the maritime sector originating a fierce battle between all ports, national and international ones, all of them fight against each other to catch this type of maritime traffic which triggers an ongoing shipping companies search in cost/service quality efficient ports. The cornerstone of the Restated Text of Port Law is Law 33/2010, which lays out as main goal the Spanish Port System competitiveness improvement and lead its recovery offering favorable environment conditions to Spanish ports which help encourage maritime traffic attraction and private investment through a wide offer of services, quality of infrastructure and competitive prices which can consolidate its positioning within the world’s maritime traffic. It is therefore key to investigate the influence of the measures proposed by the above mentioned law and also the solutions offered to the demands of a sector which is considered strategic for the country’s economy and which solution is essential to consolidate the recovery. It is because of this that the most important aspects of the reform have been analyzed through the making of an executive summary and it has also been studied the influence of the measures it includes from the point of view of three factors which have previously been considered as key for the Spanish port system recovery. The system has historically demanded a progressive tax flexibility, which would permit Spanish ports be more competitive compared to other port models much more flexible in rates, a necessary liberalization of the port service provision regime and last but not least, to cut the price of costs related to those services, mainly freight handling. Following this, the parliamentary process of the law has also been studied as a consequence of the vast consensus reached by the main political forces in the country which clearly determined that more than 700 amendments to the original project were presented. In some cases the focus has been on amendments which are adventurous and new, reason why they were finally not included to the final legal text. Being well aware of the importance that freight handling procedure has, I have made a specific reference to the legal and working framework of those employees related to this service. We conclude that the special working relationship, its different legal regime, along with the working relationship dualism has a big impact and decisive influence over the worker’s salary which also affects service users, mainly shipowners and terminal operators, having a bad effect on the port’s competitiveness. The above confirms the new opening trend of main European port laws with special attention to the frustrated European Union port services liberalization project, also known as Directive Loyola de Palacio (2003) and the White Paper on Transports (2011). It is important to highlight that the European Commission has also observed several deficiencies with regard to the freight handling port service Law Regime being in disagreement with it, considering it is against the free establishment rules in Europe. The Commission is likely to present a unilateral reform to the Spanish Port Law. Under this approach the service provision framework is being analyzed from the Port Community point of view. Initially the analysis will focus on the study of the competition forces within the port services industry in Spain, this will allow us to draw up an strategic map through “Porter’s Five Forces Model” concluding that the power of port services providers as freight handlers is maximum, with an only collective, stevedores, which has the exclusivity for their services. All these circumstances not only decrease the system’s competitiveness versus other more flexible but also restrain private investments. Secondly, through a participating procedure in different surveys about the legislative model and about the training framework with the affected agents within the port community, there is a triple perspective: Public point of view represented by Port Authorities as infrastructure managers, Private point of view represented by users and service suppliers as main Port’s customer and finally, port workforce, represented by union leaders. Results will let us conclude that freight handling service is the most critical port service and represents more than half of the costs. This service related workers aspire to obtain a training certificate that unifies and boosts their professional role which is also chased by the entire port community. Once conclusions have been analyzed for all research lines, several deficiencies have been found and the regulatory framework hasn’t yet been able to solve them, it has therefore been a series of necessary measures that help improve the port services provision regime. A new proposal to the Restated Law Text has been drafted as the first step to embrace a future legal reform. Conclusions obtained on the research should set the new basis of a deep reflection about the need to bent on a new legal reform which firmly bets on Spanish port system competitiveness from three key points of view, service liberalization, ship load cost reduction and professionalization of freight handling related workers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una de las medidas de mitigación del Cambio Climático propuestas al amparo de la ONU por el IPCC (Intergovermental Panel on Climate Change) en su ‘Informe de Síntesis 2007’ consiste en la puesta en marcha de acciones para la captación y almacenamiento de dióxido de carbono, existiendo tres tipos de formaciones geológicas idóneas para el almacenamiento geológico de este gas: yacimientos de petróleo y gas agotados, capas de carbón no explotables y formaciones salinas profundas. En el caso de las formaciones salinas profundas, el problema fundamental para llevar a cabo un estudio de almacenamiento de CO2, reside en la dificultad de obtención de datos geológicos del subsuelo en una cierta estructura seleccionada, cuyas características pueden ser a priori idóneas para la inyección y almacenamiento del gas. Por este motivo la solución para poder analizar la viabilidad de un proyecto de almacenamiento en una estructura geológica pasa por la simulación numérica a partir de la modelización 3D del yacimiento. Los métodos numéricos permiten simular la inyección de un caudal determinado de dióxido de carbono desde un pozo de inyección localizado en una formación salina. En la presente tesis se ha definido una metodología de simulación de almacenamiento geológico de CO2, como contribución a la solución al problema del Cambio Climático, aplicada de forma concreta a la estructura BG-GE-08 (oeste de la Comunidad de Murcia). Esta estructura geológica ha sido catalogada por el IGME (Instituto Geológico y Minero de España) como idónea para el almacenamiento de dióxido de carbono, dada la existencia de una capa almacén confinada entre dos capas sello. ABSTRACT One of the climate change mitigation proposals suggested by the IPCC (Intergovermental Panel on Climate Change) in its ‘Synthesis Report 2007’ involves the launch of actions for capturing and storing carbon dioxide, existing three different geological structures suitable for gas storage: oil and gas reservoirs already drained, useless coal layers and deep saline structures. In case of deep saline structures, the main problem to develop a study of CO2 storage is the difficulty of obtaining geological data for some selected structure with characteristics that could be suitable for injection and gas storage. According to this situation, the solution to analyze the feasibility of a storage project in a geological structure will need numerical simulation from a 3D model. Numerical methods allow the simulation of the carbon dioxide filling in saline structures from a well, used to inject gas with a particular flow. In this document a simulation methodology has been defined for geological CO2 storage, as a contribution to solve the Climatic Change problem, applied to the structure BG-GE-08 (west of Murcia region). This geological structure has been classified by the IGME (Geological and Mining Institute of Spain) as suitable for the storage of carbon dioxide given the existence of a storage layer confined between two seal layers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas desarrollados para el cultivo de las microalgas pueden clasificarse en dos grandes grupos, en función de la forma de desarrollo de las poblaciones algales: cultivos en suspensión y cultivos inmovilizados. A su vez, ambos sistemas de cultivo pueden ser abiertos o cerrados, según que las microalgas y el medio de cultivo estén en contacto directo con el aire atmosférico o no. Los cultivos de microalgas inmovilizadas en una superficie que actúa de soporte, forman un 'biofilm' contínuo sobre dicha superficie formando un ecosistema específico de agregación denominado 'biofilm', normalmente constituido por varias especies, incluyendo bacterias, aunque puede haber alguna predominante. Las principales ventajas que tienen los fotobior reactores de biofilm sobre los de células suspendidas son: a) Facilidad para la cosecha, b) Mayor concentración por unidad de volumen de medio, c) reducción o ausencia de células en el efluente, d) reducción en la necesidad de energía y e) mayor eficiencia en el empleo de la radiación recibida por unidad de superficie de suelo. El uso de fotobiorreactores abiertos de microalgas inmovilizadas es relativamente reciente, dirigiéndose los desarrollos en dos direcciones: una que considera el soporte del biofilm fijo, siendo el medio acuoso el que se mueve sobre él y otra que considera el soporte del biofilm móvil en un medio acuático estático o de lento movimiento. Al primero de los tipos pertenece el fotobiorreactor laminar desarrollado por el Grupo de Agroenergética de la UPM (GA-UPM) (patente ES 2 347 515 B2 ), especialmente concebido para la captación del CO2 procedente de emisiones y para la producción de biomasa algal. Otro desarrollo del GA-UPM perteneciente al segundo tipo ha sido un fotobiorreactor de biodisco de eje flotante, que elimina los inconvenientes de los contactores de biodisco tradicionales, ya que no necesita cojinetes de apoyo ni eje rígido y al estar dotado de un propulsor hidrobárico consume muy poca energía, sin limitación técnica en cuanto a la longitud total del eje. (Modelo de Utilidad ES 1 099 707 U). Este fotobiorreactor está especialmente diseñado para la eliminación de nutrientes (N y P) de los efluentes del secundario de las EDAR y también puede utilizarse como un contactor tradicional de biodiscos para eliminación de la materia orgánica de las aguas residuales con indudables ventajas de reducción de costes de instalación y funcionamiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La célebre Fuente Agria de Puertollano (Ciudad Real) forma parte del conjunto de manantiales ferruginosos y con alto contenido en CO2 que se hayan asociados a la extensa área volcánica del Campo de Calatrava, representando la fase póstuma del volcanismo terciario y cuaternario que afectó a esta zona. Se trata de una surgencia a presión que procede de la descarga bajo los depósitos miocenos del acuífero de cuarcitas de la Sierra de Santa Ana. Se establece así mismo la caracterización hidrogeológica del entorno regional del manantial en base a sondeos realizados exprofeso, y que incluye el subsuelo de una parte de la ciudad de Puertollano y de la Sierra que lo bordea por el norte. Se propone un modelo hidrogeológico para la explicación de este tipo de fuentes de borde de las sierras, el cual supone la captación del flujo profundo del CO2 mediante fallas en la periferia de las masas impermeables por parte de las aguas que circulan por los niveles cuarcíticos paleozoicos más permeables. Finalmente, se historian algunas de las afecciones que ha sufrido dicho manantial a lo largo de los siglos, y que culmina con el establecimiento de un perímetro de protección a alteraciones desde arriba de origen urbano, aunque se llama la atención de otros posibles impactos por parte de túneles profundos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Quien contamina, paga“, con esta premisa surgió la idea de este Trabajo Fin de Máster, en adelante TFM, cuyo objetivo era identificar medidas alternativas reales para una optimización del proceso actual de gestión de residuos sólidos urbanos ante una sociedad cada vez más superpoblada y con mayores ratios de consumo. Cada español genera anualmente un volumen de 485 Kg de residuos, de los cuales únicamente el 33 % son reciclados y pueden volver a un flujo normal de uso, especialmente preocupante durante los últimos años es el auge de los productos envasados, tanto de bebidas como de alimentos , cuya utilización se ha duplicado en la última década. La motivación de este trabajo Fin de Máster ha sido la de poner de manifiesto que la sostenibilidad con el medioambiente puede ir de la mano de la rentabilidad y del progreso. Durante este TFM se ha estudiado y analizado la viabilidad económica de implantación de un nuevo modelo de depósito, devolución y retorno en el mercado retail español y como con la adopción de este nuevo sistema se pueden lograr beneficios tanto para el propio minorista, como para el medio ambiente con ratios de reciclado superiores al 98%. La preocupación por el medio ambiente empieza a ser una constante entre los consumidores españoles y dicha preocupación comienza a ser influenciadora en las decisiones de compra (productos eco, sostenibilidad…). Nuestra propuesta consiste en dotar a los principales distribuidores del sector retail español de un sistema de depósito, devolución y retorno para envases de bebidas capaz de generar diferenciación, innovación y rentabilidad frente a la competencia. Dicho sistema consiste en pagar un depósito por cada envase de bebida que se adquiera y su correspondiente devolución en la siguiente compra, una vez que se devuelva vacío al establecimiento. Para ello se ha analizado el sector de la distribución en España, especialmente la distribución de bebidas. Se trata de un sector muy competitivo, que presenta varios formatos en función del tamaño del establecimiento (Hipermercados, Supermercados, tiendas tradicionales). Las principales empresas distribuidoras (Carrefour, Mercadona, Alcampo, Eroski, DIA) se encuentran en procesos de cambios estratégicos para lograr atraer a más consumidores hacia sus tiendas, por lo que nuestra propuesta podrá añadir valor a la hora de influenciar en la decisión del lugar de compra. En nuestro caso, nos dirigiremos principalmente a las grandes empresas distribuidoras, Hipermercados de más de 2.500 m2 ,que cuentan con más de 500 puntos de venta y distribución donde existe la posibilidad real de implantar un SDDR. Además se ha realizado un estudio de mercado sobre la influencia de dicho sistema en el consumidor final, donde se ha detectado dos segmentos principales cuya decisión de compra se vería muy influenciada por la implantación de un SDDR, un segmento Sénior, entre 45-54 años, preocupados por el medio ambiente y con poder adquisitivo suficiente como para que el pago del depósito no sea bloqueante, y un segmento Junior, entre 18-24 años, también muy concienciado el medio ambiente, de capacidad económica menor pero qué influye en la decisión de compra de sus progenitores. Para llevar a cabo este plan de negocio será necesario una inversión inicial de 57.000 €, con unas expectativas de recuperación de dicha inversión en el primer año y una TIR del 56%, presentando un VAN de 127.961 € para los 7 años de vida del proyecto. Para dar a conocer a los clientes del Hipermercado los beneficios de utilizar un sistema SDDR, se realizarán campañas de marketing a través de diferentes canales, promociones de apertura, acciones de marketing exteriores y planes de fidelización. La organización e implantación en el Hipermercado será muy sencilla con roles claramente diferenciados, únicamente involucraría a unos 9 recursos definidos y en aproximadamente 3 meses desde el inicio del proyecto ya se podría ofertar dicho servicio a los clientes del Hipermercado. Además se han analizado los principales riesgos a los que se enfrentaría el negocio, ponderándose en una matriz impacto-probabilidad. Se han establecido medidas correctoras en el caso que dicho riesgo aflore. Habrá que tener especialmente precaución con la pérdida de ventas durante el arranque del negocio en el caso que esto ocurra, por lo que se deberá controlar el gasto, fomentar la captación de clientes y mantener un fondo de maniobra lo suficientemente elevado como para absorber dicho riesgo.---ABSTRACT---“Polluters pay”, with this premise this TFM aimed at identifying real alternative measures for optimization of the current process of solid waste management in a crowded society and with greater consumption ratios. Spaniards generates an annual volume of 485 kg of waste; only 33 % are recycled and can return to a normal flow. Specially concern is the increased of packaged product in recent years, mainly drink and food, their use has been duplicated in the last decade. The motivation for this Thesis was to highlight that sustainability, profitability and progress can go together. During this TFM has been studied and analyzed the economic feasibility of implementing a new model of deposit , refund and return in the Spanish retail market and as with the adoption of this new system can achieve benefits for the retailer itself therefore to the environment with ratios above 98% recycled. Concern for the environment is becoming a constant among Spanish consumers , and this concern is becoming influencer in purchasing decisions ( eco, sustainability ... ) . Our proposal is to provide the main distributors of the Spanish retail sector a system of deposit, refund and return for beverage containers capable of generating differentiation, innovation and profitability over the competition. This system is to pay a deposit for each beverage container they purchase and their corresponding return in the next purchase, once they return empty to the establishment. For this we have analyzed the distribution sector in Spain, especially the distribution of beverages. This is a highly competitive industry, which features various formats depending on the size of establishments (hypermarkets, supermarkets, traditional shops). The main distribution companies (Carrefour, Mercadona, Alcampo, Eroski, DIA) are in the process of strategic changes in order to attract more consumers to their stores, so that our approach can add value in influencing the decision of place shopping. In our case, we will go mainly to large distributors, Hypermarkets of over 2,500 m2, which have more than 500 outlets and distribution where there is a real possibility of implementing a SDDR. It has also conducted a market study on the influence of that system on the final consumer, which has detected two main segments whose purchasing decisions would be greatly influenced by the introduction of a SDDR, a Senior segment, 45-54 years concerned about the environment and purchasing power enough that the deposit is not blocking, and a Junior Segment, aged 18-24, also concern with environment, lower economic capacity but what influences the decision purchase of their parents). To carry out this business plan will require an initial investment of 57,000 €, with expectations of recovery of such investment in the first year and an IRR of 56%, with an NPV of € 127,961 for the 7 years of the project . To publicize hypermarket customers the benefits of using a SDDR system, marketing campaigns conducted through different channels, opening promotions, marketing activities and external loyalty schemes. The organization and implementation in the Hypermarket is easy with distinct roles, involve only about 9 resourced and in about 3 months from the start of the project and could offer this service to customers in the hypermarket. We have also analyzed the main risks and established corrective measures to surface that risk . We should take caution with lost sales during startup of the business, such as control spending, customer retention and maintaining enough working capital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las instituciones de educación superior deben gestionar eficaz y eficientemente sus procesos de captación de nuevos estudiantes, y con este objetivo necesitan mejorar su comprensión sobre los antecedentes que inciden en la intención de recomendarlas. Por lo que esta investigación se centra en el estudio de las componentes de la calidad de una universidad que pueden ser antecedentes de la intención de un estudiante de recomendarla. El enfoque que se adopta integra las dimensiones de docencia y de servicio e incorpora al análisis la valoración global de la carrera, junto con la experiencia del estudiante. Para ello se construye una base de datos que consta de 30.590 registros obtenidos de encuestas semestrales on-line del período 2003-2011; anidados en 6.409 estudiantes de una universidad privada del Uruguay. La metodología se concreta en los modelos de ecuaciones simultáneas y con un enfoque multi-muestra. Se concluye que las percepciones de calidad, servicio, docencia y carrera, inciden positivamente en la intención de recomendar la universidad y que la variable experiencia modera dichas relaciones. Estos hallazgos señalan la necesidad que tienen estas instituciones de innovar en la concepción del servicio educativo e incorporar la segmentación de los estudiantes según su experiencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las fuentes como parte de la ingeniería hidráulica, quizás menor, de nuestro país son elementos urbanos, funcionales y de gran interés en el pasado, que poco a poco han ido en decadencia desde la traída de aguas domiciliares. No obstante, entre nosotros, hay magníficas obras de ingeniería muy bien estudiadas y ejecutadas técnicamente pero que a la par representan elementos artísticos de gran interés y representatividad. No en vano en la última ley de Patrimonio Histórico Artístico de la Comunidad de Madrid (ley 3/2013), se requiere su estudio y catalogación a nivel municipal. La técnica de su diseño, es bien conocida desde muy antiguo. Ya los romanos hacían uso de una precisión milimétrica para el cálculo de las pendientes de las conducciones subterráneas que llevaban el agua intacta hasta su destino tras recorrer decenas de kilómetros sin necesidad de energía externa para ello. La calidad de sus aguas, muy ligada al sustrato determinaba en gran medida asentamientos y usos que según su popularidad, podían incluso restringirse a distintos niveles sociales La obra arquitectónica asociada, también cobraba especial relevancia por su singularidad, monumentalidad y aspecto. Muchas son las tendencias arquitectónicas que se dan cita en las fuentes estudiadas, que además, encierran tras de sí gran riqueza de carácter histórico. Esta investigación se centra en el inventariado, catalogación y caracterización de una muestra representativa de fuentes naturales madrileñas (550 fuentes), el estudio pormenorizado de las variables utilizadas en su caracterización, a través de tratamientos inferenciales, y el diseño experimental “ad hoc” de una propuesta metodológica de catalogación y caracterización 360° (desde la captación hasta la salida de aguas por el caño). La investigación finaliza con la puesta en práctica de la metodología diseñada, a través del estudio, catalogación y caracterización de un caso concreto. La presente investigación se centra en la Comunidad de Madrid, pero la propuesta metodológica que se propone como aportación, es extrapolable a cualquier tipo de fuente en cualquier municipio. Con todo ello, se pretende poner en valor estas obras de ingeniería ignorada, y contribuir de alguna forma a su preservación, facilitando su catalogación y difundiendo su existencia. As a minor relevant part of hydraulic engineering, the fountains of our country are urban, functional and of great interest in the past. The relevancy of these fountains has gradually declined since the emergence of general water supply. However, in our environment, there are magnificent works of engineering very well studied and executed, that also represent good examples of art and historical interest. In this way, the Historical and Artistic Heritage Law of the Community of Madrid (Ley 3/2013), requests the councils, their study and categorization. Their technical design is well known since ancient times. Even the Romans were able to use pinpoint accuracy (just a few millimeters), to calculate the slopes of the underground pipes which supply water, in perfect conditions, to its target, and without using external sources of energy. In this cases, the water quality of which was obviously linked to the type of substrate, conditioned the settlements and even its use, that could be restricted to certain social classes. In some cases, the engineering works of these fountains were especially relevant for its uniqueness, monumentality and appearance. There are many architectural trends that come together in the studied fountains, which also contain of its own historical character. This research is focused on inventory categorization and characterization of a representative sample of 550 natural fountains in Madrid. It includes the detailed study of the variables used in its characterization, through inferential treatments, and the "ad hoc" experimental design of a methodology for the categorization and a 360 ° characterization, from the catchment to the spout. Finally, the research ends with the implementation of the designed methodology, through the study, categorization and characterization of a specific case. Although this research is focused on fountains from Madrid surroundings, the main value is that the purposed methodology can be extrapolated to to manyother cases. To highlight these ignored engineering works, and contribute to its preservation making easier their categorization and spreading their existence, set the main aim of this research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las instituciones de educación superior deben gestionar eficaz y eficientemente sus procesos de captación de nuevos estudiantes, y con este objetivo necesitan mejorar su comprensión sobre los antecedentes que inciden en la intención de recomendarlas. Por lo que esta Tesis Doctoral se centra en el estudio y análisis de las componentes de la calidad del servicio de la educación superior, como antecedentes de la intención de recomendación de una institución universitaria. El enfoque que se adopta en esta investigación integra las dimensiones de calidad docente y de calidad de servicio e incorpora en el análisis la valoración global de la carrera. Paralelamente se contempla la moderación de la experiencia y el desempeño académico del estudiante. En esta Tesis Doctoral se hace uso de la Encuesta de Calidad de la Universidad ORT Uruguay cedida a los autores para su explotación con fines de investigación. Los estudiantes cumplimentan la encuesta semestralmente con carácter obligatorio en una plataforma en línea autoadministrada, que permite identificar las valoraciones realizadas por los estudiantes a lo largo de su paso por la universidad. Por lo que la base de datos es un panel no balanceado que consta de 195.058 registros obtenidos, a partir de 7.077 estudiantes en 17 semestres (marzo de 2003 a 2011). La metodología se concreta en los Modelos de Ecuaciones Estructurales, que proporciona una serie de ventajas con respecto a otras aproximaciones. Una de las más importantes es que permite al investigador introducir información a priori y valorar su inclusión, además de reformular las modelizaciones propuestas desde una perspectiva multi-muestra. En esta investigación se estiman los modelos con MPLUS 7. Entre las principales conclusiones de esta Tesis Doctoral cabe señalar que las percepciones de calidad, servicio, docencia y carrera, inciden positivamente en la intención de recomendar la universidad, y que la variable experiencia del estudiante modera dichas relaciones. Los resultados señalan, en general, que a medida que los estudiantes avanzan en su carrera, los efectos totales de la percepción de la calidad del servicio en la calidad global de la carrera y en la intención de recomendar la universidad son mayores que los efectos que tiene la percepción de calidad de la docencia. Estos hallazgos señalan la necesidad que tienen estas instituciones de educación superior de incorporar en su planificación estratégica la segmentación de los estudiantes según su experiencia. ABSTRACT For institutions of higher education to effectively and efficiently manage their processes for attracting new students, they need to understand the influences that activate student intentions to recommend a program and/or college. This Thesis describes research identifying the quality components of a university that serve as antecedents of student intentions to recommend. The research design integrates teaching and service dimensions of higher education, as well as measures of student perceptions of the overall quality of a program. And introduces the student quality and student experience during the program as moderators of these relationships. This Thesis makes use of the Quality Survey of the Universidad ORT Uruguay ceded to the authors for their exploitation for research purposes. The students complete the survey each semester in a self-administered online platform, which allows to identify the assessments conducted by the students throughout its passage by the university. So that the database is an unbalanced panel consisting of 195.058 records obtained from 7.077 students in 17 semesters (march 2003 to 2011). The methodology of analysis incorporated Simultaneous Equation Models, which provides a number of advantages with respect to other approaches. One of the most important is that it allows the researcher to introduce a priori information and assess its inclusion, in addition to reformulate the modellings proposals with a multi-sample approach. In this research the models are estimated with MPLUS 7. Based on the findings, student perceptions of quality, service, teaching and program, impact positively the intent to recommend the university, but the student’s experience during the program moderates these relationships. Overall, the results indicate that as students advance in the program, the full effects of the perception of service quality in the overall quality of the program and in the intention to recommend the university, outweigh the effects of the perceived teaching quality. The results indicate the need for institutions of higher education to incorporate in its strategic planning the segmentation of the students according to their experience during the program.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La reutilización de efluentes depurados siempre ha sido una opción en lugares con déficit coyuntural o estructural de recursos hídricos, se haya o no procedido a la regulación y planificación de esta práctica. La necesidad se crea a partir de las demandas de una zona, normalmente riego agrícola, que ven un mejor desarrollo de su actividad por contar con este recurso. España es el país de la UE que más caudal reutiliza, y está dentro de los diez primeros a nivel mundial. La regulación de esta práctica por el RD 1620/2007, ayudó a incorporar la reutilización de efluentes depurados a la planificación hidrológica como parte de los programas de medidas, con objeto de mitigar presiones, como son las extracciones de agua superficial y subterránea, o mejoras medioambientales evitando un vertido. El objeto de este trabajo es conocer la situación de la reutilización de efluentes depurados en España, los diferentes escenarios y planteamientos de esta actividad, el desarrollo del marco normativo y su aplicabilidad, junto a los tratamientos que permiten alcanzar los límites de calidad establecidos en la normativa vigente, en función de los distintos usos. Además, se aporta un análisis de costes de las distintas unidades de tratamiento y tipologías de líneas de regeneración, tanto de las utilizadas después de un tratamiento secundario como de otras opciones de depuración, como son los biorreactores de membrana (MBRs). Para el desarrollo de estos objetivos, en primer lugar, se aborda el conocimiento de la situación de la reutilización en España a través de una base de datos diseñada para cubrir todos los aspectos de esta actividad: datos de la estación depuradora de aguas residuales (EDAR), de la estación regeneradora (ERA), caudales depurados, reutilizados, volúmenes utilizados y ubicación de los distintos usos, tipos de líneas de tratamiento, calidades del agua reutilizada, etc. Las principales fuentes de información son las Confederaciones Hidrográficas (CCHH) a través de las concesiones de uso del agua depurada, las entidades de saneamiento y depuración de las distintas comunidades autónomas (CCAA), ayuntamientos, Planes Hidrológicos de Cuenca (PHC) y visitas a las zonas más emblemáticas. Además, se revisan planes y programas con el fin de realizar una retrospectiva de cómo se ha ido consolidando y desarrollando esta práctica en las distintas zonas de la geografía española. Se han inventariado 322 sistemas de reutilización y 216 tratamientos de regeneración siendo el más extendido la filtración mediante filtro arena seguido de una desinfección mediante hipoclorito, aunque este tratamiento se ha ido sustituyendo por un físico-químico con decantación lamelar, filtro de arena y radiación ultravioleta, tratamiento de regeneración convencional (TRC), y otros tratamientos que pueden incluir membranas, tratamientos de regeneración avanzados (TRA), con dosificación de hipoclorito como desinfección residual, para adaptarse al actual marco normativo. El uso más extendido es el agrícola con el 70% del caudal total reutilizado, estimado en 408 hm3, aunque la capacidad de los tratamientos de regeneración esperada para 2015, tras el Plan Nacional de Reutilización de Aguas (PNRA), es tres veces superior. Respecto al desarrollo normativo, en las zonas donde la reutilización ha sido pionera, las administraciones competentes han ido desarrollando diferentes recomendaciones de calidad y manejo de este tipo de agua. El uso agrícola, y en zonas turísticas, el riego de campos de golf, fueron los dos primeros usos que tuvieron algún tipo de recomendación incluso reglamentación. Esta situación inicial, sin una normativa a nivel estatal ni recomendaciones europeas, creó cierta incertidumbre en el avance de la reutilización tanto a nivel de concesiones como de planificación. En la actualidad sigue sin existir una normativa internacional para la reutilización y regeneración de efluentes depurados. Las recomendaciones de referencia a nivel mundial, y en concreto para el uso agrícola, son las de la OMS (Organización Mundial de la Salud) publicadas 1989, con sus posteriores revisiones y ampliaciones (OMS, 2006). Esta norma combina tratamientos básicos de depuración y unas buenas prácticas basadas en diferentes niveles de protección para evitar problemas sanitarios. Otra normativa que ha sido referencia en el desarrollo del marco normativo en países donde se realiza esta práctica, son las recomendaciones dadas por la Agencia Medioambiente Estadunidense (USEPA, 2012) o las publicadas por el Estado de California (Título 22, 2001). Estas normas establecen unos indicadores y valores máximos dónde el tratamiento de regeneración es el responsable de la calidad final en función del uso. Durante 2015, la ISO trabajaba en un documento para el uso urbano donde se muestra tanto los posibles parámetros que habría que controlar como la manera de actuar para evitar posibles riesgos. Por otro lado, la Comisión Europea (CE) viene impulsando desde el 2014 la reutilización de aguas depuradas dentro del marco de la Estrategia Común de Implantación de la Directiva Marco del Agua, y fundamentalmente a través del grupo de trabajo de “Programas de medidas”. Para el desarrollo de esta iniciativa se está planteando sacar para 2016 una guía de recomendaciones que podría venir a completar el marco normativo de los distintos Estados Miembros (EM). El Real Decreto 1620/2007, donde se establece el marco jurídico de la reutilización de efluentes depurados, tiende más a la filosofía implantada por la USEPA, aunque la UE parece más partidaria de una gestión del riesgo, donde se establecen unos niveles de tolerancia y unos puntos de control en función de las condiciones socioeconómicas de los distintos Estados, sin entrar a concretar indicadores, valores máximos o tratamientos. Sin embargo, en la normativa estadounidense se indican una serie de tratamientos de regeneración, mientras que, en la española, se hacen recomendaciones a este respecto en una Guía sin validez legal. Por tanto, queda sin regular los procesos para alcanzar estos estándares de calidad, pudiendo ser éstos no apropiados para esta práctica. Es el caso de la desinfección donde el uso de hipoclorito puede generar subproductos indeseables. En la Guía de recomendaciones para la aplicación del RD, publicada por el Ministerio de Agricultura y Medioambiente (MAGRAMA) en 2010, se aclaran cuestiones frecuentes sobre la aplicación del RD, prescripciones técnicas básicas para los sistemas de reutilización, y buenas prácticas en función del uso. Aun así, el RD sigue teniendo deficiencias en su aplicación siendo necesaria una revisión de la misma, como en las frecuencias de muestreo incluso la omisión de algunos parámetros como huevos de nematodos que se ha demostrado ser inexistentes tras un tratamiento de regeneración convencional. En este sentido, existe una tendencia a nivel mundial a reutilizar las aguas con fines de abastecimiento, incluir indicadores de presencia de virus o protozoos, o incluir ciertas tecnologías como las membranas u oxidaciones avanzadas para afrontar temas como los contaminantes emergentes. Otro de los objetivos de este trabajo es el estudio de tipologías de tratamiento en función de los usos establecidos en el RD 1620/2007 y sus costes asociados, siendo base de lo establecido a este respecto en la Guía y PNRA anteriormente indicados. Las tipologías de tratamiento propuestas se dividen en líneas con capacidad de desalar y las que no cuentan con una unidad de desalación de aguas salobres de ósmosis inversa o electrodiálisis reversible. Se realiza esta división al tener actuaciones en zonas costeras donde el agua de mar entra en los colectores, adquiriendo el agua residual un contenido en sales que es limitante en algunos usos. Para desarrollar este objetivo se han estudiado las unidades de tratamiento más implantadas en ERAs españolas en cuanto a fiabilidad para conseguir determinada calidad y coste, tanto de implantación como de explotación. El TRC, tiene un coste de implantación de 28 a 48 €.m-3.d y de explotación de 0,06 a 0,09 €. m-3, mientras que, si se precisara desalar, este coste se multiplica por diez en la implantación y por cinco en la explotación. En caso de los usos que requieren de TRA, como los domiciliarios o algunos industriales, los costes serían de 185 a 398 €.m-3.d en implantación y de 0,14 a 0,20 €.m-3 en explotación. En la selección de tecnologías de regeneración, la capacidad del tratamiento en relación al coste es un indicador fundamental. Este trabajo aporta curvas de tendencia coste-capacidad que sirven de herramienta de selección frente a otros tratamientos de regeneración de reciente implantación como son los MBR, u otros como la desalación de agua de mar o los trasvases entre cuencas dentro de la planificación hidrológica. En España, el aumento de las necesidades de agua de alta calidad en zonas con recursos escasos, aumento de zonas sensibles como puntos de captación para potables, zonas de baño o zonas de producción piscícola, y en ocasiones, el escaso terreno disponible para la implantación de nuevas plantas depuradoras (EDARs), han convertido a los MBRs, en una opción dentro del marco de la reutilización de aguas depuradas. En este trabajo, se estudia esta tecnología frente a los TRC y TRA, aportando igualmente curvas de tendencia coste-capacidad, e identificando cuando esta opción tecnológica puede ser más competitiva frente a los otros tratamientos de regeneración. Un MBR es un tratamiento de depuración de fangos activos donde el decantador secundario es sustituido por un sistema de membranas de UF o MF. La calidad del efluente, por tanto, es la misma que el de una EDAR seguida de un TRA. Los MBRs aseguran una calidad del efluente para todos los usos establecidos en el RD, incluso dan un efluente que permite ser directamente tratado por las unidades de desalación de OI o EDR. La implantación de esta tecnología en España ha tenido un crecimiento exponencial, pasando de 13 instalaciones de menos de 5.000 m3. d-1 en el 2006, a más de 55 instalaciones en operación o construcción a finales del 2014, seis de ellas con capacidades por encima de los 15.000 m3. d-1. Los sistemas de filtración en los MBR son los que marcan la operación y diseño de este tipo de instalaciones. El sistema más implantado en España es de membrana de fibra hueca (MFH), sobre todo para instalaciones de gran capacidad, destacando Zenon que cuenta con el 57% de la capacidad total instalada. La segunda casa comercial con mayor número de plantas es Kubota, con membranas de configuración placa plana (MPP), que cuenta con el 30 % de la capacidad total instalada. Existen otras casas comerciales implantadas en MBR españoles como son Toray, Huber, Koch o Microdym. En este documento se realiza la descripción de los sistemas de filtración de todas estas casas comerciales, aportando información de sus características, parámetros de diseño y operación más relevantes. El estudio de 14 MBRs ha posibilitado realizar otro de los objetivos de este trabajo, la estimación de los costes de explotación e implantación de este tipo de sistemas frente a otras alternativas de tratamiento de regeneración. En este estudio han participado activamente ACA y ESAMUR, entidades públicas de saneamiento y depuración de Cataluña y Murcia respectivamente, que cuentan con una amplia experiencia en la explotación de este tipo de sistemas. Este documento expone los problemas de operación encontrados y sus posibles soluciones, tanto en la explotación como en los futuros diseños de este tipo de plantas. El trabajo concluye que los MBRs son una opción más para la reutilización de efluentes depurados, siendo ventajosos en costes, tanto de implantación como de explotación, respecto a EDARs seguidas de TRA en capacidades por encima de los 10.000 m3.d-1. ABSTRACT The reuse of treated effluent has always been an option in places where a situational or structural water deficit exists, whether regulatory and/or planning efforts are completed or not. The need arises from the demand of a sector, commonly agricultural irrigation, which benefits of this new resource. Within the EU, Spain is ahead in the annual volume of reclaimed water, and is among the top ten countries at a global scale. The regulation of this practice through the Royal Decree 1620/2007 has helped to incorporate the water reuse to the hydrological plans as a part of the programme of measures to mitigate pressures such as surface or ground water extraction, or environmental improvements preventing discharges. The object of this study is to gain an overview of the state of the water reuse in Spain, the different scenarios and approaches to this activity, the development of the legal framework and its enforceability, together with the treatments that achieve the quality levels according to the current law, broken down by applications. Additionally, a cost analysis of technologies and regeneration treatment lines for water reclamation is performed, whereas the regeneration treatment is located after a wastewater treatment or other options such as membrane bioreactors (MBR). To develop the abovementioned objectives, the state of water reuse in Spain is studied by means of a database designed to encompass all aspects of the activity: data from the wastewater treatment plants (WWTP), from the water reclamation plants (WRP), the use of reclaimed water, treated water and reclaimed water annual volumes and qualities, facilities and applications, geographic references, technologies, regeneration treatment lines, etc. The main data providers are the River Basin authorities, through the concession or authorization for water reuse, (sanitary and wastewater treatment managers from the territorial governments, local governments, Hydrological Plans of the River Basins and field visits to the main water reuse systems. Additionally, a review of different plans and programmes on wastewater treatment or water reuse is done, aiming to put the development and consolidation process of this activity in the different regions of Spain in perspective. An inventory of 322 reuse systems and 216 regeneration treatments has been gathered on the database, where the most extended regeneration treatment line was sand filtration followed by hypochlorite disinfection, even though recently it is being replaced by physical–chemical treatment with a lamella settling system, depth sand filtration, and a disinfection with ultraviolet radiation and hypochlorite as residual disinfectant, named conventional regeneration treatment (CRT), and another treatment that may include a membrane process, named advanced regeneration treatment (ART), to adapt to legal requirements. Agricultural use is the most extended, accumulating 70% of the reclaimed demand, estimated at 408 hm3, even though the expected total capacity of WRPs for 2015, after the implementation of the National Water Reuse Plan (NWRP) is three times higher. According to the development of the water reuse legal framework, there were pioneer areas where competent authorities developed different quality and use recommendations for this new resource. Agricultural use and golf course irrigation in touristic areas were the first two uses with recommendations and even legislation. The initial lack of common legislation for water reuse at a national or European level created some doubts which affected the implementation of water reuse, both from a planning and a licensing point of view. Currently there is still a lack of common international legislation regarding water reuse, technologies and applications. Regarding agricultural use, the model recommendations at a global scale are those set by the World Health Organization published in 1989, and subsequent reviews and extensions about risk prevention (WHO, 2006). These documents combine wastewater treatments with basic regeneration treatments reinforced by good practices based on different levels of protection to avoid deleterious health effects. Another relevant legal reference for this practices has been the Environmental Protection Agency of the US (USEPA, 2012), or those published by the State of California (Title 22, 2001). These establish indicator targets and maximum thresholds where regeneration treatment lines are responsible for the final quality according to the different uses. During 2015, the ISO has worked on a document aimed at urban use, where the possible parameters to be monitored together with risk prevention have been studied. On the other hand, the European Commission has been promoting the reuse of treated effluents within the Common Implementation Strategy of the Water Framework Directive, mainly through the work of the Programme of Measures Working Group. Within this context, the publication of a recommendation guide during 2016 is intended, as a useful tool to fill in the legal gaps of different Member States on the matter. The Royal Decree 1620/2007, where the water reuse regulation is set, resembles the principles of the USEPA more closely, even though the EU shows a tendency to prioritize risk assessment by establishing tolerance levels and thresholds according to socioeconomic conditions of the different countries, without going into details of indicators, maximum thresholds or treatments. In contrast, in the US law, regeneration treatments are indicated, while in the Spanish legislation, the only recommendations to this respect are compiled in a non-compulsory guide. Therefore, there is no regulation on the different treatment lines used to achieve the required quality standards, giving room for inappropriate practices in this respect. This is the case of disinfection, where the use of hypochlorite may produce harmful byproducts. In the recommendation Guide for the application of the Royal Decree (RD), published by the Ministry of Agriculture and Environment (MAGRAMA) in 2010, clarifications of typical issues that may arise from the application of the RD are given, as well as basic technical parameters to consider in reuse setups, or good practices according to final use. Even so, the RD still presents difficulties in its application and requires a review on issues such as the sampling frequency of current quality parameters or even the omission of nematode eggs indicator, which have been shown to be absent after CRT. In this regard, there is a global tendency to employ water reuse for drinking water, including indicators for the presence of viruses and protozoans, or to include certain technologies such as membranes or advanced oxidation processes to tackle problems like emerging pollutants. Another of the objectives of this study is to provide different regeneration treatment lines to meet the quality requirements established in the RD 1620/2007 broken down by applications, and to estimate establishment and operational costs. This proposal has been based on what is established in the above mentioned Guide and NWRP. The proposed treatment typologies are divided in treatment trains with desalination, like reverse osmosis or reversible electrodialisis, and those that lack this treatment for brackish water. This separation is done due to coastal facilities, where sea water may permeate the collecting pipes, rising salt contents in the wastewater, hence limiting certain uses. To develop this objective a study of the most common treatment units set up in Spanish WRPs is conducted in terms of treatment train reliability to obtain an acceptable relationship between the required quality and the capital and operational costs. The CRT has an establishment cost of 28 to 48 €.m-3.d and an operation cost of 0.06 to 0.09 €.m-3, while, if desalination was required, these costs would increase tenfold for implementation and fivefold for operation. In the cases of uses that require ART, such as residential or certain industrial uses, the costs would be of 185 to 398 €.m-3.d for implementation and of 0.14 to 0.20 €.m-3 for operation. When selecting regeneration treatment lines, the relation between treatment capacity and cost is a paramount indicator. This project provides cost-capacity models for regeneration treatment trains. These may serve as a tool when selecting between different options to fulfill water demands with MBR facilities, or others such as sea water desalination plants or inter-basin water transfer into a water planning framework. In Spain, the requirement for high quality water in areas with low resource availability, the increasing number of sensitive zones, such as drinking water extraction, recreational bathing areas, fish protected areas and the lack of available land to set up new WWTPs, have turned MBRs into a suitable option for water reuse. In this work this technology is analyzed in contrast to CRT and ART, providing cost-capacity models, and identifying when and where this treatment option may outcompete other regeneration treatments. An MBR is an activated sludge treatment where the secondary settling is substituted by a membrane system of UF or MF. The quality of the effluent is, therefore, comparable to that of a WWTP followed by an ART. MBRs ensure a sufficient quality level for the requirements of the different uses established in the RD, even producing an effluent that can be directly treated in OI or EDR processes. The implementation of this technology in Spain has grown exponentially, growing from 13 facilities with less than 5000 m3.d-1 in 2006 to above 55 facilities operating by the end of 2014, 6 of them with capacities over 15000 m3.d-1. The membrane filtration systems for MBR are the ones that set the pace of operation and design of this type of facilities. The most widespread system in Spain is the hollow fiber membrane configuration, especially on high flow capacities, being Zenon commercial technology, which mounts up to 57% of the total installed capacity, the main contributor. The next commercial technology according to plant number is Kubota, which uses flat sheet membrane configuration, which mounts up to 30% of the total installed capacity. Other commercial technologies exist within the Spanish MBR context, such as Toray, Huber, Koch or Microdym. In this document an analysis of all of these membrane filtration systems is done, providing information about their characteristics and relevant design and operation parameters. The study of 14 full scale running MBRs has enabled to pursue another of the objectives of this work: the estimation of the implementation and operation costs of this type of systems in contrast to other regeneration alternatives. Active participation of ACA and ESAMUR, public wastewater treatment and reuse entities of Cataluña and Murcia respectively, has helped attaining this objective. A number of typical operative problems and their possible solutions are discussed, both for operation and plant design purposes. The conclusion of this study is that MBRs are another option to consider for water reuse, being advantageous in terms of both implementation and operational costs, when compared with WWTPs followed by ART, when considering flow capacities above 10000 m3.d-1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Realidad Aumentada forma parte de múltiples proyectos de investigación desde hace varios años. La unión de la información del mundo real y la información digital ofrece un sinfín de posibilidades. Las más conocidas van orientadas a los juegos pero, gracias a ello, también se pueden implementar Interfaces Naturales. En otras palabras, conseguir que el usuario maneje un dispositivo electrónico con sus propias acciones: movimiento corporal, expresiones faciales, etc. El presente proyecto muestra el desarrollo de la capa de sistema de una Interfaz Natural, Mokey, que permite la simulación de un teclado mediante movimientos corporales del usuario. Con esto, se consigue que cualquier aplicación de un ordenador que requiera el uso de un teclado, pueda ser usada con movimientos corporales, aunque en el momento de su creación no fuese diseñada para ello. La capa de usuario de Mokey es tratada en el proyecto realizado por Carlos Lázaro Basanta. El principal objetivo de Mokey es facilitar el acceso de una tecnología tan presente en la vida de las personas como es el ordenador a los sectores de la población que tienen alguna discapacidad motora o movilidad reducida. Ya que vivimos en una sociedad tan informatizada, es esencial que, si se quiere hablar de inclusión social, se permita el acceso de la actual tecnología a esta parte de la población y no crear nuevas herramientas exclusivas para ellos, que generarían una situación de discriminación, aunque esta no sea intencionada. Debido a esto, es esencial que el diseño de Mokey sea simple e intuitivo, y al mismo tiempo que esté dotado de la suficiente versatilidad, para que el mayor número de personas discapacitadas puedan encontrar una configuración óptima para ellos. En el presente documento, tras exponer las motivaciones de este proyecto, se va a hacer un análisis detallado del estado del arte, tanto de la tecnología directamente implicada, como de otros proyectos similares. Se va prestar especial atención a la cámara Microsoft Kinect, ya que es el hardware que permite a Mokey detectar la captación de movimiento. Tras esto, se va a proceder a una explicación detallada de la Interfaz Natural desarrollada. Se va a prestar especial atención a todos aquellos algoritmos que han sido implementados para la detección del movimiento, así como para la simulación del teclado. Finalmente, se va realizar un análisis exhaustivo del funcionamiento de Mokey con otras aplicaciones. Se va a someter a una batería de pruebas muy amplia que permita determinar su rendimiento en las situaciones más comunes. Del mismo modo, se someterá a otra batería de pruebas destinada a definir su compatibilidad con los diferentes tipos de programas existentes en el mercado. Para una mayor precisión a la hora de analizar los datos, se va a proceder a comparar Mokey con otra herramienta similar, FAAST, pudiendo observar de esta forma las ventajas que tiene una aplicación especialmente pensada para gente discapacitada sobre otra que no tenía este fin. ABSTRACT. During the last few years, Augmented Reality has been an important part of several research projects, as the combination of the real world and the digital information offers a whole new set of possibilities. Among them, one of the most well-known possibilities are related to games by implementing Natural Interfaces, which main objective is to enable the user to handle an electronic device with their own actions, such as corporal movements, facial expressions… The present project shows the development of Mokey, a Natural Interface that simulates a keyboard by user’s corporal movements. Hence, any application that requires the use of a keyboard can be handled with this Natural Interface, even if the application was not designed in that way at the beginning. The main objective of Mokey is to simplify the use of the computer for those people that are handicapped or have some kind of reduced mobility. As our society has been almost completely digitalized, this kind of interfaces are essential to avoid social exclusion and discrimination, even when it is not intentional. Thus, some of the most important requirements of Mokey are its simplicity to use, as well as its versatility. In that way, the number of people that can find an optimal configuration for their particular condition will grow exponentially. After stating the motivations of this project, the present document will provide a detailed state of the art of both the technologies applied and other similar projects, highlighting the Microsoft Kinect camera, as this hardware allows Mokey to detect movements. After that, the document will describe the Natural Interface that has been developed, paying special attention to the algorithms that have been implemented to detect movements and synchronize the keyboard. Finally, the document will provide an exhaustive analysis of Mokey’s functioning with other applications by checking its behavior with a wide set of tests, so as to determine its performance in the most common situations. Likewise, the interface will be checked against another set of tests that will define its compatibility with different softwares that already exist on the market. In order to have better accuracy while analyzing the data, Mokey’s interface will be compared with a similar tool, FAAST, so as to highlight the advantages of designing an application that is specially thought for disabled people.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La hipótesis que inspiró esta tesis sostiene que la integración de componentes fotovoltaicos en los cerramientos opacos y sombreamientos de huecos acristalados de edificios de oficinas en sitios ubicados en bajas latitudes, tomando como el ejemplo el caso concreto de Brasil, podría incrementar su eficiencia energética. Esta posibilidad se basa en el bloqueo de una parte significativa de la irradiación solar incidente en estos edificios, reduciendo así las cargas térmicas para la climatización y a la vez transformándola en energía eléctrica, a tal punto que se amortizan los costes de inversión en plazos aceptables a través de los ahorros en la demanda de energía. Para verificar esta hipótesis de partida se ha propuesto como objetivo general analizar la integración de elementos fotovoltaicos en cubiertas, muros opacos y sombreamiento de huecos acristalados desde la óptica del balance energético térmico y eléctrico. Inicialmente se presenta y analiza el estado del arte en los temas estudiados y la metodología de investigación, de carácter teórico basada en cálculos y simulaciones. A partir de un modelo tipo de edificio de oficinas situado en Brasil, se definen cuatro casos de estudio y una serie de parámetros, los cuales se analizan para siete latitudes ubicadas entre -1,4° y -30°, separadas las unas de las otras por aproximadamente 5°. Se presentan y discuten los resultados de más de 500 simulaciones para los siguientes conceptos: - recurso solar, desde la perspectiva de la disponibilidad de irradiación solar en distintas superficies de captación apropiadas para la integración de sistemas solares fotovoltaicos en edificaciones en bajas latitudes; - análisis de sombras, con objetivo de identificar los ángulos de sombras vertical (AVS) para protección de huecos acristalados en edificios de oficinas; - balance energético térmico, para identificar el efecto térmico del apantallamiento provocado por componentes fotovoltaicos en cubiertas, muros opacos y parasoles en ventanas en las cargas de refrigeración y consecuentemente en las demandas de energía eléctrica; - balance energético eléctrico, contrastando los resultados del balance térmico con la energía potencialmente generada en las envolventes arquitectónicas bajo estudio; - análisis económico, basado en un escenario de precios de la tecnología fotovoltaica de un mercado maduro y en la política de inyección a la red marcada por la actual normativa brasileña. Se han verificado los potenciales de ahorro económico que los sistemas activos fotovoltaicos podrían aportar, y asimismo se calculan diversos indicadores de rentabilidad financiera. En suma, esta investigación ha permitido extraer conclusiones que contribuyen al avance de la investigación y entender las condiciones que propician la viabilidad de la aplicación de componentes fotovoltaicas en las envolventes de edificios en Brasil, y hasta un cierto punto en otros países en latitudes equivalentes. ABSTRACT The hypothesis that inspired this thesis sustains that integration of photovoltaic components in the opaque envelope and shading elements of office buildings placed at low-latitude countries, using the specific case of Brazil, could increase its energy efficiency. This is possible because those components block a significant part of the incident solar irradiation, reducing its heating effect on the building and transforming its energy into electricity in such a way that the extra investments needed can be paid back in acceptable periods given the electricity bill savings they produce. In order to check this hypothesis, the main goal was to analyze the thermal and electrical performance of photovoltaic components integrated into roofs, opaque façades and window shadings. The first step is an introduction and discussion of the state of the art in the studied subjects, as well as the chosen methodology (which is theoretical), based on calculations and simulations. Starting from an office building located in Brazil, four case studies and their parameters are defined, and then analyzed, for seven cities located between latitudes -1.4° and -30°, with an approximate distance of 5° separating each one. Results of more than 500 simulations are presented and discussed for the following concepts: - Solar resource, from the perspective of irradiation availability on different surfaces for the integration of photovoltaic systems in buildings located at low latitudes; - Shading analysis, in order to determine the vertical shading angles (VSA) for protection of the glazed surfaces on office buildings; - Thermal energy balance, to identify the screening effect caused by photovoltaic components on roofs, opaque façades and window shadings on the cooling loads, and hence electricity demands; - Electric energy balance, comparing thermal energy balance with the energy potentially generated using the active skin of the buildings; - Economic analysis, based on a mature-market scenario and the current net metering rules established by the Brazilian government, to identify the potential savings these photovoltaic systems could deliver, as well as several indicators related to the return on the investment. In short, this research has led to conclusions that contribute to the further development of knowledge in this area and understanding of the conditions that favor the application of photovoltaic components in the envelope of office buildings in Brazil and, to a certain extent, in other countries at similar latitudes.