782 resultados para TERREMOTOS - PREVENCION Y CONTROL


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto sienta las bases para el desarrollo de un helicóptero coaxial autónomo. Como principales novedades, se quiere destacar el manejo y control de este. El manejo del helicóptero se consigue desplazando el centro de gravedad. Por otro lado, el control se realiza mediante los sensores de un Smartphone a bordo de la aeronave. Este teléfono además, proporcionará una amplia gama de recursos para el desarrollo de futuras aplicaciones, como pueden ser la cámara o GPS. También se desarrolla la aplicación para enviar órdenes desde el exterior para maniobrar el helicóptero. Este trabajo se lleva a cabo conjuntamente con mi compañero Eduardo Ortega Biber (1), quién se enfoca en las tareas de diseño y simulación. Mientras que el actual proyecto, se centra en el desarrollo de las dos aplicaciones Android de los teléfonos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el trabajo se ha reflejado la génesis del término „desarrollo sostenible‟ y la preocupación social y de los gobiernos hacia la sostenibilidad de los recursos, generando una política forestal a escala internacional, cuyo hito inicial desempeña la Cumbre de Rio y otros procesos, donde surge el término „sostenibilidad‟ - procesos gubernamentales que ponen su atención en los bosques,entre ellos el Proceso paneuropeo del que emanan los Criterios e indicadores de la gestión forestal sostenible, así como otros foros donde aparece la vinculación entre los productos y la sostenibilidad de los bosques de donde proceden. A partir de esos conceptos aparecen los sistemas de certificación, primero FSC, promovido por las ONG ambientalistas, y en respuesta a ello, el sistema PEFC de los propietarios forestales privados con las industrias forestales. En su introducción, el trabajo recoge como surge y evoluciona esta preocupación y como se sucede y desarrollan los sistemas de certificación en España, orientados tanto a la superficie forestal como a sus productos derivados. Tratando de ser una herramienta técnica, en estos últimos quince años, se han ido planteando metodologías y propuestas técnicas que puedan garantizar el origen sostenible del bosque de donde procede la materia prima. Aunque la persistencia de la masa forestal como término tiene importancia, no considera numerosos aspectos incluidos en el concepto “gestión forestal sostenible”. El trabajo manifiesta qué es y cómo se origina la Gestión Forestal Sostenible y muy ligado con ello, el origen de la certificación como herramienta, explicando cómo se incardina la certificación forestal española con las estructuras internacionales y se construyen nuevas estructuras a escala española y autonómica. Se expone el dominio y alcance técnico de la certificación, sus inicios y un análisis de la diversidad de sistemas y etiquetas existentes -como ha ido evolucionando a escala internacional y nacional, por sistemas, sectores y continentes, con especial atención en España, recopilando lo sucedido relevante para el sector forestal, industrias forestales y sistemas de certificación en los años de estudio de elaboración de la tesis. Se refleja la relevancia que adquiere la certificación forestal y de la cadena de custodia para la industria del papel, tanto por las regulaciones, normativas y legislación que involucran al producto derivado del bosque como por ser herramienta que enlaza el bosque sostenible con el consumidor. La aplicación de todas esas especificaciones técnicas que muestran la sostenibilidad del bosque y al trazabilidad en el proceso productivo comporta una carga administrativa de recopilación de información, de control para el seguimiento asociado con los registros necesarios, y de archivo de documentos, conforme a las exigencias que plantean los sistemas de certificación forestal. Por tanto, es importante definir un método y procedimientos genéricos para los correspondientes sistemas de gestión preexistentes en las empresas del sector de pasta y papel (de calidad/ de medio ambiente/integrados), para implantar un Sistema de Cadena de Custodia genérico (común a FSC y PEFC) en una instalación de celulosa y papel y un sistema de diligencia debida. Para ello, ha sido necesario analizar la línea de producción y establecer los puntos de su diagrama en los que se requiere el control de la trazabilidad, puntos en los que se procede al seguimiento y registro de la materia prima, materia semielaborada y producto, y de ahí proceder a redactar o retocar los procedimientos de gestión calidad/ medioambiental, en su caso, para incluir los campos de registro. Según determinen los procedimientos, se efectuará un seguimiento y registro de los, derivados que configuran una característica y se determinará una serie de indicadores del sistema de trazabilidad de la madera en la industria de celulosa y papel, es decir, un conjunto de parámetros cuantitativos y descriptivos, sujetos al seguimiento de forma periódica, que muestren el cambio y permitan observar la evaluación y control del Sistema de Cadena de Custodia. Además de asegurar la trazabilidad de la madera y fibra en la industria de pasta y papel y con ello la sostenibilidad del bosque del que procede, se avalará la legalidad de los aprovechamientos que proporcionan ese recurso maderable, cumpliendo así no sólo la legislación vigente sino también ambos sistemas de certificación FSC y PEFC. El sistema de cadena de custodia de la pasta y papel se caracteriza por los indicadores de seguimiento que permite el control de la trazabilidad. ABSTRACT This paper traces the origins of the term „Sustainable Development‟ and of both citizen and institutional concern for the sustainability of resources, leading to the enactment of a forestry policy at international level, of which the initial milestones are the Rio Summit and other processes in which the term „Sustainability‟ was born. Those forestfocused institutional initiatives include the pan-European process that led to the publication of Sustainable Forest Management Criteria and Indicators, and other forums that highlight the link between finished wood-based products and the sustainability of the forests from which that wood is sourced. Those concepts were the culture in which forest certification systems were engendered, first FSC, promoted by environmental NGOs, and subsequently PEFC, fostered in response to FSC by private forest owners and forest-based industries. In its Introduction, this paper looks at how such concern arose and has evolved and how certification systems came into existence in Spain and developed to encompass both forest lands and forest-based products. As part of a mission to provide an applicable technical tool, new methodologies and technical proposals have been put forward over the past fifteen years aimed at guaranteeing the sustainable origin of the forest from which raw material is sourced. Although the maintenance of forest stands as a term in its own right is important, it does not take many of the aspects included in the concept of “sustainable forest management” into account. This thesis describes what SFM is and how it was born, underlying the close link between SFM and the origin of certification as a tool, explaining how Spanish forest certification is embodied in international structures, while new structures are built here in Spain on both the national and regional scale. This work also details the domain and scope of forest certification from the technical standpoint, explains its beginnings, and assesses the various systems and labels that exist - how certification has evolved internationally and nationally across systems, sectors and continents, with special emphasis on Spain. It provides a compilation of events relevant to forestry, forest industries and forest certification systems that have taken place during the years this thesis has been in preparation. It reflects on the relevance that forest and chain of custody certification holds for the paper industry, in view not only of the regulations, policies and legislation that affect forest-based products but also of its role as a tool that bonds the sustainable forest with the consumer. Implementing the range of technical specifications to demonstrate forest sustainability and traceability throughout the production process entails the administrative burden of collecting information and providing controls to process the relevant records and documents to be kept on file in compliance with the requirements made by forest certification schemes. It is therefore important to define a generic method, together with its relevant procedures,that fits the management systems (quality / environmental / integrated)existing today in pulp and paper companies, in order to implement a generic Chain of Custody scheme (common to FSC and PEFC) in a pulp and paper mill, and a due diligence system. To achieve that, it has first been necessary to analyse the production line and establish points along the route where traceabilitycontrols need to be implemented and points where raw material, semi-finished goods and end products should be monitored and recorded. Subsequently, the procedures in quality / environmental management systems need to be drafted or amended as required to include fields that reflect those records. As required by the procedures, forest-based products that have a specific characteristic shall be monitored and recorded, and a number of indicators identified in the traceability system of wood for pulp & paper, i.e.createa set of quantitative and descriptive parameters subject to regular monitoringthat reveal changes and enable the Chain of Custody system to be assessed and controlled. In addition to ensuring the traceability of wood and fibre in the pulp and paper industry -and so the sustainability of the forest from which it is sourced -, the legality of the harvesting that produces that timber will also be enhanced, thus fulfilling not only the law but also both FSC and PEFC certification schemes. The chain of custody system for pulp and paper is characterised by monitoring indicators that enable traceability to be controlled.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las leguminosas grano presentan un perfil nutricional de gran interés para alimentación de ganado porcino, debido principalmente a su elevado contenido proteico. Sin embargo, la presencia de factores antinutritivos (FAN), que según el género difieren en calidad y cantidad, condiciona la absorción de la proteína, el nutriente más valorado. El objetivo de esta Tesis Doctoral ha sido el estudio del efecto de los principales FAN de guisante y alberjón sobre el rendimiento productivo, de canal y de piezas nobles, cuando sustituyen a la soja, parcial o totalmente, durante la fase estárter y el periodo de engorde de cerdos grasos. Con este motivo se llevaron a cabo 4 ensayos con machos castrados y la misma línea genética: híbrido Duroc x (Landrace x Large white). En el ensayo 1, se estudió la influencia de distintos niveles de inhibidores de proteasas (IP) en el pienso sobre la productividad de lechones durante la fase estárter (40 a 61 días de edad). Para ello, se utilizaron tres variedades de guisantes de invierno que contenían diferentes cantidades de IP, tanto de tripsina (IT) como de quimotripsina (IQ) [unidades de tripsina inhibida/mg (UTI), unidades de quimotripsina inhibida/mg (UQI): 9,87- 10,16, 5,75-8,62 y 12,55-15,75, para guisantes Cartouche, Iceberg y Luna, respectivamente] más elevadas que en la harina de soja 47 (HnaS) y en la soja extrusionada (SE) (UTI/mg - UQI/mg: 0,61-3,56 y 2,36-4,65, para HnaS y SE, respectivamente). El diseño experimental fue al azar, con cuatro tratamientos dietéticos que diferían en las fuentes proteicas y en la cantidad de IP, enfrentando un pienso control de soja a otros tres piensos con guisantes de invierno de las variedades indicadas, que sustituían parcialmente a la soja. Cada tratamiento se replicó cuatro veces, siendo la celda con 6 lechones la unidad experimental. Los animales que consumieron el pienso con guisante Cartouche tuvieron más ganancia media diaria (GMD) que el resto (P < 0,001) con el mismo consumo medio diario (CMD) e índice de conversión (IC). No hubo diferencias significativas entre los animales del pienso control y los que consumieron piensos con guisantes Iceberg y Luna. En el ensayo 2 la leguminosa objeto de estudio fue el alberjón y su FAN el dipéptido _Glutamyl-S-Ethenyl-Cysteine (GEC). El diseño y el periodo experimental fueron los mismos que en el ensayo 1, con cuatro dietas que variaban en el porcentaje de alberjones: 0%, 5%, 15% y 25%, y de GEC (1,54% del grano). Los lechones que consumieron el pienso con 5% tuvieron un CMD y GMD más elevado (P < 0,001), con el mismo IC que los animales pertenecientes al tratamiento 0%. Los índices productivos empeoraron significativamente y de manera progresiva al aumentar el porcentaje de alberjones (15 y 25%). Se obtuvieron ecuaciones de regresión con estructura polinomial que fueron significativas tanto para el nivel de alberjón como para la cantidad de GEC presente en el pienso. El ensayo 3 se efectuó durante el periodo de engorde, sustituyendo por completo la soja a partir de los 84 días de edad con las tres variedades de guisantes de invierno, observando el efecto sobre el rendimiento productivo, de canal y piezas nobles. El diseño, en bloques completos al azar, tuvo cuatro tratamientos según el guisante presente en el pienso y, por lo tanto, los niveles de IP: Control-soja, Cartouche, Iceberg y Luna, con 12 réplicas de 4 cerdos por tratamiento. De 84 a 108 días de edad los animales que consumieron los piensos Control-soja e Iceberg, tuvieron el mismo CMD y GMD, empeorando en los cerdos alimentados con Luna y Cartouche (P < 0,05). El IC fue igual en los tratamientos Control-soja e Iceberg, ocupando una posición intermedia en Cartouche y peor en los cerdos del pienso Luna (P < 0,001). De 109 a 127 días de edad la GMD y el IC fueron iguales, con un CMD más elevado en Control-soja e Iceberg que en los cerdos que consumieron Cartouche y Luna (P < 0,05). No hubo diferencias significativas durante el acabado (128 a 167 días de edad). Globalmente el CMD y GMD fueron más elevados en los cerdos que comieron los piensos Iceberg y Control-soja, empeorando por igual en los que comieron Cartouche y Luna (P < 0,05); el IC fue el mismo en todos los tratamientos. No se observaron diferencias en los datos relacionados con peso y rendimiento de canal y piezas nobles (jamón, paleta y chuletero), ni del contenido de grasa intramuscular en el lomo y proporción de ácidos grasos principales (C16:0, C18:0, C18:1n-9) en la grasa subcutánea. En el ensayo 4, realizado durante el periodo de engorde (60 a 171 días de edad), se valoró el efecto de dietas con distintos niveles de alberjones, y en consecuencia de su factor antinutritivo el dipéptido GEC, sobre el rendimiento productivo y la calidad de la canal y piezas nobles. El diseño fue en cuatro bloques completos al azar, con cuatro tratamientos según el porcentaje de inclusión de alberjón en el pienso: 0%, 5%, 15% y 25%, con 12 réplicas por tratamiento y cuatro cerdos en cada una de ellas. El tratamiento con 5% mejoró la GMD al final de la fase de cebo (152 días de vida) y, junto con el 0%, presentaron los resultados más favorables de peso e IC al final del ensayo (171 días de vida). Del mismo modo, el peso y rendimiento de canal fueron más elevados en los cerdos alimentados con los tratamientos 0% y 5% (P < 0,001). Piensos con el 15 y 25% de alberjones empeoraron los resultados productivos, así como el rendimiento y peso de canal. Sucedió lo mismo con el peso de las piezas nobles (jamón, paleta y chuletero), significativamente superior en 0% y 5% frente a 15% y 25%, siendo los cerdos que consumieron este último pienso los peores. Por el contrario el rendimiento de jamón y chuletero fue más elevado en los cerdos de los tratamientos 25% y 15% que en los que consumieron los piensos con 5% y 0% (P < 0,001); en el rendimiento de paletas se invirtieron los resultados, siendo mayores en los animales de los tratamientos 0% y 5% (P < 0,001). Se obtuvieron ecuaciones de regresión polinomial, para estimar las cantidades de inclusión de alberjones y de GEC más favorables desde el punto de vista productivo, así como los contrastes ortogonales entre los distintos tratamientos. ABSTRACT The grain legumes have a nutritional profile of great interest to feed pigs, mainly due to high protein content. However, the presence of antinutritional factors (ANF), which differ in quality and quantity according to gender, hinder the absorption of the protein, the most valuable nutrient. The aim of this thesis was to study the effect of the main ANF of pea and narbon vetch (NV) on productive performance, of the carcass and main lean cuts, when replacing soybean, partially or totally, during the starter phase and the fattening period of heavy pigs. For this reason were carried four trials with barrows and the same genetic line: Duroc hybrid x (Landrace x Large white). In trial 1, was studied the influence of different levels of protease inhibitors (PI) in the diet over productivity of piglets during the starter phase (40-61 days of age). For this, were used three varieties of winter peas containing different amounts of PI, both trypsin (TI) and chymotrypsin (CI) [inhibited units/mg trypsin (TIU), inhibited units/mg chymotrypsin (CIU): 9.87 - 10.16, 5.75 - 8.62 and 12.55 - 15.75, for peas Cartouche, Iceberg and Luna, respectively] higher than in soybean meal 47 (SBM) and soybeans extruded (SBE) (TIU/mg - CIU/mg: 0.61 - 3.56 and 2.36 - 4.65 for SBM and SBE, respectively). The design was randomized with four dietary treatments differing in protein sources and the amount of PI, with a control diet of soybean and three with different varieties of winter peas: Cartouche, Iceberg and Luna, which partially replace soybean. Each treatment was replicated four times, being the pen with 6 piglets the experimental unit. Pigs that ate the feed with pea Cartouche had better growth (ADG) than the rest (P < 0.001), with the same average daily feed intake (ADFI) and feed conversion ratio (FCR). There were no significant differences between piglets fed with control diet and those fed Iceberg and Luna diets. In trial 2 the legume under study was the NV and your ANF the dipeptide _Glutamyl FAN-S-Ethenyl-Cysteine (GEC). The experimental period and the design were the same as in trial 1, with four diets with different percentage of NV: 0%, 5%, 15% and 25%, and from GEC (1.52% of the grain). The piglets that consumed the feed containing 5% had higher ADG and ADFI (P < 0.05), with the same FCR that pigs belonging to the 0% treatment. Production rates worsened progressively with increasing percentage of NV (15 and 25%). Were obtained regression equations with polynomial structure that were significant for NV percentage and amount of GEC present in the feed. The test 3 was carried out during the fattening period, completely replace soy from 84 days of age with three varieties of winter peas, observing the effect on the yield, carcass and main lean cuts. The design, randomized complete blocks, had four treatments with different levels of PI: Control-soy, Cartouche, Iceberg and Luna, with 12 replicates of 4 pigs per treatment. From 84 to 108 days of age the pigs fed with Control-soy and Iceberg feed, had the same ADFI and ADG, worsening in pigs fed with Luna and Cartouche (P < 0.05). The FCR was similar in diets Control-soy and Iceberg, occupying an intermediate position in Cartouche and worse in pigs fed with Luna (P < 0.001). From 109-127 days of age the ADG and FCR were equal, with higher ADFI in pigs fed with Control-soy and Iceberg, regarding pigs fed with Cartouche and Luna (P < 0.05). There was no difference in the finishing phase (128-167 days of age). In global period, the ADFI and ADG were higher in pigs that ate Control-soy and Iceberg, and worse in those who ate Cartouche and Luna. The FCR was the same in all treatments. No significant differences were observed in the data related to weight and carcass yield, main lean cuts (ham, shoulder and loin chop) and intramuscular fat loin content and major fatty acids proportion (C16:0, C18:0, C18:1n-9) of subcutaneous fat. In experiment 4, made during the fattening period (60-171 days of age), was assessed the effect of diets with different levels of NV, and consequently of GEC, in the performance and quality of carcass and main lean cuts. There was a completely randomized design with four dietary treatments differing in percentage of NV: 0%, 5%, 15% and 25%, with 12 replicates per treatment and four pigs each. Treatment with 5% improved the ADG at the end of the fattening phase (152 days of age) and, together with 0%, showed the most favorable body weight and FCR at the end of the trial (171 days of age). Similarly, the weight and performance of carcass were higher for pigs fed with diets 0% and 5% (P < 0.05). Diets with 15 and 25% worsened the productive and carcass results. The weight of the main lean cuts (ham, shoulder and loin chop) was significantly higher in 0% and 5% vs 15% and 25%.The diet 25% was the worst of all. By contrast the performance of ham and loin chop was higher in pigs fed with diets 25% and 15%, that those who ate diets with 5% and 0% (P < 0.001); the results of shoulder performance were reversed, being greater in pigs feed with diets 0% and 5% (P < 0.001). Polynomial regression equations were obtained to estimate the percentage of NV and GEC more favorable from the point of view of production, and orthogonal contrasts between treatments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recientemente, ha surgido un interés por aprender a programar, debido a las oportunidades profesionales que da este tipo de estudios universitarios. Es fácil de entender porque el número de trabajos para programadores e ingenieros informáticos está creciendo rápidamente. Por otro lado, un amplio grupo de psicólogos opinan que el pensamiento computacional es una destreza fundamental para cualquiera, no sólo para los ingenieros informáticos. Para leer, escribir y realizar operaciones aritméticas, deberíamos utilizar el pensamiento computacional y por lo tanto, para desarrollar todas las habilidades analíticas de los niños. Es necesario cambiar los requerimientos de las destrezas necesarias para trabajar, los nuevos trabajadores necesitarán destrezas más sofisticadas en ciencias, matemáticas, ingeniería y tecnología. Consecuentemente, los contenidos sobre Tecnología de la Información tales como electrónica, programación, robótica y control se incrementan en la educación tecnológica en enseñanza secundaria. El desarrollo y utilización de los Laboratorios Virtuales de Control y Robótica ayuda a alcanzar este objetivo. Nos vamos a centrar en control y robótica porque un proyecto de control y robótica incluye contenidos de otras tecnologías tales como electrónica, programación, … Se ha implementado un sitio web con Laboratorios Virtuales de Control y Robótica. En este trabajo, se muestran seis grupos de laboratorios virtuales para la enseñanza del control y la robótica a niveles preuniversitarios. Estos laboratorios virtuales han sido usados para la docencia de alumnos de enseñanza secundaria. Las estadísticas del proceso de enseñanza-aprendizaje permiten validar ciertos aspectos de dicho trabajo. Se describen dichos laboratorios y la mejora del aprendizaje en cuanto a conocimientos procedimentales y conceptuales, así como la mejora de la interactividad respecto al aprendizaje con análogas aplicaciones con objetivos de aprendizaje idénticos, pero careciendo de la componente de laboratorio virtual. Se explican algunas de las experiencias realizadas con los alumnos. Los resultados sugieren, que dentro de la educación tecnológica de la educación secundaria, los laboratorios virtuales pueden ser explotados como un efectivo y motivacional entorno de aprendizaje. ABSTRACT Recently, there has been a surge of interest in learning to code, focusing especially on career opportunities. It is easy to understand why: the number of jobs for programmers and computer scientists is growing rapidly. On the other hand, the psychologists think that computational thinking is a fundamental skill for everyone, not just for computer scientists. To reading, writing, and arithmetic, we should add computational thinking to every child’s analytical ability. It is necessary to change workforce requirements mean that new workers will need ever more sophisticated skills in science, mathematics, engineering and technology. Consequently, the contents about Information Technology as well as electronics, coding, robotics and control increase in Technology Education in High School . The development and utilization of the Virtual Laboratories of Control and Robotics help to achieve this goal. We focus on control and robotics because a control and robotics project includes other technologies contents like electronics, coding,... A web site with Virtual Laboratories of Control and Robotics was implemented. In this work, six groups of virtual laboratories for teaching control and robotics in preuniversity level are shown. These Virtual Laboratories were used for teaching students at high school. The statistics of teaching-learning process allow to check some issues of this work. The laboratories, the improvement of learning (concepts and procedures) and interactivity are described and are compared to similar applications. They share identical learning objectives but they lack the virtual laboratory aspect. Some experiences with students are explained too. The results suggest that within high school technology education, virtual laboratories can be exploited as effective and motivational learning environments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Fundación Entreculturas, en línea con sus actividades para el desarrollo integral de los sectores desfavorecidos en África, ha elaborado un proyecto en consorcio con JRS (Servicio Jesuita al Refugiado) con el objetivo de “garantizar el acceso a una educación primaria de calidad para la población retornada y las comunidades reintegradas en zonas de acogida en el Este de Chad”. Este proyecto tratará de intervenir en las condiciones educativas tratando la problemática de una manera global: a través de la formación de docentes, la promoción comunitaria, la reducción de la pobreza, la equidad de género y la construcción de infraestructuras. La presente propuesta trata de responder a este último punto, planteando una solución técnica adecuada y pertinente desde el punto de vista del producto y del proceso. Con el documento se pretende aportar una serie de soluciones constructivas que puedan ser utilizadas tanto en los contextos específicos de este proyecto como en otros con características similares, de manera que se contribuya a una estandarización de los procesos y soluciones garantizando la calidad, seguridad, economía, rapidez y control en este tipo de situaciones de emergencia, en los que el tiempo de planificación y ejecución es limitado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La protección de las aguas subterráneas es una prioridad de la política medioambiental de la UE. Por ello ha establecido un marco de prevención y control de la contaminación, que incluye provisiones para evaluar el estado químico de las aguas y reducir la presencia de contaminantes en ellas. Las herramientas fundamentales para el desarrollo de dichas políticas son la Directiva Marco del Agua y la Directiva Hija de Aguas Subterráneas. Según ellas, las aguas se consideran en buen estado químico si: • la concentración medida o prevista de nitratos no supera los 50 mg/l y la de ingredientes activos de plaguicidas, de sus metabolitos y de los productos de reacción no supera el 0,1 μg/l (0,5 μg/l para el total de los plaguicidas medidos) • la concentración de determinadas sustancias de riesgo es inferior al valor umbral fijado por los Estados miembros; se trata, como mínimo, del amonio, arsénico, cadmio, cloruro, plomo, mercurio, sulfatos, tricloroetileno y tetracloroetileno • la concentración de cualquier otro contaminante se ajusta a la definición de buen estado químico enunciada en el anexo V de la Directiva marco sobre la política de aguas • en caso de superarse el valor correspondiente a una norma de calidad o a un valor umbral, una investigación confirma, entre otros puntos, la falta de riesgo significativo para el medio ambiente. Analizar el comportamiento estadístico de los datos procedentes de la red de seguimiento y control puede resultar considerablemente complejo, debido al sesgo positivo que suelen presentar dichos datos y a su distribución asimétrica, debido a la existencia de valores anómalos y diferentes tipos de suelos y mezclas de contaminantes. Además, la distribución de determinados componentes en el agua subterránea puede presentar concentraciones por debajo del límite de detección o no ser estacionaria debida a la existencia de tendencias lineales o estacionales. En el primer caso es necesario realizar estimaciones de esos valores desconocidos, mediante procedimientos que varían en función del porcentaje de valores por debajo del límite de detección y el número de límites de detección aplicables. En el segundo caso es necesario eliminar las tendencias de forma previa a la realización de contrastes de hipótesis sobre los residuos. Con esta tesis se ha pretendido establecer las bases estadísticas para el análisis riguroso de los datos de las redes de calidad con objeto de realizar la evaluación del estado químico de las masas de agua subterránea para la determinación de tendencias al aumento en la concentración de contaminantes y para la detección de empeoramientos significativos, tanto en los casos que se ha fijado un estándar de calidad por el organismo medioambiental competente como en aquéllos que no ha sido así. Para diseñar una metodología que permita contemplar la variedad de casos existentes, se han analizado los datos de la Red Oficial de Seguimiento y Control del Estado Químico de las Aguas Subterráneas del Ministerio de Agricultura, Alimentación y Medio Ambiente (Magrama). A continuación, y dado que los Planes Hidrológicos de Cuenca son la herramienta básica de las Directivas, se ha seleccionado la Cuenca del Júcar, dada su designación como cuenca piloto en la estrategia de implementación común (CIS) de la Comisión Europea. El objetivo principal de los grupos de trabajo creados para ello se dirigió a implementar la Directiva Derivada de Agua Subterráneas y los elementos de la Directiva Marco del Agua relacionadas, en especial la toma de datos en los puntos de control y la preparación del primer Plan de Gestión de Cuencas Hidrográficas. Dada la extensión de la zona y con objeto de analizar una masa de agua subterránea (definida como la unidad de gestión en las Directivas), se ha seleccionado una zona piloto (Plana de Vinaroz Peñiscola) en la que se han aplicado los procedimientos desarrollados con objeto de determinar el estado químico de dicha masa. Los datos examinados no contienen en general valores de concentración de contaminantes asociados a fuentes puntuales, por lo que para la realización del estudio se han seleccionado valores de concentración de los datos más comunes, es decir, nitratos y cloruros. La estrategia diseñada combina el análisis de tendencias con la elaboración de intervalos de confianza cuando existe un estándar de calidad e intervalos de predicción cuando no existe o se ha superado dicho estándar. De forma análoga se ha procedido en el caso de los valores por debajo del límite de detección, tomando los valores disponibles en la zona piloto de la Plana de Sagunto y simulando diferentes grados de censura con objeto de comparar los resultados obtenidos con los intervalos producidos de los datos reales y verificar de esta forma la eficacia del método. El resultado final es una metodología general que integra los casos existentes y permite definir el estado químico de una masa de agua subterránea, verificar la existencia de impactos significativos en la calidad del agua subterránea y evaluar la efectividad de los planes de medidas adoptados en el marco del Plan Hidrológico de Cuenca. ABSTRACT Groundwater protection is a priority of the EU environmental policy. As a result, it has established a framework for prevention and control of pollution, which includes provisions for assessing the chemical status of waters and reducing the presence of contaminants in it. The measures include: • criteria for assessing the chemical status of groundwater bodies • criteria for identifying significant upward trends and sustained concentrations of contaminants and define starting points for reversal of such trends • preventing and limiting indirect discharges of pollutants as a result of percolation through soil or subsoil. The basic tools for the development of such policies are the Water Framework Directive and Groundwater Daughter Directive. According to them, the groundwater bodies are considered in good status if: • measured or predicted concentration of nitrate does not exceed 50 mg / l and the active ingredients of pesticides, their metabolites and reaction products do not exceed 0.1 mg / l (0.5 mg / l for total of pesticides measured) • the concentration of certain hazardous substances is below the threshold set by the Member States concerned, at least, of ammonium, arsenic, cadmium, chloride, lead, mercury, sulphates, trichloroethylene and tetrachlorethylene • the concentration of other contaminants fits the definition of good chemical status set out in Annex V of the Framework Directive on water policy • If the value corresponding to a quality standard or a threshold value is exceeded, an investigation confirms, among other things, the lack of significant risk to the environment. Analyzing the statistical behaviour of the data from the monitoring networks may be considerably complex due to the positive bias which often presents such information and its asymmetrical distribution, due to the existence of outliers and different soil types and mixtures of pollutants. Furthermore, the distribution of certain components in groundwater may have concentrations below the detection limit or may not be stationary due to the existence of linear or seasonal trends. In the first case it is necessary to estimate these unknown values, through procedures that vary according to the percentage of values below the limit of detection and the number of applicable limits of detection. In the second case removing trends is needed before conducting hypothesis tests on residuals. This PhD thesis has intended to establish the statistical basis for the rigorous analysis of data quality networks in order to conduct the evaluation of the chemical status of groundwater bodies for determining upward and sustained trends in pollutant concentrations and for the detection of significant deterioration in cases in which an environmental standard has been set by the relevant environmental agency and those that have not. Aiming to design a comprehensive methodology to include the whole range of cases, data from the Groundwater Official Monitoring and Control Network of the Ministry of Agriculture, Food and Environment (Magrama) have been analysed. Then, since River Basin Management Plans are the basic tool of the Directives, the Júcar river Basin has been selected. The main reason is its designation as a pilot basin in the common implementation strategy (CIS) of the European Commission. The main objective of the ad hoc working groups is to implement the Daughter Ground Water Directive and elements of the Water Framework Directive related to groundwater, especially the data collection at control stations and the preparation of the first River Basin Management Plan. Given the size of the area and in order to analyze a groundwater body (defined as the management unit in the Directives), Plana de Vinaroz Peñíscola has been selected as pilot area. Procedures developed to determine the chemical status of that body have been then applied. The data examined do not generally contain pollutant concentration values associated with point sources, so for the study concentration values of the most common data, i.e., nitrates and chlorides have been selected. The designed strategy combines trend analysis with the development of confidence intervals when there is a standard of quality and prediction intervals when there is not or the standard has been exceeded. Similarly we have proceeded in the case of values below the detection limit, taking the available values in Plana de Sagunto pilot area and simulating different degrees of censoring in order to compare the results obtained with the intervals achieved from the actual data and verify in this way the effectiveness of the method. The end result is a general methodology that integrates existing cases to define the chemical status of a groundwater body, verify the existence of significant impacts on groundwater quality and evaluate the effectiveness of the action plans adopted in the framework of the River Basin Management Plan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta es la búsqueda de respuestas a esa duda constante: De dónde venimos y que hemos ido dejando por el camino. ¿Está todo claro en este recorrido o hemos actuado por acumulación de errores heredados de procesos anteriores? Es la investigación a través del descubrimiento de nuestro pasado, de nuestros orígenes en materia de seguridad de protección contra incendios, y sobre todo de ejecución de una arquitectura pensada para ser recorrida con mayor seguridad y ser evacuada en un tiempo razonable. El trabajo investiga, a nivel nacional, la evolución de la sociedad y sus efectos sobre la manera de interpretar el problema de la seguridad contra incendios en los edificios. El interés fundamentalmente es poner en claro todos aquellos aspectos que afectan a la evacuación de las personas. Para ello se han estudiado los principales hitos de actuación, las preocupaciones principales surgidas en cada momento y las soluciones adoptadas. Se ha comprobado su aplicación o su demora hasta que se ha producido el siguiente gran suceso que ha motivado una nueva revisión de los procedimientos de diseño y control. En primer lugar, tratando de relacionar los incendios fundamentales que han influido en nuestra forma de abordar el problema en distintos momentos de la historia de España. En segundo lugar, haciendo un recorrido sobre la figura del arquitecto y su participación en los medios de control y legislación sobre la manera de intervenir en el servicio de incendios o de resolver los edificios en materia de protección contra incendios o evacuación de sus ocupantes. En definitiva, descubriendo los escritos de algunos especialistas, fundamentales para entender nuestra manera de abordar el problema de la protección en los edificios, a lo largo de la historia. Se ha revisado como se han producido los siniestros más importantes en teatros y otros locales públicos .Analizando la forma en que los arquitectos implicados han tratado de resolver las posibles deficiencias ante el riesgo. Se trata de la tipología edificatoria donde, por primera vez, surge la preocupación por adoptar medidas y procedimientos de seguridad en caso de incendio. Resultan locales con una importante siniestralidad, donde se desarrolla la principal actividad lúdica del momento, y que por el importante número de personas que albergan, son fuente de preocupación entre el público y las autoridades. Otras cuestiones en un tema tan amplio, que quedan simplemente esbozadas en este trabajo de investigación, son los procedimientos de los sistemas de extinción, la estructura organizativa de la ciudad, las primeras sociedades de seguros de incendios, la aparición de patentes a partir del desarrollo industrial del siglo XIX. Todo ello, con el hilo conductor de la reglamentación que se ha ido elaborando al respecto. Al principio, sobre espectáculos públicos, acotando el punto de partida en la materia de nuestra reglamentación. Anticipando sistemas constructivos y datos dimensionales de la evacuación. Llegados a mediados del siglo XX, abordando otros usos. Haciendo seguimiento de la modernización de los procesos edificatorios y la reglamentación sectorial. Recabando información de las organizaciones profesionales que comienzan a reclamar una coordinación nacional de los sistemas preventivos y que desemboca en el Proyecto de Reglamento de prevención contra el fuego que nunca será publicado. Toda esta etapa, plagada de documentos de carácter voluntario u obligatorio, local y nacional, van definiendo los criterios dimensionales con los que debe resolverse los elementos arquitectónicos susceptibles de servir para la evacuación. Se trata de una etapa intensa en documentación, cambiante, sujeta a los criterios que establecen los países del entorno más avanzados en la materia. Las dos últimas décadas del siglo, acotadas por la transición política y varios siniestros de graves consecuencias, definen el proceso normativo que culmina con el código técnico de la edificación que hoy conocemos. Es un periodo de aprendizaje y asimilación del capítulo de la seguridad, donde los métodos son variados. Donde la intencionalidad última es trasladar un sistema prescriptivo a un modelo prestacional propio de la madurez en el análisis del tema y en las corrientes de los países del entorno. ABSTRACT This is the search for answers to that constant question: Where do we come from and what have left along the way? Has everything been clear on this journey, or have we acted as a result of a collection of errors learned from prior processes? This has been research through exploration of our past, of our origins regarding fire protection safety, and, above all, of the endeavour to utilize architecture aimed at offering the highest level of safety and evacuation in a reasonable time. This project has researched society’s change nationwide and its effects on how to interpret the difficulty of fire protection safety in buildings. Its focus has fundamentally been to clarify those aspects that affect the evacuation of people. To this end, the main milestones of action, the principal concerns that have arisen at each step, and the solutions taken have all been studied. A check was performed on their application; or their delay until a significant event occurred that prompted a new revision of design and control procedures. Firstly, this was done by attempting to connect the main fires that have influenced how we handle the problem at different times in Spain’s history. Secondly, an examination was done on the figure of the architect and his participation in the means of control and legislation on how to intercede in fire services, or how the architect finds solutions for buildings in terms of fire protection, or the evacuation of their occupants. In short, the written works of certain specialists, who are essential to our understanding of how to deal with the problem of protection in buildings, were explored throughout history. A study was done on the most significant disasters in theatres and other public establishments. This was done by analysing the way the architects involved have aimed to solve possible points liable to risk. It is a classification of building where, for the first time, the concern arose to adopt safety measures and procedures in the event of fires. Public establishments with considerable accident rates emerged. Here the main entertainment activities of the time took place. These spaces were a source of worry among the public and authorities due to the high number of persons they accommodated. Other issues in such an extensive subject, which are only outlined in this research study, are procedures in extinguishing systems, the organizational structure of cities, the first fire insurance companies, and the appearance of patents after the industrial development of the 19th century. All of these aspects are joined by the common thread of regulations that have been created in this matter. At the beginning, these regulations were for public shows, thus defining the starting point for our regulations. This was done in anticipation of structural systems and size data of evacuations. With the arrival of the mid-20th century, different uses were addressed. A modernization of construction processes and the industry regulations were tracked. Information was gathered from professional organizations that began to demand a national coordination of prevention systems which led to the Regulation Project on fire prevention which will never be published. Throughout this stage, replete with voluntary and compulsory documents, both on the local and national level, the dimensional criteria to be used in the resolution of architectural elements open to use in evacuation were defined. This was a period that was filled with documentation, change, and subject to the criteria that the most advanced countries in the field established in this regard. The final two decades of the century, marked by political transition and several accidents with grave consequences, defined the regulation process that culminated with the building technical code known today. This was a period of learning and understanding in the chapter of safety, where the methods are varied. In this chapter, the ultimate goal is to insert a prescriptive-based standard into a performance-based code suitable for cultivated experience in analysis of the subject and the tendencies in countries dealing with this field.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los hospitales y residencias geriátricas de hoy en día es necesario que tengan un sistema asistencial paciente-enfermera. Este sistema debe ser capaz de controlar y gestionar cada una de las alarmas que se puedan generar en el menor tiempo posible y con la mayor eficacia. Para ello se ha diseñado una solución completa llamada ConnectCare. La arquitectura modular del sistema y la utilización de comunicación IP permiten adaptar el sistema a cada situación proporcionando soluciones específicas a medida. Este sistema se compone de un software llamado Buslogic que gestiona las alarmas en un servidor y de unos dispositivos llamados Fonet Control TCP/IP que posee una doble función: por una parte, sirve como dispositivo intercomunicador telefónico y por otra parte, sirve como dispositivo de gestión de alarmas y control de otros dispositivos externos. Como dispositivo intercomunicador telefónico, se integra en la red telefónica como un terminal de extensión analógica permitiendo la intercomunicación entre el paciente y el personal sanitario. Se hará una breve descripción de la parte intercomunicadora pero no es el objeto de este proyecto. En cambio, en la parte de control se hará más hincapié del diseño y su funcionamiento ya que sí es el objeto de este proyecto. La placa de control permite la recepción de señales provenientes de dispositivos de llamadas cableados, como son pulsadores asistenciales tipo “pera” o tiradores de baño. También es posible recibir señales de alerta de dispositivos no estrictamente asistenciales como detectores de humo o detectores de presencia. Además, permite controlar las luces de las habitaciones de los residentes y actuar sobre otros dispositivos externos. A continuación se mostrará un presupuesto para tener una idea del coste que supone. El presupuesto se divide en dos partes, la primera corresponde en el diseño de la placa de control y la segunda corresponde a la fabricación en serie de la misma. Después hablaremos sobre las conclusiones que hemos sacado tras la realización de este proyecto y sobre las posibles mejoras, terminando con una demostración del funcionamiento del equipo en la vida real. ABSTRACT. Nowadays, in hospitals and nursing homes it is required to have a patient-nurse care system. This system must be able to control and manage each one of the alarms, in the shortest possible time and with maximum efficiency. For this, we have designed a complete solution called ConnectCare. The system architecture is modular and the communication is by IP protocol. This allows the system to adapt to each situation and providing specific solutions. This system is composed by a software, called Buslogic, which it manages the alarms in the PC server and a hardware, called Fonet Control TCP / IP, which it has a dual role: the first role, it is a telephone intercom device and second role, it is a system alarm manager and it can control some external devices. As telephone intercom device, it is integrated into the telephone network and also it is an analog extension terminal allowing intercommunication between the patient and the health personnel. A short description of this intercommunication system will be made, because it is not the subject of this project. Otherwise, the control system will be described with more emphasis on the design and operation point of view, because this is the subject of this project. The control board allows the reception of signals from wired devices, such as pushbutton handset or bathroom pullcord. It is also possible to receive warning signals of non nurse call devices such as smoke detectors or motion detectors. Moreover, it allows to control the lights of the patients’ rooms and to act on other external devices. Then, a budget will be showed. The budget is divided into two parts, the first one is related with the design of the control board and the second one corresponds to the serial production of it. Then, it is discussed the conclusions of this project and the possible improvements, ending with a demonstration of the equipment in real life.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto consiste en el análisis de las técnicas de compresión de gas natural, tanto técnica como económicamente, así como el diseño de la estación de compresión localizada en Irún, provincia de Guipúzcoa, con la mejor opción. El proyecto define el interés de este tipo de instalaciones, su funcionamiento, detalla los distintos sistemas de los que consta la estación de compresión y estudia la rentabilidad económica en base al presupuesto de la instalación y a la retribución de las actividades reguladas del sector gasista. Los distintos sistemas de los que consta la estación de compresión, y que forman parte del contenido del proyecto son, todos los necesarios para el funcionamiento de la estación: sistemas mecánicos, instrumentación y control, obra civil y sistemas auxiliares (sistemas eléctricos, de seguridad y antiintrusión).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La lucha contra la pobreza y la desigualdad ocupa la lista de prioridades y tareas pendientes, en la mayoría de los países de América Latina; es un hecho, sustentado en estadísticas e informes de importantes organizaciones a nivel mundial (que se citan más adelante), que una gran parte de la población enfrenta dificultades y barreras que impiden el pleno disfrute de beneficios, derechos y libertades y que las desigualdades persisten en varios campos, afectando mayoritariamente a un grupo de población: las mujeres. Esa realidad implica que los proyectos, políticas, estrategias y acciones enfocadas en la promoción del desarrollo humano deben actuar con plena consciencia sobre esas desigualdades y procurar intervenciones más efectivas, que atiendan las necesidades e intereses diferenciados de hombres y mujeres y generen beneficios bajo criterios de igualdad. Para lograr tal fin, es necesario desvirtuar las intervenciones que asumen como ciertos los roles estereotipados de mujeres y hombres — desconociendo la existencia de relaciones, características, roles y responsabilidades diferenciadas por sexo — y adoptan fórmulas únicas para dar respuesta a problemas comunes, ya que no sólo no disminuyen las brechas de desigualdad entre los sexos si no que directa o indirectamente continúan perpetuándolas. ¿Por qué analizar el papel de la mujer en el desarrollo humano? Intentar entender la relación entre mujer y desarrollo humano es internarse en un complejo sistema de factores, causas y efectos que van desde intereses económicos y políticos hasta mitos y creencias socialmente aceptadas y reforzadas generacionalmente. A pesar de los avances logrados en los últimos años, aún hoy en muchos lugares del mundo siguen existiendo mujeres que se enfrentan a los estereotipos de género, las barreras sociales y culturales y una serie de situaciones desiguales que las hacen más propensas a la pobreza, más vulnerables y peor posicionadas en varios aspectos del desarrollo. Esa vulnerabilidad y empobrecimiento de las mujeres, también llamada feminización de la pobreza, es generalmente ocasionada por múltiple factores, entre los cuáles (FAO, 1998) cita: “Acceso limitado a los recursos de producción, a los servicios sociales, y comerciales; desempleo, subempleo y/o desigualdad en la remuneración; exclusión o limitada participación en los procesos de toma de decisiones y formulación de políticas; legislación desfavorable o discriminatoria…existencia y reproducción de la discriminación en el seno del hogar; creciente migración masculina y consecuente abandono de las mujeres e hijos...” adicionalmente los estereotipos, el sistema patriarcal y la privación de la mujer de sus derechos por medios violentos y de coacción le hacen aún más difícil avanzar hacia su desarrollo humano. Mantener, aproximadamente, al 50% de la población mundial en condiciones de desigualdad implica impactos negativos, no solo para las mujeres, sino para la eficiencia, el crecimiento económico y el desarrollo de la sociedad en su conjunto, que se dan por hechos como:  La correlación entre los bajos índices de desarrollo de las mujeres y los menores niveles de desarrollo alcanzados por sus hijos e hijas que se configuran como un mecanismo de reproducción de la pobreza de una generación a otra.  La correlación entre Índice de Desarrollo Humano (IDH) y el Índice de Potenciación de Género (IPG), que según datos del Programa de las Naciones Unidas para el Desarrollo (PNUD) sugieren que la igualdad de género va de la mano de mayores y mejores niveles de desarrollo de la sociedad.  La directa relación entre el papel de la mujer y su posibilidad para ejercer sus derechos y el logro de objetivos de desarrollo del milenio, en aspectos como el crecimiento demográfico.  La clara contribución de la mujer a la producción, la economía, el cuidado de la fuerza de trabajo y las futuras generaciones y el desarrollo comunitario. “La igualdad de género es parte de la economía inteligente: puede aumentar la eficiencia económica y mejorar otros resultados en materia de desarrollo de tres maneras distintas. En primer lugar, eliminar las barreras que impiden que las mujeres tengan el mismo acceso que los hombres a la educación, a las oportunidades económicas y a los insumos productivos puede dar lugar a aumentos generalizados de la productividad... En segundo lugar, mejorar el estatus absoluto y relativo de las mujeres promueve muchos otros resultados en materia de desarrollo, incluidos los que afectan a sus hijos e hijas. En tercer lugar, equilibrar la balanza —de manera que las mujeres y los hombres gocen de las mismas oportunidades de tener una actividad social y política, tomar decisiones y definir las políticas— probablemente conducirá con el tiempo al establecimiento de instituciones y opciones de política más representativas y más incluyentes, y por tanto a una vía más apropiada hacia el desarrollo. (Banco Mundial, 2012) En congruencia con todo lo anterior este trabajo busca entender la perspectiva de género y su influencia en el desarrollo humano de dos grupos de mujeres ubicadas en el estado de Alagoas en Brasil. Como punto de partida se definieron las siguientes preguntas de investigación: 1) ¿Los grupos analizados enfrentan desigualdades, en el contexto familiar y comunitario, por causa de su sexo? 2) ¿Qué factores están interfiriendo en el ejercicio de los derechos y libertades de las mujeres específicamente en las áreas de tiempo, trabajo, dinero y poder? 3) ¿Cuáles son las interrelaciones entre las áreas anteriormente mencionadas y el desarrollo de las mujeres? 4) ¿La situación de las mujeres y las relaciones de género guardan similitudes en contextos urbanos y rurales? Para lograr una respuesta aproximada a estas preguntas, se realizó un análisis de género utilizando la combinación de algunos aspectos del marco de Marco de Análisis de Género de Harvard y el Marco de Moser y se realizaron comparaciones entre dos grupos de mujeres de dos contextos geográficos diferentes, el rural y el urbano. Considerando la amplitud de las dimensiones de género que podrían ser incluidas, el análisis se realizó en torno a los aspectos de tiempo, trabajo, recursos financieros, participación y poder. La metodología utilizada incluyó siguientes herramientas: 1) Análisis del marco jurídico relativo a género 2) Análisis del contexto específico de cada grupo. 3) Aproximación a las necesidades e intereses de las mujeres 4) Análisis de roles y distribución sexual del trabajo 5) Análisis del acceso y control a los recursos 6) Aproximación al análisis de capacidad de las organizaciones responsables para trabajar con perspectiva de género. Con base en los resultados de estos análisis se aportan algunas recomendaciones para la disminución de esas brechas. 7) Análisis de brechas de género, mecanismos de reproducción e impactos en el desarrollo humano de las mujeres

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El viaje mental en el tiempo (VMT) es la capacidad de proyectarse mentalmente hacia atrás o hacia adelante en el tiempo, con el fin de recordar eventos del pasado personal o imaginar eventos del futuro personal. Esta investigación se centra en el aspecto orientado hacia el futuro del VMT conocido como pensamiento episódico futuro (PEF). El PEF implica un proceso complejo y exigente ejecutivamente, que es necesario para la recombinación de detalles extraídos de la memoria en un evento nuevo y coherente. Consecuentemente y basándonos en una revisión analítica de la literatura, en este estudio conceptualizamos el PEF como un proceso de construcción asociativa autobiográfica, para el que serían necesarias operaciones autorreferenciales, de asociación o integración (binding), de recombinación y control atencional de la información. De esta forma, el PEF dependería de la recuperación de elementos discretos de la memoria de ítem, que serían integrados entre sí del modo binding inter-ítem y su asociación con información contextual espacio-temporal, extraída de la memoria fuente para formar bindings ítem-contexto. A lo que habría que añadir un tipo de binding semántico subyacente, que enlace esta información episódica con conocimiento semántico-conceptual para guiar la recombinación, el binding ítem-contexto episódico, y explique la novedad y la coherencia de los eventos futuros resultantes. Así, la hipótesis investigada en este estudio fue que el PEF dependería especialmente de un sistema de memoria autobiográfica jerárquicamente organizada, y unos procesos de control relacionados con la memora de trabajo, lo que posibilitaría un binding relacional jerárquico tanto de información semántica como episódica a través de distintas estructuras de información, que resumirían el conocimiento autobiográfico de forma poblacional en los niveles más altos de la jerarquía. Con el fin de estudiar el PEF, se desarrolló un nuevo marco metodológico, el paradigma experimental de integración prospectiva autobiográfica. Dicho marco consistió en un estudio piloto de dos fases, seguido de una secuencia experimental. Para el primer estudio piloto se desarrolló un cuestionario online, el cual se aplicó a una muestra de 112 adultos jóvenes sanos, a los que se pidió valorar Eventos autobiográficos pasados significativos en función de su frecuencia y vividez. Algunos de esos Eventos se utilizaron a continuación para realizar un segundo estudio piloto, para el que se desarrolló un nuevo cuestionario online, el cual se aplicó a una muestra nueva de 51 adultos jóvenes sanos, a los que se pidió que proporcionaran Detalles (Contexto Espacial, Contexto Temporal y Elementos) de los Eventos previamente identificados y que valorasen los Elementos según las mismas propiedades descritas anteriormente. Esta base de datos, que contiene la experiencia autobiográfica colectiva, se utilizó para desarrollar una nueva tarea de aplicación web que se utilizó en la secuencia experimental...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los procesos de privatización y globalización económica debilitan la soberanía del los estados y cuestionan la noción y la práctica de la democracia representativa. Para que esta siga siendo efectiva, ha de adaptarse a la dimensión global de la economía y a los problemas que plantea un mundo interdependiente. Esto requiere, entre otras cosas, redefinir la forma, el papel, las competencias, las formas de representación y control y los procesos de toma de decisiones de los organismos regionales e internacionales, así como su relación con los estados y la sociedad civil. El artículo propone reformas concretas aplicables al Banco Mundial y al Fondo Monetario Internacional: nueva forma de ponderación del voto de los estados miembros, transparencia y rendición de cuentas, mayor coordinación con el sistema de Naciones Unidas y participación de la sociedad civil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Antecedentes/Objetivos: La Salud Pública (SP) solamente puede abordar los cambiantes retos a los que se enfrenta con unos profesionales altamente cualificados. Para mejorar la formación de los profesionales en SP es necesario conocer en términos de ocupación laboral (OL) y empleabilidad (E) los accesos que proporciona la formación en SP. Objetivo: explorar la OL y E de los egresados del Máster en Salud Pública de las Universidades Miguel Hernández y Alicante (MSP). Métodos: Estudio transversal-2013. Encuesta semiestructurada anónima en Google Docs a los titulados del MSP de los cursos 2007 a 2012. Tasa de participación: 33% (n = 45 procedentes de España, Colombia, Chile, Cuba y Bruselas) de las 135 solicitudes enviadas. Variables: Profesión, formación Doctorado, ocupación en SP (antes, durante/después (DD) MSP). Cálculo tasa de empleabilidad por sexo, edad, y formación. Estudio descriptivo de las OL en SP y nichos de empleo DD MSP. Resultados: Tasa de empleo (TE): 82% (mujeres: 85%, hombres: 78%), que se reduce en > 44 años: 57%. Con Doctorado: 16% (TE: 100%). Expectativas laborales: mejorar 47%, mantenimiento 33%, empeorar 7%. Dedicación profesión de base: 53%, y el 47% (n = 21) con ocupaciones en SP: 43% (9) con ocupación antes del MSP y 57% (12) conseguida DD. Los 9 empleados antes-MSP trabajan como MIR Preventiva y SP, profesorado asociado Universidad, Técnico investigación. Dietista-Nutricionista. Inspección veterinaria y Técnico SP. Los 12 empleados DD MSP (27% del total entrevistados) consiguieron empleo de: Técnicos: investigación, evaluador fármaco-vigilancia, e higiene de los alimentos. Becario predoctoral, investigadora postdoctoral, gerente hospital, director calidad, coordinador administrativo ONG, cooperación médica y prevención enfermedades evitables, farmacéutico SP. Situación geográfica y centros de trabajo antes-MSP son: Comunidad Valenciana (CC.VV): Hospitales (H), Universidad (U) nacionales, CIBERESP, Centros Salud Pública (CSP). Y empleados DD MSP: CC.VV, Madrid, Latinoamérica y África: U nacionales/internacionales, CIBERESP, H, ONG, CSP, Agencia Española Medicamento y OPS. Tareas realizadas antes-MSP: Epidemiología clínica y SP, docencia (D), investigación (I), y control salud alimentaria/ambiental/laboral (SAAL); y las tareas DD MSP: además de I y SAAL, gestión hospitalaria, farmacovigilancia y cooperación. Conclusiones: La tasa de empleabilidad del MSP es similar a los datos de la Encuesta de Población Activa respecto a formación de postgrado. Se incrementa la variedad de empleos y tareas, e instituciones empleadoras DD MSP nacionales e internacionales. El grupo vulnerable de los sin empleo > 44 años y las expectativas de mejora en el empleo de los titulados MSP son nichos de formación de postgrado.