912 resultados para Punto fijo
Resumo:
Logic programming (LP) is a family of high-level programming languages which provides high expressive power. With LP, the programmer writes the properties of the result and / or executable specifications instead of detailed computation steps. Logic programming systems which feature tabled execution and constraint logic programming have been shown to increase the declarativeness and efficiency of Prolog, while at the same time making it possible to write very expressive programs. Tabled execution avoids infinite failure in some cases, while improving efficiency in programs which repeat computations. CLP reduces the search tree and brings the power of solving (in)equations over arbitrary domains. Similarly to the LP case, CLP systems can also benefit from the power of tabling. Previous implementations which take ful advantage of the ideas behind tabling (e.g., forcing suspension, answer subsumption, etc. wherever it is necessary to avoid recomputation and terminate whenever possible) did not offer a simple, well-documented, easy-to-understand interface. This would be necessary to make the integratation of arbitrary CLP solvers into existing tabling systems possible. This clearly hinders a more widespread usage of the combination of both facilities. In this thesis we examine the requirements that a constraint solver must fulfill in order to be interfaced with a tabling system. We propose and implement a framework, which we have called Mod TCLP, with a minimal set of operations (e.g., entailment checking and projection) which the constraint solver has to provide to the tabling engine. We validate the design of Mod TCLP by a series of use cases: we re-engineer a previously existing tabled constrain domain (difference constraints) which was connected in an ad-hoc manner with the tabling engine in Ciao Prolog; we integrateHolzbauer’s CLP(Q) implementationwith Ciao Prolog’s tabling engine; and we implement a constraint solver over (finite) lattices. We evaluate its performance with several benchmarks that implement a simple abstract interpreter whose fixpoint is reached by means of tabled execution, and whose domain operations are handled by the constraint over (finite) lattices, where TCLP avoids recomputing subsumed abstractions.---ABSTRACT---La programación lógica con restricciones (CLP) y la tabulación son extensiones de la programación lógica que incrementan la declaratividad y eficiencia de Prolog, al mismo tiempo que hacen posible escribir programasmás expresivos. Las implementaciones anteriores que integran completamente ambas extensiones, incluyendo la suspensión de la ejecución de objetivos siempre que sea necesario, la implementación de inclusión (subsumption) de respuestas, etc., en todos los puntos en los que sea necesario para evitar recomputaciones y garantizar la terminación cuando sea posible, no han proporcionan una interfaz simple, bien documentada y fácil de entender. Esta interfaz es necesaria para permitir integrar resolutores de CLP arbitrarios en el sistema de tabulación. Esto claramente dificulta un uso más generalizado de la integración de ambas extensiones. En esta tesis examinamos los requisitos que un resolutor de restricciones debe cumplir para ser integrado con un sistema de tabulación. Proponemos un esquema (y su implementación), que hemos llamadoMod TCLP, que requiere un reducido conjunto de operaciones (en particular, y entre otras, entailment y proyección de almacenes de restricciones) que el resolutor de restricciones debe ofrecer al sistema de tabulación. Hemos validado el diseño de Mod TCLP con una serie de casos de uso: la refactorización de un sistema de restricciones (difference constraints) previamente conectado de un modo ad-hoc con la tabulación de Ciao Prolog; la integración del sistema de restricciones CLP(Q) de Holzbauer; y la implementación de un resolutor de restricciones sobre retículos finitos. Hemos evaluado su rendimiento con varios programas de prueba, incluyendo la implementación de un intérprete abstracto que alcanza su punto fijo mediante el sistema de tabulación y en el que las operaciones en el dominio son realizadas por el resolutor de restricciones sobre retículos (finitos) donde TCLP evita la recomputación de valores abstractos de las variables ya contenidos en llamadas anteriores.
Resumo:
Buque para el apoyo de instalaciones offshore, ya sea como suministro o para desempeñar un papel más específico como el remolque y posicionamiento de plataformas o artefactos marinos. Se trata de un buque AHTS con un tiro a punto fijo de 250 toneladas, 4.500 toneladas de peso muerto, capacidad de acomodación para 45 personas y propulsión diésel con dos hélices de paso controlable. Cuenta con una capacidad de cubierta de 750 m2, una grúa principal de 100 toneladas y sistema de posicionamiento dinámico DYNPOS-AUTRO.
Resumo:
Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.
Resumo:
Since 1999, Venezuela has experienced a dramatic transformation of its political system with the coming to power of Hugo Chávez and his movement, known in Venezuela as Chavismo. Chávez has dismantled the previous political system and established neo-populist structures that rely on his personal appeal and the close collaboration of the armed forces. Chávez has relied heavily on significant support from the poor and those who felt economically and politically excluded by the “Punto Fijo system.” President Chávez has built an impressive record of electoral victories; winning every electoral contest except one since coming to power in 1999. He continues to receive relatively high levels of support among sectors of Venezuelan society. However, there is evidence of growing discontent with high crime rates, high levels of inflation, and significant corruption in the public administration. Using data from the AmericasBarometer surveys conducted in 2007, 2008 and 2010, this paper seeks to examine the basis of Chávez’s popular support. In general, the AmericasBarometer findings suggest that Venezuelans support for President Chávez is closely linked to the access to social programs and that as long as the government is able to fund these social programs or missions, particularly MERCAL and Barrio Adentro, it will possess an important tool to garner and sustain support for President Chávez. Our analysis, however, also indicates that evaluations of the national economic situation, more than crime or insecurity, are a key factor that could undermine support for the regime.
Resumo:
Programa de doctorado: Métodos matemáticos en las ciencias de la naturaleza
Resumo:
El Parque Nacional El Imposible, ubicado en el extremo sudoeste de El Salvador, en el departamento de Ahuachapán. La investigación de campo comprendió 72 censos durante los meses de marzo a agosto de 2001, para identificar las diferentes especies de aves rapaces diurnas. Para realizar las observaciones se siguió la metodología empleada por el Peregrin Fund en el Parque Nacional Tikal, Guatemala, entre de 1988 a 1992, utilizando dos técnicas básicas: (1) reconocimiento de aves por transectos, y (2) observación desde un punto fijo. Cada técnica fue modificada para las condiciones topográficas del parque y el tiempo que duró la investigación. Se establecieron 12 Rutas en toda el área. Cada una formada por 2 transectos y un punto fijo. Cada transecto y punto fueron marcados en un mapa del área en escala de 1:25,000 para la elaboración de mapas de distribución local de cada especie. Se registraron un total de 24 especies de aves rapaces diurnas, ubicadas en los Ordenes Falconiformes y Ciconiiformes, 16 de la familia Accipitridae, 5 de la Falconidae, y 3 de la Cathartidae. Las especies con mayor abundancia relativa, densidad poblacional y frecuencia de ocurrencia, pertenecen a la familia Cathartidae, en segundo lugar se encuentran los Accipitridae, y finalmente los Falconidae. Las horas en las que se detectaron los individuos de las especies fueron bien variadas, desde antes del amanecer hasta horas crepusculares, sobre todo para las aves residentes. La detección en horas para las especies migratorias es bien específica, ya que la gran mayoría fue registrada por la mañana y solo tres por la tarde (Gavilán pajarero, Gavilán aludo y Halcón cernícalo). El número de las especies, tanto residentes como migratorias, en los meses de marzo a agosto, tiende a disminuir, pudiendo ser ocasionado por la variación en el tiempo atmosférico, los períodos de reproducción, la fluctuación del alimento disponible dentro y fuera del parque, y la migración. Se observó que estas aves dan diferentes usos del Parque Nacional El Imposible, desde ser un área de paso o estacionamiento temporal para las migratorias, hasta constituir rangos de hogar de diferentes especies residentes en el área
Resumo:
Los principales avances metodológicos que aporta la presente tesis son los siguientes: I. El análisis y cuantificación de los ecos generados por los chasquidos de ecolocalización emitidos por los zifios, al reflejarse en el fondo marino y en organismos en la columna de agua, registrados en marcas DTAG. Estos ecos permiten describir de forma simultánea el entorno biofísico que rodea a los zifios, según las capacidades sensoriales de los propios animales, mientras se alimentan, contribuyendo a interpretar de forma única las decisiones de estos depredadores marinos en el contexto de su hábitat. II. El desarrollo de una modificación a los métodos analíticos ¿Distance¿ tradicionales, para estudiar el efecto de la profundidad sobre la distribución de los zifios en El Hierro, a partir de datos de avistamientos realizados desde un punto fijo en tierra. III. El uso de una serie de sistemas autónomos de grabación DMON colocados en boyas de deriva para realizar un muestreo acústico estratificado y estudiar la selección del hábitat de los zifios en El Hierro. Las principales contribuciones científicas que aporta la presente tesis son las siguientes: I. La colocación de 14 marcas acústicas no invasivas DTAG a zifios de Blainville, para el estudio de su comportamiento de buceo, alimentación y comunicación social. El análisis de los registros acústicos muestra lo siguiente: i) Los zifios de Blainville se alimentan en aguas mesopelágicas y bentopelágicas profundas, a distancias de tan solo cinco m del fondo marino. La caza se produce siempre a profundidades mayores de 200 m y principalmente entre 500 y 900 m. La alimentación bentopelágica se da a lo largo de toda la columna de agua (385-1326 m) y predomina a profundidades por debajo de la capa de reflexión profunda. La alimentación mesopelágica se da principalmente en los niveles medios e inferiores de esta capa, coincidiendo con la capa del mínimo de oxígeno, y se adapta solo parcialmente a las migraciones circadianas de ésta. De noche estos zifios comienzan a alimentarse a una profundidad media de 258 m (168-873) y de día a 479 m (276-589). ii) La estrategia de estos zifios parece dirigida a explotar presas profundas distribuidas en estratos verticales estables y posiblemente con una capacidad de movimiento limitada en relación a un depredador que respira aire. Ello les permite mantenerse dedicando tan solo un 18 % de su tiempo en la obtención de alimento, pero por otro lado, requiere de la captura de un gran número de presas por inmersión y por tanto implica realizar inmersiones de larga duración. En ellas estos cetáceos de mediano tamaño corporal desafían sus límites de buceo aeróbico y presumiblemente precisan de largos periodos de recuperación que representan en torno al 64 % del tiempo en su ciclo de buceo. iii) La comunicación mediada por vocalizaciones entre los zifios de Blainville se da exclusivamente a profundidad (> 170 m). Se han identificado dos tipos de sonidos aparentemente destinados a la comunicación social: ¿rasp¿, series rápidas de chasquidos de frecuencia modulada similares a los zumbidos pero con diferentes propiedades acústicas y contexto de emisión; y silbidos tonales cortos y con armónicos, con una frecuencia fundamental media de 12 kHz, que son emitidos a profundidades de hasta 900 m, las mayores registradas en cualquier animal. II. Se realizaron 1789 avistamientos de zifios desde tierra, cuya identificación específica fue confirmada en 859 casos desde una embarcación. La localización de los avistamientos fue utilizada para crear un modelo predictivo de la distribución de los zifios en superficie, en relación a la profundidad del fondo, utilizando un estimador de máxima verosimilitud. Los resultados muestran la preferencia de los zifios por distribuirse entre las cotas batimétricas de 500 y 1500 m, coincidiendo con el talud insular. III. La preferencia de los zifios por distribuirse en la zona del talud fue confirmada mediante un muestreo acústico estratificado. Se registraron 245 h de sonidos con sistemas autónomos de grabación DMON suspendidos a 200 m de profundidad desde boyas a la deriva, localizadas en cotas batimétricas entre 500 y 3000 m. La tasa de detección de chasquidos de zifios fue mayor sobre el talud respecto a la llanura abisal cercana. IV. La coincidencia de los resultados obtenidos con los métodos acústico y visual destaca la importancia del talud insular para la alimentación de los zifios en El Hierro. La consistencia de estos resultados en dos de las tres vertientes de la Isla justificó la extensión del modelo predictivo de distribución de las especies a todo el perímetro de El Hierro, que presenta unas características batimétricas similares, mediante el uso de sistemas de información geográfica. A ello se unió un modelado del alcance espacial de distintas fuentes de posible impacto antrópico, para diseñar con base científica una propuesta de Área Marina Protegida para zifios en El Hierro. El área propuesta se extiende hasta la cota batimétrica de 3000 m en torno a la Isla e incluye una zona de amortiguamiento hasta 50 nmi para fuentes intensas de sonido antrópico.
Resumo:
El presente trabajo se planifico con el propósito de determinar la influencia de las diferencia de nivel del terreno en riego por micro aspersión artesanal fijo por gravedad sobre las variables; diámetro mojado, bulbo húmedo, gasto de agua generado por los micro aspersores y presión generada por cada aspersor bajo las condiciones ecológicas del centro turístico Estelimar. El ensayo se estableció en la época seca de febrero a abril del 2008 utilizando un diseño de bloque completamente al azar bifactorial con cuatro repeticiones. Se encontró que las variables diámetro mojado, bulbo húmedo, gasto de agua en litro/min.y presión tuvieron un efecto significativo con respecto al factor A (altura del terreno). Para el factor A ( altura del terreno) B ( diámetro de botella) y la interacción de ambos los resultados de las variables evaluadas solo para el factor A mostraron diferencias significativas, no así para el factor B y la interacción de ambos factores que mostraron un efecto no significativo
Resumo:
Eterio Pajares, Raquel Merino y José Miguel Santamaría (eds.)
Resumo:
III,455 p.
Resumo:
Las traineras son un tipo de embarcación a remo que se utilizan para competir en regatas. Con el fin de entender la física que impulsa estas embarcaciones, se ha llevado a cabo este proyecto que finaliza con un simulador de trainera. La primera parte del proyecto, la que tiene que ver con este documento, abarca la simulación del remo en sí y el cálculo de las fuerzas o físicas que lo rodeen. Dentro de este documento, comenzaremos con la fuerza ejercida por el remero y lo que conlleva en la rotación local del remo. Para esta rotación hay diferentes variables que se han estudiado y que pueden alterar la velocidad del remo y la fuerza que ejercen al conjunto de la trainera. La razón por la cual se mueve el remo depende de valores introducidos manualmente los cuales se pueden cambiar obteniendo diferentes resultados. Para una visualización rápida e intuitiva de los cálculos se ha utilizado la representación en 3D de la trainera y todos sus componentes. Con este simulador se pueden apreciar detalles en movimiento y en posición de cualquier componente de la trainera.
Resumo:
En estas páginas nos proponemos dos objetivos. El primero es analizar con detalle la metodología de medición de la pobreza de las Encuestas de Pobreza y Desigualdades Sociales (EPDS) que se realiza en la CAPV con el fin de desvelar sus principales carencias y potencialidades en cuanto a la incorporación de la perspectiva de género en el estudio de la pobreza. El segundo es estudiar, entre 1996 y 2004,la evolución de las situaciones de pobreza entre las mujeres y compararla con la evolución de la pobreza entre los hombres. En estos ocho años, el crecimiento económico ha sido muy importante, y ello se ha traducido en una reducción de la incidencia de la pobreza que no se ha dejado notar con la misma intensidad en todos los colectivos. Nos preguntamos si las mujeres, como colectivo que estaba peor situado, han conocido reducciones de las tasas de pobreza inferiores a las generales. Parece que la mejora de la coyuntura económica ha beneficiado a los que comparativamente estaban mejor.