1000 resultados para Control de modelos predictivos
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The aim of this paper was to evaluate the effect of retention and detention reservoirs along with the regulation in channel flow upgrade on flood for an urban watershed located at Rio Claro, SP. For this purpose, modeling and simulation techniques were applied for runoff determination and its propagation in channel. The Soil Conservation Service – SCS hydrologic model as well as Pulz and non-linear Muskingum-Cunge model were used. The software IPHS1 was applied on simulations. The results pointed out that the combination of retention increasing and detention reservoir implementation (120,000 m3, corresponding to 1.5% of the watershed area) with the streamflow upgrade (n decreasing from 0,04 to 0,02) can minimize the flood on the investigated Servidão watershed. Further, after the proposed intervention, the flood was eliminated for the investigated times of recurrence: 5, 20, 50 and 100 years. The prognostic indicated that the available area occupation had a minor effect on flow increasing due to the observed high urbanization.
Resumo:
Dengue is considered one of the most important vector-borne infection, affecting almost half of the world population with 50 to 100 million cases every year. In this paper, we present one of the simplest models that can encapsulate all the important variables related to vector control of dengue fever. The model considers the human population, the adult mosquito population and the population of immature stages, which includes eggs, larvae and pupae. The model also considers the vertical transmission of dengue in the mosquitoes and the seasonal variation in the mosquito population. From this basic model describing the dynamics of dengue infection, we deduce thresholds for avoiding the introduction of the disease and for the elimination of the disease. In particular, we deduce a Basic Reproduction Number for dengue that includes parameters related to the immature stages of the mosquito. By neglecting seasonal variation, we calculate the equilibrium values of the model’s variables. We also present a sensitivity analysis of the impact of four vector-control strategies on the Basic Reproduction Number, on the Force of Infection and on the human prevalence of dengue. Each of the strategies was studied separately from the others. The analysis presented allows us to conclude that of the available vector control strategies, adulticide application is the most effective, followed by the reduction of the exposure to mosquito bites, locating and destroying breeding places and, finally, larvicides. Current vector-control methods are concentrated on mechanical destruction of mosquitoes’ breeding places. Our results suggest that reducing the contact between vector and hosts (biting rates) is as efficient as the logistically difficult but very efficient adult mosquito’s control.
Resumo:
[ES] El proyecto resumido en el presente artículo muestra la necesidad de implantar planes de prevención y actuación frente a incidentes contaminantes en la zona marítima canaria utilizando modelos de predicción y optimización que aseguren el éxito de aplicación de los mismos. Gracias al desarrollo de las nuevas tecnologías y avances científicos, podemos simular en tiempo real cómo evolucionará un vertido de hidrocarburo que se desplace en la zona marítima canaria. De esta manera, se optimizan las decisiones y los recursos, se minimiza el impacto ambiental en las costas canarias y se mitigan los perjuicios a la sociedad y economía canaria
Resumo:
La información básica sobre el relieve de una cuenca hidrográfica, mediante metodologías analítico-descriptivas, permite a quienes evalúan proyectos relacionados con el uso de los recursos naturales, tales como el manejo integrado de cuencas, estudios sobre impacto ambiental, degradación de suelos, deforestación, conservación de los recursos hídricos, entre otros, contar para su análisis con los parámetros físicos necesarios. Estos procesos mencionados tienen un fuerte componente espacial y el empleo de Sistemas de Información Geográfica (SIG) son de suma utilidad, siendo los Modelos Digitales de Elevación (DEM) y sus derivados un componente relevante de esta base de datos. Los productos derivados de estos modelos, como pendiente, orientación o curvatura, resultarán tan precisos como el DEM usado para derivarlos. Por otra parte, es fundamental maximizar la habilidad del modelo para representar las variaciones del terreno; para ello se debe seleccionar una adecuada resolución (grilla) de acuerdo con los datos disponibles para su generación. En este trabajo se evalúa la calidad altimétrica de seis DEMs generados a partir de dos sistemas diferentes de captura de datos fuente y de distintas resoluciones de grilla. Para determinar la exactitud de los DEMs habitualmente se utiliza un grupo de puntos de control considerados como "verdad de campo" que se comparan con los generados por el modelo en la misma posición geográfica. El área seleccionada para realizar el estudio está ubicada en la localidad de Arrecifes, provincia de Buenos Aires (Argentina) y tiene una superficie de aproximadamente 120 ha. Los resultados obtenidos para los dos algoritmos y para los tres tamaños de grilla analizados presentaron los siguientes resultados: el algoritmo DEM from contourn, un RMSE (Root Mean Squared Error) de ± 0,11 m (para grilla de 1 m), ± 0,11 m (para grilla de 5 m) y de ± 0,15 m (para grilla de 10 m). Para el algoritmo DEM from vector/points, un RMSE de ± 0,09 m (para grilla de 1 m), ± 0,11 m (para grilla de 5 m) y de ± 0,11 m (para grilla de 10 m). Los resultados permiten concluir que el DEM generado a partir de puntos acotados del terreno como datos fuente y con el menor tamaño de grilla es el único que satisface los valores enumerados en la bibliografía, tanto nacional como internacional, lo que lo hace apto para proyectos relacionados con recursos naturales a nivel de ecotopo (predial). El resto de los DEMs generados presentan un RMSE que permite asegurar su aptitud para la evaluación de proyectos relacionados con el uso de los recursos naturales a nivel de unidad de paisaje (conjunto de ecotopos).
Resumo:
El objetivo general de este trabajo de investigación será relacionar los modelos de las configuraciones básicas de Henry Mintzberg (1991) con diversos funcionamientos afines a estructuras mentales, y donde generamos las siguientes hipótesis de trabajo: Si la cumbre estratégica está fuera de control, podremos predecir un funcionamiento organizacional histérico. Si la está tecnoestructura está fuera de control, podremos predecir un funcionamiento organizacional obsesivo. Si la línea media está fuera de control, podremos predecir un funcionamiento organizacional depresivo. Si el núcleo operativo está fuera de control, podremos predecir un funcionamiento organizacional paranoide. Si el staff de apoyo está fuera de control, podremos predecir un funcionamiento organizacional esquizoide. La metodología utilizada para esta investigación se basó en el relevamiento de diversas fuentes de información, principalmente de autores que han desarrollado algunos conceptos de psicología organizacional tales como Danny Miller y Ketz de Vries (1984), y han sido incorporados al funcionamiento organizacional de Mintzberg (1991); teorizando fallas paramétricas de diseño que llevasen a “funcionamientos" mentales específicos a los diferentes tipos de configuraciones organizacionales
Resumo:
Se analiza particularmente el modelo FRAD de la IFLA con el fin de aproximar a la comunidad bibliotecaria local a los nuevos modelos que están siendo desarrollados internacionalmente. A partir de este acercamiento, el estudio de las GARR y las ISAAR[CFP], normas utilizadas para la descripción de autoridades en los archivos, y un análisis del entorno de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de la Plata, se define un modelo de base de datos acorde con las necesidades detectadas en el análisis del entorno para la institución mencionada que permitiría controlar los nombres de personas y de entidades corporativas, y se propone también, una aplicación para cargar, visualizar y consultar los datos en un sistema web. Se estima que una aplicación de este tipo beneficiaría la recuperación de información en las distintas bases de datosinstitucionales, colaboraría con la memoria de la organización y con el resguardo de la identidad de las personas que conforman la comunidad académica y que han elegido un nombre para firmar los trabajos que han producido. La aplicación de FRAD ante un entorno concreto con necesidades propias y tangibles comprueba en cierta forma la factibilidad de aplicación de este modelo conceptual para la solución de problemas
Resumo:
Se analiza particularmente el modelo FRAD de la IFLA con el fin de aproximar a la comunidad bibliotecaria local a los nuevos modelos que están siendo desarrollados internacionalmente. A partir de este acercamiento, el estudio de las GARR y las ISAAR[CFP], normas utilizadas para la descripción de autoridades en los archivos, y un análisis del entorno de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de la Plata, se define un modelo de base de datos acorde con las necesidades detectadas en el análisis del entorno para la institución mencionada que permitiría controlar los nombres de personas y de entidades corporativas, y se propone también, una aplicación para cargar, visualizar y consultar los datos en un sistema web. Se estima que una aplicación de este tipo beneficiaría la recuperación de información en las distintas bases de datosinstitucionales, colaboraría con la memoria de la organización y con el resguardo de la identidad de las personas que conforman la comunidad académica y que han elegido un nombre para firmar los trabajos que han producido. La aplicación de FRAD ante un entorno concreto con necesidades propias y tangibles comprueba en cierta forma la factibilidad de aplicación de este modelo conceptual para la solución de problemas
Resumo:
Se analiza particularmente el modelo FRAD de la IFLA con el fin de aproximar a la comunidad bibliotecaria local a los nuevos modelos que están siendo desarrollados internacionalmente. A partir de este acercamiento, el estudio de las GARR y las ISAAR[CFP], normas utilizadas para la descripción de autoridades en los archivos, y un análisis del entorno de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de la Plata, se define un modelo de base de datos acorde con las necesidades detectadas en el análisis del entorno para la institución mencionada que permitiría controlar los nombres de personas y de entidades corporativas, y se propone también, una aplicación para cargar, visualizar y consultar los datos en un sistema web. Se estima que una aplicación de este tipo beneficiaría la recuperación de información en las distintas bases de datosinstitucionales, colaboraría con la memoria de la organización y con el resguardo de la identidad de las personas que conforman la comunidad académica y que han elegido un nombre para firmar los trabajos que han producido. La aplicación de FRAD ante un entorno concreto con necesidades propias y tangibles comprueba en cierta forma la factibilidad de aplicación de este modelo conceptual para la solución de problemas
Resumo:
La fisuración iniciada en la superficie de los pavimentos asfálticos constituye uno de los más frecuentes e importantes modos de deterioro que tienen lugar en los firmes bituminosos, como han demostrado los estudios teóricos y experimentales llevados a cabo en la última década. Sin embargo, este mecanismo de fallo no ha sido considerado por los métodos tradicionales de diseño de estos firmes. El concepto de firmes de larga duración se fundamenta en un adecuado seguimiento del proceso de avance en profundidad de estos deterioros y la intervención en el momento más apropiado para conseguir mantenerlos confinados como fisuras de profundidad parcial en la capa superficial más fácilmente accesible y reparable, de manera que pueda prolongarse la durabilidad y funcionalidad del firme y reducir los costes generalizados de su ciclo de vida. Por lo tanto, para la selección de la estrategia óptima de conservación de los firmes resulta esencial disponer de metodologías que posibiliten la identificación precisa in situ de la fisuración descendente, su seguimiento y control, y que además permitan una determinación fiable y con alto rendimiento de su profundidad y extensión. En esta Tesis Doctoral se presentan los resultados obtenidos mediante la investigación sistemática de laboratorio e in situ llevada a cabo para la obtención de datos sobre fisuración descendente en firmes asfálticos y para el estudio de procedimientos de evaluación de la profundidad de este tipo de fisuras empleando técnicas de ultrasonidos. Dichos resultados han permitido comprobar que la metodología no destructiva propuesta, de rápida ejecución, bajo coste y sencilla implementación (principalmente empleada hasta el momento en estructuras metálicas y de hormigón, debido a las dificultades que introduce la naturaleza viscoelástica de los materiales bituminosos) puede ser aplicada con suficiente fiabilidad y repetibilidad sobre firmes asfálticos. Las medidas resultan asimismo independientes del espesor total del firme. Además, permite resolver algunos de los inconvenientes frecuentes que presentan otros métodos de diagnóstico de las fisuras de pavimentos, tales como la extracción de testigos (sistema destructivo, de alto coste y prolongados tiempos de interrupción del tráfico) o algunas otras técnicas no destructivas como las basadas en medidas de deflexiones o el georradar, las cuales no resultan suficientemente precisas para la investigación de fisuras superficiales. Para ello se han realizado varias campañas de ensayos sobre probetas de laboratorio en las que se han estudiado diferentes condiciones empíricas como, por ejemplo, distintos tipos de mezclas bituminosas en caliente (AC, SMA y PA), espesores de firme y adherencias entre capas, temperaturas, texturas superficiales, materiales de relleno y agua en el interior de las grietas, posición de los sensores y un amplio rango de posibles profundidades de fisura. Los métodos empleados se basan en la realización de varias medidas de velocidad o de tiempo de transmisión del pulso ultrasónico sobre una única cara o superficie accesible del material, de manera que resulte posible obtener un coeficiente de transmisión de la señal (mediciones relativas o autocompensadas). Las mediciones se han realizado a bajas frecuencias de excitación mediante dos equipos de ultrasonidos diferentes dotados, en un caso, de transductores de contacto puntual seco (DPC) y siendo en el otro instrumento de contacto plano a través de un material especialmente seleccionado para el acoplamiento (CPC). Ello ha permitido superar algunos de los tradicionales inconvenientes que presenta el uso de los transductores convencionales y no precisar preparación previa de las superficies. La técnica de autocalibración empleada elimina los errores sistemáticos y la necesidad de una calibración local previa, demostrando el potencial de esta tecnología. Los resultados experimentales han sido comparados con modelos teóricos simplificados que simulan la propagación de las ondas ultrasónicas en estos materiales bituminosos fisurados, los cuales han sido deducidos previamente mediante un planteamiento analítico y han permitido la correcta interpretación de dichos datos empíricos. Posteriormente, estos modelos se han calibrado mediante los resultados de laboratorio, proporcionándose sus expresiones matemáticas generalizadas y gráficas para su uso rutinario en las aplicaciones prácticas. Mediante los ensayos con ultrasonidos efectuados en campañas llevadas a cabo in situ, acompañados de la extracción de testigos del firme, se han podido evaluar los modelos propuestos. El máximo error relativo promedio en la estimación de la profundidad de las fisuras al aplicar dichos modelos no ha superado el 13%, con un nivel de confianza del 95%, en el conjunto de todos los ensayos realizados. La comprobación in situ de los modelos ha permitido establecer los criterios y las necesarias recomendaciones para su utilización sobre firmes en servicio. La experiencia obtenida posibilita la integración de esta metodología entre las técnicas de auscultación para la gestión de su conservación. Abstract Surface-initiated cracking of asphalt pavements constitutes one of the most frequent and important types of distress that occur in flexible bituminous pavements, as clearly has been demonstrated in the technical and experimental studies done over the past decade. However, this failure mechanism has not been taken into consideration for traditional methods of flexible pavement design. The concept of long-lasting pavements is based on adequate monitoring of the depth and extent of these deteriorations and on intervention at the most appropriate moment so as to contain them in the surface layer in the form of easily-accessible and repairable partial-depth topdown cracks, thereby prolonging the durability and serviceability of the pavement and reducing the overall cost of its life cycle. Therefore, to select the optimal maintenance strategy for perpetual pavements, it becomes essential to have access to methodologies that enable precise on-site identification, monitoring and control of top-down propagated cracks and that also permit a reliable, high-performance determination of the extent and depth of cracking. This PhD Thesis presents the results of systematic laboratory and in situ research carried out to obtain information about top-down cracking in asphalt pavements and to study methods of depth evaluation of this type of cracking using ultrasonic techniques. These results have demonstrated that the proposed non-destructive methodology –cost-effective, fast and easy-to-implement– (mainly used to date for concrete and metal structures, due to the difficulties caused by the viscoelastic nature of bituminous materials) can be applied with sufficient reliability and repeatability to asphalt pavements. Measurements are also independent of the asphalt thickness. Furthermore, it resolves some of the common inconveniences presented by other methods used to evaluate pavement cracking, such as core extraction (a destructive and expensive procedure that requires prolonged traffic interruptions) and other non-destructive techniques, such as those based on deflection measurements or ground-penetrating radar, which are not sufficiently precise to measure surface cracks. To obtain these results, extensive tests were performed on laboratory specimens. Different empirical conditions were studied, such as various types of hot bituminous mixtures (AC, SMA and PA), differing thicknesses of asphalt and adhesions between layers, varied temperatures, surface textures, filling materials and water within the crack, different sensor positions, as well as an ample range of possible crack depths. The methods employed in the study are based on a series of measurements of ultrasonic pulse velocities or transmission times over a single accessible side or surface of the material that make it possible to obtain a signal transmission coefficient (relative or auto-calibrated readings). Measurements were taken at low frequencies by two short-pulse ultrasonic devices: one equipped with dry point contact transducers (DPC) and the other with flat contact transducers that require a specially-selected coupling material (CPC). In this way, some of the traditional inconveniences presented by the use of conventional transducers were overcome and a prior preparation of the surfaces was not required. The auto-compensating technique eliminated systematic errors and the need for previous local calibration, demonstrating the potential for this technology. The experimental results have been compared with simplified theoretical models that simulate ultrasonic wave propagation in cracked bituminous materials, which had been previously deduced using an analytical approach and have permitted the correct interpretation of the aforementioned empirical results. These models were subsequently calibrated using the laboratory results, providing generalized mathematical expressions and graphics for routine use in practical applications. Through a series of on-site ultrasound test campaigns, accompanied by asphalt core extraction, it was possible to evaluate the proposed models, with differences between predicted crack depths and those measured in situ lower than 13% (with a confidence level of 95%). Thereby, the criteria and the necessary recommendations for their implementation on in-service asphalt pavements have been established. The experience obtained through this study makes it possible to integrate this methodology into the evaluation techniques for pavement management systems.
Resumo:
Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).
Resumo:
Si se estudian los distintos métodos existentes actualmente para el estudio del comportamiento de los incendios en túneles no parece que se disponga de una solución única y definitiva. Tanto los métodos numéricos como los modelos fisicos a escala tienen sus limitaciones y ventajas. Por tanto, puede decirse que se trata de enfoques complementarios y que deben emplearse todos cuando la importancia de la obra así lo requiera.Desde el punto de vista del proyecto cabe indicar la necesidad de que los cálculos no se limiten al dimensionamiento del sistema de ventilación sino que incluyan pautas de actuación sencillas que puedan ser seguidas de forma refleja por los responsables del Centro de Control en los primeros momentos del incendio ya que ello es clave en el éxito del proceso de evacuación. En este sentido es perentorio el desarrollo de simuladores numéricos que puedan ser utilizados en el entrenamiento y formación de los operadores del Centro de Control.
Resumo:
La construcción de los túneles de El Padrún constituye un hito en la realización de obras subterráneas en España. Su ejecución se ha caracterizado por la utilización de la más reciente tecnología. La aplicación del llamado Nuevo Método Austriaco de Construcción de Túneles (NATM) como base del proyecto se ha llevado a cabo con rigor en todos sus extremos. De acuerdo a esta filosofía, el trabajo de la Asistencia Técnica se ha centrado en una doble línea: el control instrumental sistemático de la obra, y la interpretación de los datos recogidos mediante análisis numérico. El primer objetivo se ha cubierto mediante un ambicioso plan de instrumentación. En él se han incluido medidas para la caracterización del sistema terreno-sostenimiento. La información se ha mantenido centralizada en una base de datos dispuesta a pie de obra. Los datos recogidos de la instrumentación han sido la base de modelos teóricos desarrollados con el objetivo de interpretar la evolución de convergencias e identificar las presiones actuantes sobre el sostenimiento. Por otro lado, en el análisis de estabilidad exterior e interior se han aplicado refinadas técnicas de cálculo numérico (Elementos Finitos, Elementos de Contorno, Teoría de Bloques etc.). Finalmente, se ha desarrollado una aplicación específica de Métodos de Fiabilidad. En ella se aborda, con un planteamiento avanzado, el problema de evaluación de la seguridad de la obra.
Resumo:
En años recientes, se han realizado algunos esfuerzos para equipar a robots submarinos con impulsores vectorizados. Este sistema de propulsión permite el uso de una menor cantidad de impulsores, esto a su vez tiene consecuencias favorables en el volumen y costo del robot a medida que una mayor potencia de propulsión es requerida. El propósito de esta tesis es realizar un estudio sobre el modelado, control y diseño de robots submarinos de estructura paralela con impulsores vectorizados. De esta manera exponer los aspectos más importantes relativos a estos puntos, y proponer soluciones a los problemas que plantea la arquitectura de estos robots. En esta tesis se tomo como objeto de estudio el robot Remo 2, cuya estructura paralela representa una gran parte del volumen del robot y esto hace que su análisis sea el más complejo que se pueda tener en los robots de esta categoría. El diseño de este robot es un concepto radicalmente diferente al de los robots submarinos convencionales. Sus características son prometedoras, pero para poder sacar provecho de estas potencialidades es necesario un entendimiento de la dinámica del robot. En este trabajo se presenta el desarrollo y análisis de modelos analíticos, y el desarrollo de herramientas de simulación para este robot. El propósito de estas herramientas es identificar las oportunidades y restricciones impuestas por la estructura y la dinámica del vehículo. Se presenta el planteamiento (y solución) de los problemas cinemático y dinámico inverso para un robot submarino de estructura paralela. Por otro lado, se demostró por primera vez el funcionamiento del concepto del robot submarino a través de una herramienta de simulación. Haciendo uso de esta herramienta se exploro el desempeño del robot bajo diversos esquemas de control, se encontró que el robot es capaz de ejecutar con éxito diversas maniobras empleando controladores clásicos. Se presento un controlador basado en el modelo del robot y se demostró sus ventajas. Posteriormente se presento un apartado cuyo propósito es exponer aspectos importantes sobre el diseño de este tipo de robots, sobre todo aquellos que influyen en su desempeño cinetostático. Se plantea el problema del diseño óptimo de un robot tipo Remo 2, y se proponen un par de índices de desempeño globales. Otra contribución fue, en condición de coautoría, el diseño y análisis de una nueva estructura paralela la cual no ha sido considerada anteriormente en la literatura.
Resumo:
En los últimos años se observa una creciente demanda de modelos 3D, especialmente orientados al control dimensional dentro de los diferentes campos de la arquitectura o ingeniería, en los que tanto la instrumentación, los métodos de captura (fotogrametría digital y láser escáner), como el tratamiento posterior de la información, requieren de procedimientos y modernas herramientas informáticas acordes con los fines específicos. Los ensayos realizados se encuadran dentro de los métodos de homologación cinegética, que son en definitiva los distintos sistemas de medición y puntuación de las diferentes especies de caza mayor. En este estudio se ha seleccionado un trofeo de gamo para la realización de los diferentes tratamientos, análisis y modelización. En la actualidad los organismos competentes en esta materia emplean, para realizar estos trabajos, mediciones directas y baremos específicos, principalmente con instrumentación analógica.