25 resultados para CONTROL DE DROGAS Y NARCÓTICOS - PERÚ

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al abordar aspectos de calidad superficial en hormigones vistos nos encontramos con la carencia de clasificación de calidades de superficies que se puedan utilizar como referencia, lo que obliga a establecer patrones propios. Una vez identificados los defectos que van a discriminar entre categorías se plantea el problema de la cuantificación de defectos. Es necesario además establecer si existe relación entre el cumplimiento de las especificaciones de autocompactabilidad y las calidades obtenidas, actividad que se contrastó mediante el control de recepción de hormigón en obra y la tipificación de calidades obtenidas, en una promoción de viviendas. Recientemente la fib (Aesthetics in concrete) y ACHE (hormigón visto) han creado dos grupos de trabajo en esta temática.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se han estudiado los efectos de la aplicación de Rimadyl® (carprofeno 50 mg/ml) sobre la concentración de cortisol, temperatura rectal, frecuencia respiratoria, frecuencia cardiaca y motilidad ruminal, con el objetivo evaluar su eficacia en el control del dolor y la recuperación postquirúrgica, al aplicarlo antes de la cirugía por dislocación abomasal. Se seleccionaron 24 vacas de características similares que iban a someterse a cirugía por dislocación abomasal y se asignaron al azar a uno de los dos tratamientos experimentales: Rimadyl® o suero salino fisiológico. La aplicación de Rimadyl® disminuye (P=0,006) la concentración plasmática de cortisol (11,3 ng/mL vs 22,13 ng/mL). Con el tiempo se reducen (P=0,024) los niveles de cortisol plasmático. Esta reducción es más acusada (P=0,0003) con Rimadyl® a las 6 horas de su aplicación. La producción de leche postcirugía fue mayor en los animales que recibieron Rimadyl® en comparación con los que se les aplicó suero salino fisiológico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este proyecto de final de carrera se detalla el proceso de diseño, fabricación, montaje y ajuste de un dispositivo electrónico que sirva como sistema de control de tracción de un vehículo y que acoplaremos sobre un monoplaza de carreras que participa en la competición Formula SAE. La Formula SAE (Society of Automotive Engineers - Sociedad de Ingenieros de Automoción), es una competición de coches de carreras monoplaza a nivel universitario que promueve el desarrollo de la ingeniera aplicada a la automoción. Se pretende que este libro sirva de guía para el correcto manejo y desempeño del sistema fabricado. Además se ha pretendido que su lectura resulte fácil y comprensible para que la persona que lea este libro sea capaz de entender el sistema realizado para así poderlo mejorar. Gracias a la colaboración entre la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación (ETSIST) de la Universidad Politécnica de Madrid (UPM), la Escuela de Ingenieros Industriales de esta misma Universidad (ETSII) y el Instituto Universitario de Investigación del Automóvil (INSIA), se sientan las bases de una plataforma docente en la cual se posibilita la formación y desarrollo de un vehículo tipo formula que participa en la ya mencionada competición Formula SAE. Para ello, se formo en el 2003 el equipo UPMRacing, primer representante español en el evento. El equipo se compone de más de 50 alumnos de la UPM y del Máster de Ingeniería en Automoción del INSIA. Es por tanto, en el vehículo fabricado por el equipo UPMRacing, en el que se pretende instalar este sistema de control de tracción. El control de tracción es un sistema de seguridad del automóvil diseñado para prevenir la perdida de adherencia cuando alguna rueda presenta deslizamiento, bien porque el conductor se excede en la aceleración o bien porque el firme este resbaladizo. La unidad de procesamiento del sistema de control de tracción fabricado lee la velocidad de cada rueda del vehículo mediante unos sensores y determina si existe deslizamiento, en tal caso, manda una señal a la centralita para disminuir la potencia hasta que el deslizamiento disminuya a unos valores controlados. El sistema cuenta con un control remoto que sirve como interfaz para que el piloto pueda manejarlo. Por ultimo, el dispositivo es capaz de conectarse a un bus de comunicaciones CAN para configurar ciertos parámetros. El objetivo del sistema es, básicamente, hacer que el coche no derrape en aceleraciones fuertes; concretamente en las salidas desde parado y al tomar una curva, aumentando así la velocidad en circuito y la seguridad del piloto. ABSTRACT. The purpose of this project is to describe the design, manufacture, assembly and adjustment processes of an electronic device acting as the traction control system (TCS) of a vehicle, that we will attach to a single-seater competition formula SAE car. The Formula SAE (Society of Automotive Engineers) is a graduate-level singleseater racing car competition promoting the development of automotive applied engineering. We also intend this work to serve as a technical user guide of the manufactured system. It is drafted clearly and concisely so that it will be easy for all those to whom it is addressed to understand and subject to further improvements. The close partnership among the Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación (ETSIST), Escuela de Ingenieros Industriales (ETSII) of Universidad Politécnica de Madrid (UPM), and the Instituto Universitario de Investigación del Automóvil (INSIA), lays the foundation of a teaching platform enabling the training and development of a single-seater racing car taking part in the already mentioned Formula SAE competition. In this respect, UPMRacing team was created back in 2003, first spanish representative in this event. The team consists of more than 50 students of the UPM and of INSIA Master in Automotive Engineering. It is precisely the vehicle manufactured by UPMRacing team where we intend to install our TCS. TCS is an automotive safety system designed to prevent loss of traction when one wheel has slip, either because the driver exceeds the acceleration or because the firm is slippery. The device’s central processing unit is able to detect the speed of each wheel of the vehicle via special sensors and to determine wheel slip. If this is the case, the system sends a signal to the ECU of the vehicle to reduce the power until the slip is also diminished to controlled values. The device has a remote control that serves as an interface for the pilot to handle it. Lastly, the device is able to connect to a communication bus system CAN to set up certain parameters. The system objective is to prevent skidding under strong acceleration conditions: standing-start from the starting grid or driving into a curve, increasing the speed in circuit and pilot’s safety.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis presenta el diseño conceptual, el análisis y la planificación de movimientos de un robot de asistencia domestica. El objetivo de este robot es ayudar a personas con problemas de movilidad, las cuales les impiden tener una vida independiente. Se realiza una investigación para identificar las principales necesidades de ayuda técnica y una revisión del estado del arte de robots de asistencia y rehabilitación. Esta información es empleada durante el proceso del diseño conceptual para establecer los objetivos del diseño identificar y las soluciones previamente propuestas. Posteriormente, se presenta la propuesta de un robot asistente para la marcha y el levantado de la posición de sentado, cuyo diseño permite al usuario realizar sus actividades de la vida diaria. Para evaluar diversos aspectos del concepto se desarrollo un prototipo a escala. Este prototipo fue útil para establecer la arquitectura de control del robot y probar el principio de funcionamiento de diversos elementos del concepto. Se propone la manera de controlar la ejecución de tareas y de navegación del robot, se simula y se analiza a través de las redes de Petri, se implementa y se prueba en el prototipo a escala. Se desarrollo el modelado dinámico y cinemático del robot. Se propone una relación entre la cinemática del movimiento de levantado normal de una persona y la cinemática del robot para generar las trayectorias a ejecutar por los actuadores. Mediante una herramienta de simulación se realizo un estudio de las fuerzas internas que se llevan a cabo en el usuario y en el robot durante la tarea de levantado. En este punto, se analizo la capacidad del robot para minimizar la fuerza que se ejerce en las articulaciones en la persona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Como apoyo al Subsistema ECM tradicional de los sistemas de Guerra Electrónica, surge el Equipo de Seguimiento en Elevación cuyo fin es la búsqueda de la amenaza en elevación. Ante la necesidad de un mayor número de líneas entre los bloques internos de este Equipo de Seguimiento, se hace necesario el diseño de una Tarjeta de Interfaz y Control. La tarjeta se ocupará de realizar el control de datos y flujo de señales de módulos RF que componen el Equipo, haciendo de interfaz entre las Tarjetas Procesadoras y Digitalizadoras, así como entre la Tarjeta de Proceso y el Bloque de Recepción. Una vez que se haya realizado el análisis de la necesidad de controlar estas señales, estudiado las especificaciones y los requisitos funcionales del Sistema, se procederá a implementar el diseño hardware y desarrollo firmware de la Tarjeta de Interfaz y Control de un Equipo de Seguimiento en Elevación para un Subsistema ECM, que constituye el objetivo de este PFC. ABSTRACT. In order to find a threat on elevation, and as a support on the basic ECM subsystems of E-war systems, the Elevation Tracking Equipment appears. To the need of a bigger number of lines between inside blocks of this Tracking Equipment, the design of an Interface and Control Board is needed. This board will deal with the data control and with the flow of RF modules signals that set up the Equipment, and will also work as an interface between the Processing and Digitalizing Board, as well as between the Process Board and the Reception Block. Once the signal control necessity analysis has been made, and once the specifications and functional System requirements have been studied, the hardware design and the firmware development will be ran as a target of PFC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El papel de la tecnología en las organizaciones es mucho más relevante, lo que en su momento era innovación, hoy por hoy es un soporte a varias funciones del negocio y la automatización de procedimientos vitales para el alcance de la misión de la organización. Esto se debe a que la tecnología ha transformado y sigue transformando los procesos de negocio que soportan los servicios y ayudan a conseguir los objetivos y la misión de la organización. Un activo tecnológico cada vez más importante para el buen funcionamiento de las organizaciones es el software. Dada la complejidad de los procesos en los que interviene, cada vez su importancia es más crítica y los defectos en su fabricación son el objetivo fundamental de los delincuentes y uno de los mayores riesgos para las organizaciones. Hay que considerar que no todas las organizaciones construyen o diseñan software, algunas veces lo hace un tercero, lo adquieren a otra organización, o puede ser contratado como SaaS. Pero durante el proceso de construcción, adquisición o contrato ¿Se han tenido en cuenta las amenazas y nuevos ambientes de riesgos a los que se expone la organización? ¿Se ha considerado la relación entre el software y los servicios de alto valor de la organización? ¿Existen planes de seguridad y continuidad sobre los servicios? Tendremos que establecer estrategias de Protección y Sostenimiento que garanticen que el software tendrá la máxima disponibilidad posible para funcionar posteriormente a un evento de interrupción o estrés –así sea en condiciones degradadas– evitando paradas en los servicios, lo que llamamos resiliencia operacional. Esto será una estrategia desde la dirección hasta la operación, asegurando que durante todo el ciclo de vida del software y durante su administración se sigan los procedimientos, planes, metodologías y técnicas necesarias que aseguren que el software es resiliente y que cumple con los requisitos de resiliencia a nivel operacional. Esta guía busca orientar a la alta gerencia, a los mandos medios y a nivel profesional en las prácticas que implican asegurar la resiliencia operacional del software y la resiliencia del software como tal, y está basada en marcos metodológicos y de control, estándares, modelos y mejores prácticas actuales que soportan los procesos que implica la consideración de la resiliencia operacional sobre el software. Del mismo modo se considerarán los tipos de software y las prácticas a implantar para cada uno de ellos, orientado al proceso que implica y a las responsabilidades que demandan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las actividades submarinas requieren de las herramientas necesarias para lograr una provechosa tarea, ya sea en el ámbito industrial, militar o de investigación científica. La tendencia actual para este tipo de actividades, es el uso de Robots Submarinos en diversidad de tareas. En este documento se presenta un breve análisis de los mismos, empezando con su desarrollo, los avances logrados hasta el momento y la tecnología que los envuelve ya sea en posicionamiento X-Y, control, comunicación, diseño y sensores; más adelante se hablará de las actividades y ejemplos de aplicaciones actuales en las que se utilizan robots submarinos, mencionando especialmente los denominados ROVs y sus principales características, así como su forma de operar. En la parte final se aborda el tema del futuro y las perspectivas de la investigación en esta área como por ejemplo el desarrollo en la autonomía y sistemas de comunicación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La escasez del agua en las regiones áridas y semiáridas se debe a la escasez de precipitaciones y la distribución desigual en toda la temporada, lo que hace de la agricultura de secano una empresa precaria. Un enfoque para mejorar y estabilizar el agua disponible para la producción de cultivos en estas regiones es el uso de tecnologías de captación de agua de lluvia in situ y su conservación. La adopción de los sistemas de conservación de la humedad del suelo in situ, tales como la labranza de conservación, es una de las estrategias para mejorar la gestión de la agricultura en zonas áridas y semiáridas. El objetivo general de esta tesis ha sido desarrollar una metodología de aplicación de labranza de depósito e investigar los efectos a corto plazo sobre las propiedades físicas del suelo de las diferentes prácticas de cultivo que incluyen labranza de depósito: (reservoir tillage, RT), la laboreo mínimo: (minimum tillage, MT), la no laboreo: (zero tillage, ZT) y laboreo convencional: (conventional tillage, CT) Así como, la retención de agua del suelo y el control de la erosión del suelo en las zonas áridas y semiáridas. Como una primera aproximación, se ha realizado una revisión profunda del estado de la técnica, después de la cual, se encontró que la labranza de depósito es un sistema eficaz de cosecha del agua de lluvia y conservación del suelo, pero que no ha sido evaluada científicamente tanto como otros sistemas de labranza. Los trabajos experimentales cubrieron tres condiciones diferentes: experimentos en laboratorio, experimentos de campo en una región árida, y experimentos de campo en una región semiárida. Para investigar y cuantificar el almacenamiento de agua a temperatura ambiente y la forma en que podría adaptarse para mejorar la infiltración del agua de lluvia recolectada y reducir la erosión del suelo, se ha desarrollado un simulador de lluvia a escala de laboratorio. Las características de las lluvias, entre ellas la intensidad de las precipitaciones, la uniformidad espacial y tamaño de la gota de lluvia, confirmaron que las condiciones naturales de precipitación son simuladas con suficiente precisión. El simulador fue controlado automáticamente mediante una válvula de solenoide y tres boquillas de presión que se usaron para rociar agua correspondiente a diferentes intensidades de lluvia. Con el fin de evaluar el método de RT bajo diferentes pendientes de superficie, se utilizaron diferentes dispositivos de pala de suelo para sacar un volumen idéntico para hacer depresiones. Estas depresiones se compararon con una superficie de suelo control sin depresión, y los resultados mostraron que la RT fue capaz de reducir la erosión del suelo y la escorrentía superficial y aumentar significativamente la infiltración. Luego, basándonos en estos resultados, y después de identificar la forma adecuada de las depresiones, se ha diseñado una herramienta combinada (sistema integrado de labranza de depósito (RT)) compuesto por un arado de una sola línea de chisel, una sola línea de grada en diente de pico, sembradora modificada, y rodillo de púas. El equipo fue construido y se utiliza para comparación con MT y CT en un ambiente árido en Egipto. El estudio se realizó para evaluar el impacto de diferentes prácticas de labranza y sus parámetros de funcionamiento a diferentes profundidades de labranza y con distintas velocidades de avance sobre las propiedades físicas del suelo, así como, la pérdida de suelo, régimen de humedad, la eficiencia de recolección de agua, y la productividad de trigo de invierno. Los resultados indicaron que la RT aumentó drásticamente la infiltración, produciendo una tasa que era 47.51% más alta que MT y 64.56% mayor que la CT. Además, los resultados mostraron que los valores más bajos de la escorrentía y pérdidas de suelos 4.91 mm y 0.65 t ha-1, respectivamente, se registraron en la RT, mientras que los valores más altos, 11.36 mm y 1.66 t ha-1, respectivamente, se produjeron en el marco del CT. Además, otros dos experimentos de campo se llevaron a cabo en ambiente semiárido en Madrid con la cebada y el maíz como los principales cultivos. También ha sido estudiado el potencial de la tecnología inalámbrica de sensores para monitorizar el potencial de agua del suelo. Para el experimento en el que se cultivaba la cebada en secano, se realizaron dos prácticas de labranza (RT y MT). Los resultados mostraron que el potencial del agua del suelo aumentó de forma constante y fue consistentemente mayor en MT. Además, con independencia de todo el período de observación, RT redujo el potencial hídrico del suelo en un 43.6, 5.7 y 82.3% respectivamente en comparación con el MT a profundidades de suelo (10, 20 y 30 cm, respectivamente). También se observaron diferencias claras en los componentes del rendimiento de los cultivos y de rendimiento entre los dos sistemas de labranza, el rendimiento de grano (hasta 14%) y la producción de biomasa (hasta 8.8%) se incrementaron en RT. En el experimento donde se cultivó el maíz en regadío, se realizaron cuatro prácticas de labranza (RT, MT, ZT y CT). Los resultados revelaron que ZT y RT tenían el potencial de agua y temperatura del suelo más bajas. En comparación con el tratamiento con CT, ZT y RT disminuyó el potencial hídrico del suelo en un 72 y 23%, respectivamente, a la profundidad del suelo de 40 cm, y provocó la disminución de la temperatura del suelo en 1.1 y un 0.8 0C respectivamente, en la profundidad del suelo de 5 cm y, por otro lado, el ZT tenía la densidad aparente del suelo y resistencia a la penetración más altas, la cual retrasó el crecimiento del maíz y disminuyó el rendimiento de grano que fue del 15.4% menor que el tratamiento con CT. RT aumenta el rendimiento de grano de maíz cerca de 12.8% en comparación con la ZT. Por otra parte, no hubo diferencias significativas entre (RT, MT y CT) sobre el rendimiento del maíz. En resumen, según los resultados de estos experimentos, se puede decir que mediante el uso de la labranza de depósito, consistente en realizar depresiones después de la siembra, las superficies internas de estas depresiones se consolidan de tal manera que el agua se mantiene para filtrarse en el suelo y por lo tanto dan tiempo para aportar humedad a la zona de enraizamiento de las plantas durante un período prolongado de tiempo. La labranza del depósito podría ser utilizada como un método alternativo en regiones áridas y semiáridas dado que retiene la humedad in situ, a través de estructuras que reducen la escorrentía y por lo tanto puede resultar en la mejora de rendimiento de los cultivos. ABSTRACT Water shortage in arid and semi-arid regions stems from low rainfall and uneven distribution throughout the season, which makes rainfed agriculture a precarious enterprise. One approach to enhance and stabilize the water available for crop production in these regions is to use in-situ rainwater harvesting and conservation technologies. Adoption of in-situ soil moisture conservation systems, such as conservation tillage, is one of the strategies for upgrading agriculture management in arid and semi-arid environments. The general aim of this thesis is to develop a methodology to apply reservoir tillage to investigate the short-term effects of different tillage practices including reservoir tillage (RT), minimum tillage (MT), zero tillage (ZT), and conventional tillage (CT) on soil physical properties, as well as, soil water retention, and soil erosion control in arid and semi-arid areas. As a first approach, a review of the state of the art has been done. We found that reservoir tillage is an effective system of harvesting rainwater and conserving soil, but it has not been scientifically evaluated like other tillage systems. Experimental works covered three different conditions: laboratory experiments, field experiments in an arid region, and field experiments in a semi-arid region. To investigate and quantify water storage from RT and how it could be adapted to improve infiltration of harvested rainwater and reduce soil erosion, a laboratory-scale rainfall simulator was developed. Rainfall characteristics, including rainfall intensity, spatial uniformity and raindrop size, confirm that natural rainfall conditions are simulated with sufficient accuracy. The simulator was auto-controlled by a solenoid valve and three pressure nozzles were used to spray water corresponding to different rainfall intensities. In order to assess the RT method under different surface slopes, different soil scooping devices with identical volume were used to create depressions. The performance of the soil with these depressions was compared to a control soil surface (with no depression). Results show that RT was able to reduce soil erosion and surface runoff and significantly increase infiltration. Then, based on these results and after selecting the proper shape of depressions, a combination implement integrated reservoir tillage system (integrated RT) comprised of a single-row chisel plow, single-row spike tooth harrow, modified seeder, and spiked roller was developed and used to compared to MT and CT in an arid environment in Egypt. The field experiments were conducted to evaluate the impact of different tillage practices and their operating parameters at different tillage depths and different forward speeds on the soil physical properties, as well as on runoff, soil losses, moisture regime, water harvesting efficiency, and winter wheat productivity. Results indicated that the integrated RT drastically increased infiltration, producing a rate that was 47.51% higher than MT and 64.56% higher than CT. In addition, results showed that the lowest values of runoff and soil losses, 4.91 mm and 0.65 t ha-1 respectively, were recorded under the integrated RT, while the highest values, 11.36 mm and 1.66 t ha -1 respectively, occurred under the CT. In addition, two field experiments were carried out in semi-arid environment in Madrid with barley and maize as the main crops. For the rainfed barley experiment, two tillage practices (RT, and MT) were performed. Results showed that soil water potential increased quite steadily and were consistently greater in MT and, irrespective of the entire observation period, RT decreased soil water potential by 43.6, 5.7, and 82.3% compared to MT at soil depths (10, 20, and 30 cm, respectively). In addition, clear differences in crop yield and yield components were observed between the two tillage systems, grain yield (up to 14%) and biomass yield (up to 8.8%) were increased by RT. For the irrigated maize experiment, four tillage practices (RT, MT, ZT, and CT) were performed. Results showed that ZT and RT had the lowest soil water potential and soil temperature. Compared to CT treatment, ZT and RT decreased soil water potential by 72 and 23% respectively, at soil depth of 40 cm, and decreased soil temperature by 1.1 and 0.8 0C respectively, at soil depth of 5 cm. Also, ZT had the highest soil bulk density and penetration resistance, which delayed the maize growth and decreased the grain yield that was 15.4% lower than CT treatment. RT increased maize grain yield about 12.8% compared to ZT. On the other hand, no significant differences among (RT, MT, and CT) on maize yield were found. In summary, according to the results from these experiments using reservoir tillage to make depressions after seeding, these depression’s internal surfaces are consolidated in such a way that the water is held to percolate into the soil and thus allowing time to offer moisture to the plant rooting zone over an extended period of time. Reservoir tillage could be used as an alternative method in arid and semi-arid regions and it retains moisture in-situ, through structures that reduce runoff and thus can result in improved crop yields.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto tiene por objeto desarrollar una sistemática de control metrológico para vigilar la exactitud de los medidores volumétricos de desplazamiento positivo que operan en las compañías logísticas de hidrocarburos para la transferencia de custodia que están en el cargadero y se ensayan in situ para obtener su meter factor. El punto de partida son las hojas primarias de las calibraciones generadas frente a sus patrones y el prover que nos facilitan las compañías. Dado el elevado número de ensayos y debido a que estos medidores no tienen gráficos de control estables, el enfoque del tratamiento ha sido un etiquetado para realizar un control de inestabilidad y calidad de los ensayos y así, determinar equipos anómalos. Para la búsqueda de equipos atípicos se ha desarrollado el filtro de Tukey para el estudio de la estadística descriptiva de los valores del meter factor. Entre los dos métodos se han obtenido una clasificación de equipos vigilables, recalibrables y sustituibles para facilitar a las compañías logísticas. ABSTRACT The aim of this project is to develop a systematic metrological control to monitor the accuracy of the positive displacement flow meters operating in oil logistics companies for custody transfer which are in the loading track facilities and it are tested in-situ to obtain the meter factor. Due to the high number of assays that meters don´t have stable graphics of control, the approach of data processing has been a labeled to perform an instability and quality control of assays for establish anomalous meters. To find outliers meters is developed the filter of Turkey to study the descriptive statistics of meter factor values. Between both analytical methods is obtained a classification of controllable, recalibrables and replaceable meters to provide to the logistic company.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La actividad de muchas empresas, y en concreto las de software, está basada en proyectos. Típicamente, estas empresas tendrán un modelo de negocio orientado a productos para un mercado abierto, o un modelo de negocio orientado a consultoría para otras empresas. La empresa LeadClic Solutions se incluye en el segundo grupo. Se trata de una consultoría especializada en una tecnología emergente, Salesforce, cuya labor consiste en el desarrollo de aplicaciones cloud en esta plataforma que satisfagan las necesidades de sus clientes, desde empresas relativamente pequeñas hasta grandes empresas internacionales. Ante esta variedad de realidades, LeadClic necesita una herramienta versátil que permita una gestión eficaz de proyectos de distinta índole, integrando al mismo tiempo gestión de clientes, planificación, control de tiempo y costes, seguimiento, y gestión de recursos humanos. En la actualidad, la empresa basa esta gestión en un gran elenco de programas especializados, desatacando hojas de cálculo, herramientas de gestión de proyectos en diversos programas locales o en la nube, correo electrónico, servicios de comunicación y desarrollos personalizados en Salesforce. El objetivo de este Trabajo Fin de Grado es el diseño, implementación y validación de una herramienta en la nube, sobre la plataforma Salesforce, que integre las soluciones a todas las necesidades de la empresa. ---ABSTRACT---Many companies’ activity, in particular software companies’, is based on projects. Typically, these companies have a product for open market - oriented business model, or a B2B consultancy business model. The company LeadClic Solutions is included in the second group. It is a small consultancy, specialized in an emergent technology, Salesforce, that develops cloud applications in that platform to satisfy its clients’ needs, from small companies to big international ones. Faced with this variety of situations, LeadClic needs a versatile tool able to cope with an effective management of projects of different types, integrating at once client management, planning, time and costs control, monitoring, and human resources management. At the moment, the company bases this management on a wide range of specialized programs, such as spreadsheets, local and cloud based project management tools, emailing, communication services and Salesforce based custom developments. This Final Degree Project seeks to design, implement and validate a cloud based tool, on the Salesforce platform, to integrate the solution to all of the company’s needs into one single application.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Asamblea General de la ONU, a solicitud del gobierno peruano, declara en el año 2008 el Año Internacional de la Papa, (AIP). Desde el año 2005, el gobierno peruano ha puesto en marcha estrategias en torno a la importancia de la papa, como la declaración del 30 de Mayo como el Día Nacional de la Papa. El año 2014 es declarado por la FAO, (Food and Agriculture Organization of the United Nations), Año Internacional de la Agricultura Familiar, con un enfoque compartido por esta Tesis Doctoral en el apoyo a la familia campesina peruana. El gobierno peruano utiliza las cadenas de valor como una estrategia de promoción de desarrollo sostenible, que ha permitido contribuir a la inclusión social y económica de productores pobres de zonas alto andinas, como las localizadas en la mancomunidad municipal del Yacus, (MMY), provincia de Jauja, departamento de Junín. Esta estrategia, en la que el mercado incorpora a los pequeños agricultores de las zonas altas de los Andes, (que disponen de recursos económicos muy bajos), en procesos productivos rentables, implica una serie de cambios a realizar, como la transformación de los patrones de producción tradicional hacia aquellos productos o servicios que tienen demanda en el mercado, o la variación de la mentalidad del agricultor pequeño hacia una concepción empresarial de su producción. (Fabián, 2013). Por otra parte, la sostenibilidad de las cadenas de valor depende del eslabón más débil, lo que obliga a conocer la situación de todos los eslabones para poder integrar y reforzar la cadena. Se requiere un sistema de transparencia adecuado que facilite el flujo de la información entre los distintos eslabones. (Briz et al., 2012). Además, el establecimiento de la cadena de valor debe hacerse con cuidado, ya que la eficacia y supervivencia de las empresas están cada vez más ligadas a la cadena de valor a la que pertenece y a la coordinación de la misma. (Briz, 2011). En esta situación, adquiere importancia el estudio de la cadena de valor de la papa nativa, para una vez establecidas sus características, poder determinar la viabilidad o no de una cadena de valor de este producto que repercuta parte de la riqueza generada en los pequeños agricultores alto andinos, e incluso, de su extensión hasta España. Existen estudios sobre las papas nativas, realizadas por diferentes universidades de distintos países, e incluso, de diferentes continentes. Sin embargo, la mayoría de los estudios se centran en la mejora de la producción de la papa nativa. La novedad de la investigación realizada en la presente Tesis Doctoral radica en el estudio de la viabilidad de la comercialización de la papa nativa, mediante el establecimiento de una cadena de valor que se inicie en la provincia de Jauja, Perú, y finalice tanto en los mercados peruanos de las regiones de Junín y Lima, como en España. El objetivo planteado en esta investigación es la mejora de las condiciones económicas y sociales de las comunidades agrícolas de la provincia de Jauja en el Perú, así como fomentar su desarrollo tecnológico e industrial, mediante el fomento de la cadena de valor de la papa nativa y sus derivados. Se establecen como objetivos específicos la caracterización de los eslabones de la cadena de valor de la papa nativa y sus derivados en la provincia de Jauja del Perú y en España, de manera que se determine el valor agregado en los mismos; el fortalecimiento de las organizaciones de productores de papas nativas para la comercialización de sus producciones y para el fomento de la cultura empresarial; y el desarrollo de una cadena de comercialización papas nativas y sus derivados con origen en la Provincia de Jauja, Perú, y que finalice en España, con la venta al consumidor español. Para alcanzar estos objetivos la metodología utilizada es la cadena de valor agroalimentaria, utilizando como herramientas de análisis el análisis DAFO de la cadena de valor de la papa nativa. Las fuentes de información primarias utilizadas proceden en parte del proyecto de cooperación de UPM, “Mejora de la cadena de valor de la patata andina como impulso al desarrollo rural. Caso de tres Comunidades Campesinas en la Provincia de Jauja del Perú”, en el que participó el doctorando, y en parte proceden de la batería de encuestas específicamente diseñadas para los diferentes eslabones de la cadena de valor de la papa nativa. Las fuentes de información secundarias proceden de artículos académicos publicados, de artículos publicados por revistas especializadas del sector y de informes realizados por diferentes instituciones gubernamentales, tanto españolas como peruanas. Las conclusiones de la investigación son las siguientes. La creación de la mancomunidad del Yacus ha beneficiado a los pequeños agricultores. Estos consiguen mejores condiciones de venta y mejores precios para sus productos, lo que repercute en la mejora de sus condiciones de vida. Estas mejoras en las condiciones de venta de los productos se deben a su pertenencia a una cadena de valor de papa nativa que está funcionando de forma eficaz. Las empresas consideradas para constituir la cadena de valor han mostrado interés por formar parte de ella: los campesinos para obtener mejores precios por sus productos y unas mejores condiciones de venta; los distribuidores para asegurarse una calidad determinada de unas variedades fijas de papa nativa; la industria transformadora por disponer de un suministro de producto adecuado al derivado de papa nativa correspondiente, (hojuelas, tunta, etc.); las empresas exportadoras para tener suministro garantizado de los productos que ellos requieren en los volúmenes adecuados. Es una situación ventajosa para todas las empresas participantes. A pesar de trabajar con un producto tradicional, la cadena de valor de la papa nativa presenta innovación en los productos comercializados, tanto en la papa nativa fresca como en sus derivados, en los formatos de los productos, en la red de distribución, en las instituciones peruanas y en el consumidor final. Se percibe una demanda de papa nativa y de sus productos derivados en aquellos países donde existen comunidades de latinoamericanos que han emigrado de sus países de origen. España está entre los países que han acogido a un importante número de personas de origen latinoamericano. A pesar de la fuerte crisis económica sufrida por España, que ha llevado consigo la vuelta a sus países de origen de parte de su comunidad latinoamericana, el tamaño de esta población sigue siendo importante. Esta población demanda productos originarios de sus propios países, y los consumirían de forma frecuente si los precios son adecuados a su capacidad de consumo. El precio de venta de la papa nativa y sus derivados en España es de gran importancia. La importación de estos productos desde Perú hace que este eleve a niveles que le resta competitividad, en especial en la papa fresca. Se aconseja la búsqueda de empresas que puedan adaptar la producción de la papa fresca de forma local, y mantener para los derivados la exportación directa a España. Las preferencias de los consumidores peruanos y españoles en cuanto a formatos y marcas se refieren no son coincidentes. De las encuestas realizadas, se concluye que no puede seguirse la misma estrategia de marketing en ambos países, debiéndose diferenciar los formatos de los paquetes de la papa nativa y de sus derivados en España y en Perú, para así lograr llegar a los consumidores potenciales de ambos países. ABSTRACT At the request of the Peruvian government, the UN General Assembly declared the International Year of the Potato in 2008. Since 2005, the Peruvian government has implemented strategies around the importance of the potato, as the declaration of the 30th of May as the National Day of the Potato. FAO (Food and Agriculture Organization of the United Nations) has declared 2014 as the International Year of Family Farming, with an approach shared by this Ph.D. dissertation about the Peruvian peasant family. The Peruvian government uses value chains as a strategy to promote sustainable development, which has allowed to contribute to the social and economic inclusion of poor farmers in the high Andean regions as those located in the municipal commonwealth of Yacus (MMY) province of Jauja, department of Junín. This strategy, which incorporates small farmers in the high Andean regions, (who have very low income), to the market with profitable production processes, implies a number of changes that should take place, such as changing patterns of traditional production to those products or services that are in demand in the market, or changes in the mentality of the small farmer into a concept of production business. (Fabián, 2013). Moreover, the sustainability of value chains depends on the weakest link, which demands a knowledge of the status of all the links, in order to integrate and strengthen the chain. It is required an adequate transparency to facilitate the flow of information between the various actors. (Briz et al., 2012). Furthermore, the establishment of the value chain should be done carefully, since the effectiveness and the survival of the businesses are increasingly linked to the value chain where the firm is included and to its coordination. (Briz, 2011). In this situation, it becomes important to study the value chain of the native potato, once we establish its features, to be able to determine the feasibility or not of a value chain of this product, which has an impact of the generated wealth in small farms of the high Andean regions, and even the extension of this value chain to Spain. There are studies on native potatoes, made by different universities in several countries and even in more than one continent. However, most studies focus on improving the production of native potato. The originality of the research conducted in this Ph.D. dissertation is the study of the feasibility of commercialization of native potato, by the creation of a value chain that starts in the province of Jauja, Perú, and ends both in Peruvian markets in the region of Lima, and in Spain. The main goal of this research is to improve the economic and social conditions of farming communities in the province of Jauja in Perú, while promoting its technological and industrial development, by the establishment of a value chain of the native potato and derivatives. The specific objectives of the research are the characterization of the links in the value chain of the native potato and its derivatives in the province of Jauja, (Perú) and in Spain, in order to determine the added value; the strengthening of organizations of native potato producers, to commercialize their products and the promotion of enterprise culture; and the development of a chain to market native potato and its derivatives, with its origin in the province of Jauja, (Perú), and its end in Spain, with the sale to the Spanish consumer. In order to achieve these objectives, the used methodology is the agrifood value chain, using as a tool to analysis it the SWOT analysis of the value chain of the native potato. The primary sources of information used in the research come partly from UPM cooperation project, "Improving the value chain of Andean potato as a boost to rural development. Case Three Rural Communities in the Province of Jauja, (Perú)", in which the Ph.D. student was involved, and partly from the surveys, which were specifically designed for the different links of the value chain of the native potato. The secondary sources of information come from academic articles, from articles published by magazines of the industry, and from reports of several government institutions, both Spanish and Peruvian. The conclusions of the research are as follows. The creation of the commonwealth of Yacus has benefited small farmers. They get better sales conditions and better prices for their products, which results in the improvement of their living conditions. These improvements are due to a value chain of native potato which is working effectively. All the firms invited to constitute the value chain have shown interest in being part of it: the farmers to get better prices for their products and better sale conditions; the distributors to ensure a certain quality of fixed varieties of native potato, the processing industry in order to have an adequate supply of product to the corresponding derivative of native potato (chips, “tunta”, etc.); exporting firms to have a guaranteed supply of the products that they require with the right volumes. It's a win-win situation for all participating companies. Despite being a traditional product, the value chain of the native potato presents innovation in marketed products, (both fresh native potato and its derivatives), in the formats of products, in the distribution network, in Peruvian institutions and in relation with the consumer. There is a perceived demand of native potato and its products in countries where communities of Latin Americans have settled down. Spain is among the countries that have received a significant number of people from Latin America. Despite the strong economic crisis suffered by Spain, which has lead to a return to their home countries of part of the Latin American community, the size of this population is still considerable. This population demands products from their own countries, and they frequently consume them if the prices are suitable to their standard of living. The selling price of the native potato and its derivatives in Spain is of great importance. The import of these products from Perú makes the prices rise to levels that reduce competitiveness, especially in fresh native potatoes. It is advised to look for companies which can adapt the fresh potato production in our country, and keep direct export to Spain for the derivatives products. The preferences of Peruvian and Spanish consumers in terms of formats and brands are not the same. The surveys concluded that the same marketing strategy cannot be followed in both countries. Packet formats of native potato and its derivatives should be differentiated in Spain and Perú, in order to reach the potential consumers of both countries.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante la Ilustración, el imperio español alcanzó su máxima amplitud y las instituciones oficiales incrementaron su apoyo a las ciencias. Para defender sus fronteras y ejercer con eficacia el poder político, económico y religioso, la Corona y la Iglesia necesitaban obtener información precisa --incluida la climatológica-- de las posesiones españolas y de los pobladores de éstas. Fueron varios los procedimientos empleados para ello: sistema de cuestionarios y relaciones geográficas, estudios medico-topográficos, visitas e inspecciones oficiales, expediciones político-científicas, correspondencia epistolar, artículos periodísticos, etc. Dichos procedimientos fueron aplicados por redes de informadores cuyas actuaciones se basaban en la división del trabajo, el reparto de colaboradores en diferentes lugares, el uso de códigos de comunicación comprensibles, el envío de los resultados a los superiores jerárquicos y la toma de decisiones por las autoridades competentes. Las redes de información estaban sometidas a dictámenes que normalizaban su creación y continuidad temporal, daban forma a su estructura interna, especificaban sus cometidos y obligaban a cumplir protocolos y plazos. En su seno se idearon planes de investigación integrados en el estudio general de la Tierra, el ser humano y la cultura. El beneficio de las actuaciones de sus miembros se plasmó en cubrir grandes ámbitos geográficos con el consiguiente ahorro de tiempo, esfuerzos y medios. En sus correspondientes contextos, los miembros de las redes efectuaron estudios climatológicos conforme a intereses, imposiciones y circunstancias específicas. Así, los médicos se interesaron por las condiciones climáticas que influían en la salud humana; los funcionarios reales y los ingenieros militares describieron los climas locales y regionales aptos para el fomento y el control político, jurídico y educativo de los habitantes de los territorios hispánicos; los expedicionarios estudiaron las interacciones entre los fenómenos naturales y las influencias de los accidentes geográficos en los climas; los clérigos se interesaron por los aspectos estéticos, apologéticos y contemplativos de los climas; finalmente, en la prensa de la época se publicaron registros meteorológicos periódicos y trabajos climatológicos varios. En definitiva, el saber climatológico en el mundo hispánico ilustrado aportó algunos rasgos esenciales a la climatología en una etapa pre-fundacional de esta disciplina. Dichos rasgos se desarrollaron generalmente en una escala local o regional y se refirieron a los siguientes asuntos: el calor como principal agente de las modificaciones atmosféricas, de la formación de vapor acuoso y de las precipitaciones; la influencia del suelo en el aumento de humedad y calor en el aire; el poder de los vientos para trasladar de un lugar a otro el frío o el calor, el vapor de agua, los fenómenos atmosféricos y los agentes responsables de las enfermedades contagiosas; las propiedades del aire atmosférico y su capacidad para interaccionar con el medio ambiente; la condición estática y repetitiva de los climas, si bien se admitió que dichos fenómenos podían sufrir modificaciones; la corroboración experimental de las diferencias climáticas entre las zonas tropicales y medias del planeta; la refutación de que la naturaleza americana y sus habitantes eran inferiores a los europeos; y la demostración de que los principios rectores de los fenómenos físicos del Viejo y el Nuevo Mundo eran idénticos. Desde el último tercio del siglo XVIII, los documentos producidos por los componentes de las redes de información incluyeron datos meteorológicos. Pero no siempre se emplearon los mismos instrumentos de medida ni se siguieron los mismos protocolos de indagación en idénticas condiciones. Además, y salvo excepciones, los períodos durante los cuales se recabaron datos atmosféricos fueron relativamente cortos, y los expertos no efectuaron las mismas operaciones aritméticas con los parámetros. Por esta razón, y por la orientación utilitaria de los ilustrados hispánicos, el saber climatológico no obtuvo en el período y en el ámbito geográfico considerados resultados teóricos apreciables; en cambio, dio lugar a una gran cantidad de actividades prácticas con aplicaciones a la medicina, la agricultura, la náutica, el fomento, la prevención de riesgos naturales, etc. La principal utilidad de este trabajo consiste en servir de complemento a los procedimientos actualmente en uso en historia de la hidrología y en climatología histórica. ABSTRACT During the Enlightenment, the Spanish Empire achieved its highest length and State institutions increased their support to sciences. In order to defend their frontiers and to exercise political, economical and religious power, the Crown and the Church needed exact information --including the climatologic one-- about its possessions and its habitants. Some of the procedures employed to get that objective were: system of questionnaires and geographic relations, medical-topographic studies, official visits and inspections, political-scientific expeditions, direct mail, journalistic articles, etc. Those procedures were applied by informers´ networks which obtained, manned and transmitted every kind of data about the natural and moral reality of the Hispanic territories; their actions were based on the division of tasks, the distribution of collaborators at several places, the use of understandable communication codes and the sending of results to the hierarchical superiors; after, the competent authorities took decisions. The information networks were subjected to rules witch regulated its creation, temporary continuity, interior structure, objectives, protocols and periods. Their memberships invented plans about the general research of the Earth, the human beings and the culture; and they contributed to get benefits because of covering large geographic frames and economizing time, effort and means. According to their specifics contexts, concerns, impositions and circumstances, the informers performed climatologic tasks. Thus, the physicians were interested in the climatic conditions which affected to human health; the royal officers and military engineers described the most propitious climates to patronage and political, lawful and educative control of inhabitants of Hispanic territories; the participants in politic-scientific expeditions studied the interactions among natural phenomena and the influence of geographic aspects on the climate; the clergymen underlined the esthetic, apologetic and contemplative face of climates; finally, in the newspapers were published a lot of meteorological data and climatologic works. So, the climatologic knowledge in the Hispanic enlightened world added these essential aspects --referred in a local and regional area-- during the pre-foundational epoch of the climatology: the heat as first agent of atmospheric modifications, aqueous vapor and precipitations; the influx of the land in the increment of humidity and heat of the air; the power of the winds to convey the cold, the heat, the aqueous vapor, the atmospheric phenomena and the agents which caused contagious maladies; the properties of the air and its faculty to mediate with the environs; the static and repetitive condition of the climate and its possibility to experience change; the experimental confirmation of climatic varieties between tropical and central areas of the planet; the negation of the inferiority of the American nature and inhabitants; the demonstration about the equality of the rules which conducted physical phenomena in the Old and the New world. Since the last third part of the eighteenth century, the documents produced by the members of the networks included meteorological data. But the informers were not used to employ the same measure instruments and homogeneous protocols completion in the same conditions. Exceptions besides, the times of taking atmospheric data, usually were very short; and the experts did not carry out the same arithmetical operations with parameters. Because of this reason and the utilitarian guidance of the informers, during the Hispanic Enlightenment, it was not possible to obtain theoretic conclusions about climatologic knowledge; but there were a lot of practical activities applied to Medicine, Agriculture, Navigation, patronage, prevention of natural risks, etc. The main utility of this work consist in favoring the present procedures of the History of Hydrology and Historic Climatology.