30 resultados para Desarrollo fronterizo--Perú--Purús (Distrito)--Tesis
em Universidad Politécnica de Madrid
Resumo:
En la primera parte de este trabajo se define la gobernanza como un concepto político que responde adecuadamente a las necesidades sociales de la naturaleza humana. En consecuencia, la adecuada conceptualización de este término puede servir para resolver los problemas sociales y también para orientar hacia el éxito los esfuerzos de la cooperación al desarrollo. Este concepto político resulta particularmente apropiado para la situación actual de la sociedad peruana, donde la existencia de conflictos sociales manifiesta la necesidad de una planificación liderada desde el ámbito público que enfrente la diversidad cultural y social que caracteriza a esta sociedad. Después de un análisis de las políticas de la cooperación internacional en Perú y de las últimas intervenciones para el desarrollo de la gobernanza, es posible concluir que en el país no existe una política para la cooperación internacional; que no hay un enfoque territorial en las intervenciones y que la práctica planificadora no considera una unión entre conocimiento y acción, limitándose a un enfoque tradicional de la planificación en la cooperación para el desarrollo. Esta investigación aporta un modelo para orientar las intervenciones de la cooperación internacional para el desarrollo de la gobernanza que se caracteriza por un liderazgo del ámbito público, una innovación en la gestión de dicho ámbito y un modelo de planificación mixto, una unión del modelo de Análisis de Políticas y el modelo de Aprendizaje Social. Por último, el modelo propuesto puede tener una amplia aplicación en los programas de desarrollo en Perú. On the first part of this research I found that governance is a political concept which responds adequately to social needs of human being. Thus, an adequate conceptualization of governance could help to solve social problems and lead efforts of Development Cooperation to success. This political concept is particularly appropriate to current Peruvian society where exist social conflicts which show a clear necessity of planning which should be leaded by the public sector. This is necessary to face cultural and social diversity which characterize this society. After an analysis of the International Cooperation management in Peru and a review of the last projects for developing governance, I found there is not a Politic for International Cooperation; projects does not have a territorial focusing; and planning does not characterize as union between knowledge and action. In this sense, there is a traditional planning in Development Cooperation. This research contributes with a model to lead International Cooperation projects for developing governance. This model is characterized by a leadership of public sector; an innovation in the public sector management; and a mix planning model between Politics Analysis and Social Learning. Finally, as the model was validated by two International Cooperation projects focused in sectorial objective, this model could have a wide application in Development programs in Peru.
Resumo:
Durante décadas y aun en la actualidad muchas organizaciones, a nivel mundial, continúan afrontando pérdidas significativas debido a fracasos parciales y totales respecto a sus inversiones en sistemas de información (SI), planteando serios retos a los niveles gerenciales y los profesionales de SI. Estadísticas alarmantes y décadas de experiencia en la praxis en el área de SI en diversas organizaciones llevan al autor a poner el énfasis en los usuarios finales internos (UF) que son designados como representantes (UFR) de sus pares en los proyectos de desarrollo de SI (PDSI) por considerarlos como factores influyentes de manera significativa en el problema. Particularmente, con enfoque en ciertos factores de los UFR críticos para el éxito de los PDSI, con dimensiones analizadas de forma aislada o incompleta en otros estudios empíricos, a la fecha. No se encontraron estudios en Latinoamérica ni en otras latitudes que abordasen el fenómeno del éxito/fracaso de los SI desde el punto de vista adoptado en esta tesis. Por ello, esta investigación empírica ha evaluado en qué grado estos factores pudiesen influenciar los resultados durante el desarrollo e implementación de SI y su posible impacto en la satisfacción de los UF, siendo esta última aceptada por variados autores como la principal medida del éxito de los SI. Este estudio fue realizado en América Latina en las cuatro grandes empresas industriales que integran verticalmente el sector aluminio de Venezuela, sometidas a un macro PDSI para instalar el paquete, de tipo ERP, SAP/R3. Experimentados profesionales fueron encuestados o entrevistados, tales como altos ejecutivos, desarrolladores, líderes de proyecto y líderes de los UF. Un enfoque metodológico de triangulación permitió combinar un análisis cuantitativo con un análisis cualitativo interpretativo del tipo hermenéutico/dialéctico, hallándose resultados convergentes y complementarios. Un análisis estadístico, utilizando Partial Least Squares (PLS), seguido de un análisis hermenéutico/dialéctico. Los resultados confirmaron un hecho importante: en los casos problemáticos, paradójicamente, los orígenes de las razones de rechazo de esos SI argumentadas por los UF, en alto grado, apuntaron a los UFR o a ellos mismos. Los resultados también confirmaron la prevalencia de factores de orden cognitivo, conductual y político en estas organizaciones sobre los tecnológicos, al igual que el alto riesgo de dar por sentado la presencia y calidad de los factores requeridos de los UFR y de los otros factores estudiados. La validación estadística del modelo propuesto reveló al constructo conocimientos de los UFR como la principal variable latente, con los variables indicadoras que componen este constructo ejerciendo la mayor influencia sobre la calidad y el éxito de los SI. Un hallazgo contrario al de otros estudios, mostró que los conocimientos sobre las tecnologías de la información (TI) fueron los menos relevantes. Los SI de nómina y de administración de los RRHH fueron los más problemáticos, como suele ser el caso, por su complejidad en organizaciones grandes. Las conclusiones principales confirman el decisivo rol de los UF para el éxito de los PDSI y su relación con la creciente problemática planteada, la cual amerita más investigación y de las organizaciones una mayor atención y preparación. Descuidar los factores humanos y sociales así como una efectiva planificación y gestión de los mismos en preparación para estos proyectos origina serios riesgos. No obstante las limitaciones de este trabajo, la problemática analizada suele influir en los PDSI en diversas organizaciones, indistintamente de su tamaño o tipo de SI, estimándose, por tanto, que los resultados, conclusiones y recomendaciones de esta investigación tienen un alto grado de generalización. Una relación de indicadores claves es suministrada con fines preventivos. Finalmente, los factores evaluados pueden usarse para ampliar el modelo reconocido de DeLone y McLean (2003), conectándolos como variables latentes de sus variables independientes calidad de la información y calidad del SI. ABSTRACT For decades, many organizations worldwide have been enduring heavy losses due to partial and total failures regarding their investments in information systems (IS), posing serious challenges to all management levels and IS practitioners. Alarming statistics in this regard and decades of practice in the IS area lead the author to place an emphasis on the end users (EU) who are appointed in representation of their peers (EUR) to IS development projects (ISDP), considering them as highly influential factors on the problem. Especially, focusing on certain EUR success factors, and their dimensions, deemed critical to any IS development and implementation, omitted or not thoroughly analyzed neither in the theory nor in the empirical research on the subject, so far. No studies were found in Latin America or elsewhere addressing the phenomenon of IS success/failure from the perspective presented herein. Hence, this empirical research has assessed to what degree such factors can influence the outcomes of an ISDP and their feasible impact on the EU´s satisfaction, being the latter accepted by several authors as the main measure of IS success. This study was performed in Latin America embracing four major industrial enterprises, which vertically integrate the aluminum sector of Venezuela, subjected to a macro ISDP to install the ERP-type package SAP/R3. The field work included surveying and interviewing experienced professionals such as IS executives, IS developers, IS project leaders and end-user project leaders. A triangulation methodological approach allowed combining quantitative and interpretive analyses, obtaining convergent and complementing results. A statistical analysis, using Partial Least Squares (PLS), was carried out followed by a hermeneutical/dialectical analysis. Results confirmed a major finding: in problematic cases, paradoxically, the origins of IS rejection reasons argued by the EU, at a high degree, were usually traceable to the EUR and themselves. The results also confirmed the prevalence of cognitive, behavioral and political factors in these organizations as well as the high risk of taking for granted the presence and quality of those factors demanded from the EUR. The statistical validation of the proposed model revealed the construct EUR knowledge as the main latent variable, with its items exerting a major influence on IS quality and success. Another finding, in contradiction with that of other studies, proved knowledge of information technology (IT) aspects to be irrelevant. The payroll and the human resources administration IS were the most problematic, as is usually the case in large companies. The main conclusions confirm the EU´s decisive role for IS success and their relationship with the problem, which continues, demanding more research and, from organizations, more attention and preparation. Neglecting human and social factors in organizations as well as their effective planning and management in preparation for ISDP poses serious risks. Despite the limitations of this work, the analyzed problem tends to influence ISDP in a wide range of organizations; regardless of their size or type of IS, thus showing a high degree of generalization. Therefore it is believed that the results, conclusions and suggestions of this research have a high degree of generalization. A detailed checklist comprising key measures is provided for preventive actions. Finally, the factors evaluated can be used to expand the well-known model of DeLone & McLean (2003), by connecting them as latent variables of its independent variables information quality and IS quality.
Resumo:
La búsqueda de financiación para proyectos de desarrollo es un tema que siempre debe ir a la vanguardia en el mundo de la cooperación, ya que sin los suficientes recursos es muy difícil lograr la materialización de cualquier ayuda y su futuro seguimiento. La gestión de recursos para proyectos de desarrollo debe ser de carácter solidario, es decir, mientras más se involucren las personas más fuerza, cuerpo y duración tendrá cualquier iniciativa de cooperación. El crowfunding es una herramienta poderosa que funciona por la solidaridad de muchos para lograr ayudar a otros, y esta sensibilización guiada por una buena motivación logra no solo captar recursos sino involucrar a las personas en los proyectos, no solo los beneficiarios sino todo aquel que sienta empatía por ayudar y colaborar forma parte y abraza la iniciativa corriendo la voz a más personas para sumar fuerzas. Seeking funding for development projects is an issue that should always be at the forefront in the world of cooperation, because without sufficient resources is very difficult to achieve the realization of any help and future monitoring. Resource management for development projects should be supportive and participatory, i.e, the more people more strength, enthusiasm, duration and chances of success will involve any cooperation initiative. The Crowdfunding is a powerful tool that works for solidarity of many to get help others, and this awareness guided by a good motivation does involve people in the projects, not only the beneficiaries but anyone who feels empathy for aiding and abetting embracing the initiative and spreading the word to more people to join forces.
Resumo:
En esta Tesis se plantea una nueva forma de entender la evacuación apoyándonos en tecnologías existentes y accesibles que nos permitirán ver este proceso como un ente dinámico. Se trata de una metodología que implica no solo el uso de herramientas de análisis que permitan la definición de planes de evacuación en tiempo real, sino que también se apunta hacia la creación de una infraestructura física que permita alimentar con información actualizada al sistema de forma que, según la situación y la evolución de la emergencia, sea posible realizar planes alternativos que se adapten a las nuevas circunstancias. En base a esto, el sistema asimilará toda esa información y aportará soluciones que faciliten la toma de decisiones durante toda la evolución del incidente. Las aportaciones originales de esta Tesis son múltiples y muy variadas, pudiéndolas resumir en los siguientes puntos: 1. Estudio completo del estado del arte: a. Detección y análisis de diferentes proyectos a nivel internacional que de forma parcial tratan algunos aspectos desarrollados en la Tesis. b. Completo estudio a nivel mundial del software desarrollado total o parcialmente para la simulación del comportamiento humano y análisis de procesos de evacuación. Se ha generado una base de datos que cataloga de forma exhaustiva estas aplicaciones, permitiendo realizar un completo análisis y posibilitando la evolución futura de los contenidos de la misma. En la tesis se han analizado casi un centenar de desarrollos, pero el objetivo es seguir completando esta base de datos debido a la gran utilidad y a las importantes posibilidades que ofrece. 2. Desarrollo de un importante capítulo que trata sobre la posibilidad de utilizar entornos virtuales como alternativa intermedia al uso de simuladores y simulacros. En esta sección se divide en dos bloques: a. Ensayos en entornos reales y virtuales. b. Ensayos en entornos virtuales (pruebas realizadas con varios entornos virtuales). 3. Desarrollo de e-Flow net design: paquete de herramientas desarrolladas sobre Rhinoceros para el diseño de la red de evacuación basada en los elementos definidos en la tesis: Nodes, paths, Relations y Areas. 4. Desarrollo de e-Flow Simulator: Conjunto de herramientas que transforman Rhinoceros en un simulador 3D de comportamiento humano. Este simulador, de desarrollo propio, incorpora un novedoso algoritmo de comportamiento a nivel de individuo que incluye aspectos que no se han encontrado en otros simuladores. Esta herramienta permite realizar simulaciones programadas de grupos de individuos cuyo comportamiento se basa en el análisis del entorno y en la presencia de referencias dinámicas. Incluye otras importantes novedades como por ejemplo: herramientas para análisis de la señalización, elementos de señalización dinámica, incorporación sencilla de obstáculos, etc. También se ha creado una herramienta que posibilita la implementación del movimiento del propio escenario simulando la oscilación del mismo, con objeto de reflejar la influencia del movimiento del buque en el desplazamiento de los individuos. 5. En una fase avanzada del desarrollo, se incorporó la posibilidad de generar un vídeo de toda la simulación, momento a partir del cual, se han documentado todas las pruebas (y se continúan documentando) en una base de datos que recoge todas las características de las simulaciones, los problemas detectados, etc. Estas pruebas constituyen, en el momento en que se ha cerrado la redacción de la Tesis, un total de 81 GB de datos. Generación y análisis de rutas en base a la red de evacuación creada con e-Flow Net design y las simulaciones realizadas con e-Flow Net simulator. a. Análisis para la optimización de la configuración de la red en base a los nodos por área existentes. b. Definición de procesos previos al cálculo de rutas posibles. c. Cálculo de rutas: i. Análisis de los diferentes algoritmos que existen en la actualidad para la optimización de rutas. ii. Desarrollo de una nueva familia de algoritmos que he denominado “Minimum Decision Algorithm (MDA)”, siendo los algoritmos que componen esta familia: 1. MDA básico. 2. MDA mínimo. 3. MDA de no interferencia espacial. 4. MDA de expansión. 5. MDA de expansión ordenada para un único origen. 6. MDA de expansión ordenada. iii. Todos estos algoritmos se han implementado en la aplicación e-Flow creada en la Tesis para el análisis de rutas y que constituye el núcleo del Sistema de Ayuda al Capitán. d. Determinación de las alternativas para el plan de evacuación. Tras la definición de las rutas posibles, se describen diferentes procesos existentes de análisis por ponderación en base a criterios, para pasar finalmente a definir el método de desarrollo propio propuesto en esta Tesis y cuyo objetivo es responder en base a la población de rutas posibles obtenidas mediante los algoritmos MDA, qué combinación de rutas constituyen el Plan o Planes más adecuados para cada situación. La metodología creada para la selección de combinaciones de rutas que determinan un Plan completo, se basa en cuatro criterios básicos que tras su aplicación ofrecen las mejores alternativas. En esta fase también se incluye un complejo análisis de evolución temporal que incorpora novedosas definiciones y formulaciones. e. Derivado de la definición de la metodología creada en esta Tesis para la realización de los análisis de evolución temporal, se ha podido definir un nuevo teorema matemático que se ha bautizado como “Familia de cuadriláteros de área constante”. 7. Especificación de la infraestructura física del Sistema de Ayuda al Capitán: parte fundamental de sistema es la infraestructura física sobre la que se sustentaría. Esta infraestructura estaría compuesta por sensores, actuadores, aplicaciones para dispositivos móviles, etc. En este capítulo se analizan los diferentes elementos que la constituirían y las tecnologías implicadas. 8. Especificación de la infraestructura de servicios. 9. Creación del Blog Virtual Environments (http://epcinnova-virtualenvironments.blogspot.com.es/) en el que se han publicado todas las pruebas realizadas en el capítulo que analiza los entornos virtuales como alternativa a los simuladores y a los ensayos en laboratorio o los simulacros, incluyendo en muchos casos la posibilidad de que el visitante del blog pueda realizar la simulación en el entorno virtual. Este blog también incluye otras secciones que se han trabajado durante la Tesis: • Recopilación de diferentes entornos virtuales existentes. • Diagrama que recopila información sobre accidentes tanto en el ámbito marítimo como en el terrestre (en desarrollo). • Esquema propuesto para el acopio de información obtenida a partir de un simulacro. 10. Esta Tesis es la base para el proyecto e-Flow (nombre de una de las aplicaciones que desarrolladas en esta obra), un proyecto en el que el autor de esta Tesis ha trabajado como Project Manager. En el proyecto participa un consorcio de empresas y la UPM, y tiene como objetivo trasladar a la realidad gran parte de los planteamientos e ideas presentadas en esta Tesis. Este proyecto incluye el desarrollo de la infraestructura física y de servicios que permitirán, entre otras cosas, implementar en infraestructuras complejas una plataforma que posibilita la evacuación dinámica y un control ubicuo de los sistemas de monitorización y actuación implementados. En estos momentos se está finalizando el proyecto, cuyo objetivo final es la implementación de un piloto en un Hospital. También destacamos los siguientes avances a nivel de difusión científico-tecnológico: • Ponencia en el “52 congreso de la Ingeniería Naval en España” presentando un artículo “e-Flow- Sistema integral inteligente de soporte a la evacuación”. En este artículo se trata tanto el proyecto e-Flow del que soy Project Manager, como esta Tesis Doctoral, al ser temas estrechamente vinculados. En 2014 se publicó en dos números de la Revista Ingeniería Naval el artículo presentado a estas jornadas. • Co-autor en el artículo “E-Flow: A communication system for user notification in dynamic evacuation scenarios” presentado en el 7th International Conference on Ubicuous Computing & Ambient Intelligence (UCAMI) celebrado en Costa Rica. Por último, una de las aportaciones más interesantes, es la definición de un gran número de líneas de investigación futuras en base a todos los avances realizados en esta Tesis. ABSTRACT With this Thesis a new approach for understanding evacuation process is considered, taking advantage of the existing and open technologies that will allow this process to be interpreted as a dynamic entity. The methodology involves not only tools that allows on.-time evacuation plans, but also creates a physical insfrastructure that makes possible to feed the system with information on real time so, considering in each moment the real situation as well as the specific emergency development it will be feasible to generate alternative plans that responds to the current emergency situation. In this respect, the system will store all this information and will feedback with solutions that will help the decision making along the evacuation process. The innovative and singular contributions of this Thesis are numerous and rich, summarised as follows: 1.- Complete state-of-art study: a. Detection and analysis of different projects on an international level that, although partially, deal with some aspects developed in this Thesis. b. Thorough study at a international level of the developed software - total or partially done - for the simulation of the human behaviour and evacuation processes analysis. A database has been generated that classifies in detail these applications allowing to perform a full analysis and leading to future evolution of its contents. Within the Thesis work, almost a hundred of developments have been analysed but the purpose is to keep up updating this database due to the broad applications and possibilities that it involves. 2. Development of an important chapter that studies the possibility of using virtual scenarios as mid-term alternative for the use of simulations. This section is divided in two blocks: a. Trials in virtual and real scenarios b. Trials in virutal scenarios (trials performed with several ones). 3. E-Flow net design development: Set of tools developed under Rhinoceros for the evacuation net design based on the elements defined in the Thesis: Nodes, Paths, Relations, Areas 4. E-Flow simulator development: Set of tools that uses Rhinoceros as a 3D simulator of human behaviour. This simulator, of my own design, includes a new and original algorithm of human behaviour that involves aspects that are not found in other simulators. This tool allows to perform groups programmed simulations which behaviour is based on their enviroment analysis and presence of dynamic references. It includes other important innovations as for example: tools for signals analysis, dynamic signal elements, easy obstacle adding etc... More over, a tool that allows the own scenario movement implementation has been created by simulating the own oscillation movement, with the purpose of playing the vessel movement's influences in the individuals' displacements. 5. In an advanced stage of the development, the possibility of generating a video recording of all the simulation was also integrated, then from that moment all tests have been filed (and keep on doing so) in a database that collects all simulation characteristics, failures detected, etc. These stored tests amounts to a total of 81 GB at the moment of finishing the Thesis work. Generation and analysis of paths regarding the evacuation net created with E-Flow design and the simulations performed with E-Flow net Simulator. a. Analysis for the optimisation of the network configuration based in the existing nodes per area. b. Definition of the processes previous to the calculation of the feasible paths c. Paths calculation: i. Analysis of the different algorithms on existance nowadays for the routes optimisation. ii. Development of a new family of algorithms that I have called “Minimum Decision Algorithm (MDA)”, being composed of: 1. MDA basic 2. MDA minimum 3. MDA of not spacial interference 4. MDA of expansion (es de extenderse) o enlargement ( es de crecimiento) 5. MDA of organised expansion for a single origin (of organised enlargement for a single origin) 6. MDA of organised expansion (of organised enlargement) iii. All these algorithms have been implemented in the E-Flow application created in the Thesis dfor the routes analysis and it is the core of the Captain's support system. d. Determination of the alternatives for the evacuation plan. After defining all possible paths, different processes of analysis existing for weighing-based criteria are described, thus to end defining the own development method proposed in this Thesis and that aims to respond in an agreggation of possible routes basis obtained by means of the MDA algorithms what is the routes' combination more suitable for the Plan or Plans in every situation. The methodology created fot the selection of the combinations of routes that determine a complete Plan is baesd in four basic criteria that after applying, offer the best alternatives. In this stage a complex analysis of the progress along time is also included, that adds original and innovative defintions and formulations. e. Originated from the methodology created in this Thesis for the perfoming of the analysy of the progress along time, a new mathematic theorem has been defined, that has been called as "Family of quadrilateral of constant area". 7. Specification of the physiscal infrastructure of the Captain's help system: essential part is this physical infrastructure that will support it. This system will be made of sensors, actuators, apps for mobile devices etc... Within this chapter the different elements and technologies that make up this infrastructure will be studied. 8. Specification for the services infrastructure. 9. Start up of the Blog. " Virtual Environments (http://epcinnova-virtualenvironments.blogspot.com.es/)" in which all tests performed have been published in terms of analysis of the virtual enviroments as alternative to the simulators as well as to the laboratory experiments or simulations, including in most of the cases the possibility that the visitor can perform the simulation within the virtual enviroment. This blog also includes other sections that have been worked along and within this Thesis: - Collection of different virtual scenarios existent. - Schema that gathers information concerning accidents for maritime and terrestrial areas (under development) - Schema proposed for the collecting of information obtained from a simulation. 10. This Thesis is the basis of the E-Flow project (name of one of the applications developed in this work), a project in which the Thesis' author has worked in as Project Manager. In the project takes part a consortium of firms as well as the UPM and the aim is to bring to real life most part of the approaches and ideas contained in this Thesis. This project includes the development of the physical infrastructure as well as the services that will allow, among others, implement in complex infrastrucutres a platform that will make possible a dynamic evacuation and a continuous control of the monitoring and acting systems implemented. At the moment the project is getting to an end which goal is the implementation of a pilot project in a Hospital. We also would like to highlight the following advances concerning the scientific-technology divulgation: • Talk in the " 52th Congress of the Naval Engineering in Spain" with the article "E-Flow . Intelligent system integrated for supporting evacuation". This paper is about project E-Flow which I am Project Manager of, as well as this Thesis for the Doctorate, being both closely related. Two papers published In 2014 in the Naval Engineering Magazine. • Co-author in the article “E-Flow: A communication system for user notification in dynamic evacuation scenarios” [17] introduced in the 7th International Conference on Ubicuous Computing & Ambient Intelligence (UCAMI) held in Costa Rica. Last, but not least, one of the more interesting contributions is the defintion of several lines of research in the future, based on the advances made in this Thesis.
Resumo:
Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.
Resumo:
La tesis se centra en el análisis de 356 números de la revista El Arquitecto Peruano publicados entre 1937 y 1977. La revista fue fundada en agosto de 1937 por Fernando Belaúnde Terry, arquitecto graduado en la University of Texas at Austin en 1935 quien la dirigió por 25 años hasta marzo de 1963. Desde abril de 1963 la dirige Miguel Cruchaga Belaunde. Durante esta última etapa la revista deja de ser regular, publicándose intermitentemente con varios años sin editarse, hasta desaparecer finalmente en 1977. La revista es la publicación periódica de arquitectura más importante del siglo XX en el Perú. La investigación ubica a la revista en el contexto nacional donde se desarrolló vinculando además los diversos eventos de la arquitectura y el urbanismo del panorama internacional sucedidos durante las tres décadas de estudio. El trabajo empieza por establecer una secuencia de periodos. Esta se basa en la identificación de una estructura fija existente en la revista conformada por las secciones permanentes. Una paulatina inserción de secciones temporales fue complementando y detallando nuevas temáticas y contenidos generando variantes de la estructura fija a lo largo del tiempo. Como resultado de este proceso se reconocen 5 periodos vinculados a una serie de temas vertebrales durante la dirección de Fernando Belaunde: Periodo 1 (Agosto de 1937 a marzo de 1942). Vivienda Unifamiliar. Periodo 2 (Abril de 1942 a mayo de 1944). Urbanismo moderno. Periodo 3 (Junio de 1944 a diciembre de 1949). Vivienda Colectiva. Periodo 4 (Enero-febrero de 1950 a enero-febrero de 1956). Proyectos y obras. Periodo 5 (Marzo-abril de 1956 a enero-febrero-marzo de 1963). Territorio. Los años finales bajo la dirección de Miguel Cruchaga conforman el último Periodo. En la década de los treinta, durante el primer periodo se analiza el rol que un grupo de revistas de arquitectura europeas y norteamericanas tuvieron en la construcción formal y temática de El Arquitecto Peruano. En sus inicios existen influencias de The Architectural Forum, The American Architect, Architecture, California Arts and Architecture y Architectural Digest . Y junto a estas, las revistas alemanas Moderne Bauformen e Innen Dekoration. A raíz de la Segunda Guerra Mundial, las referencias a las revistas alemanas desaparecen y las relaciones con Estados Unidos se intensifican por la posición del Perú dentro del área de influencia norteamericana. El canal de las revistas no fue el único medio de influencia, durante los años cuarenta hubo un marco de apertura hacia Latinoamérica que incluyó viajes de cooperación de arquitectos norteamericanos por el sur del continente. Como parte de estos vínculos, en 1945 Paul Lester Wiener de Town Planning Associates y Richard Neutra, - ambos miembros del CIAM y el segundo Presidente del CIAM USA- prestaron asistencia a la iniciativa más importante promovida por la revista peruana, un proyecto de vivienda popular para obreros y empleados llamado el Plan Peruano. La revista tuvo siempre una fuerte actitud de cambio de la realidad existente en el medio peruano. Para modelar su nueva versión de la realidad instrumentó una serie de campañas de prensa. En la más importante utilizó las ideas del urbanismo moderno que circulaban durante la guerra nacidas en los CIAM de entreguerras. El Arquitecto Peruano aprovecha la coyuntura de los primeros años de la posguerra para canalizar sus iniciativas, tomando como modelo de su propuesta la idea de la Neighborhood Unit, convirtiéndolo en proyecto y finalmente construyendo la Unidad Vecinal N°3, el proyecto de mayor escala asociado con la revista. A esta perspectiva favorable para las ideas vertidas por la publicación se une el hecho de que su Director, es elegido Diputado por Lima y es un miembro muy cercano al gobierno de turno que dio la cobertura legal y de gestión para cristalizar los proyectos desde 1945 hasta 1948. Durante este periodo se producen las propuestas de mayor alcance promovidas por Fernando Belaunde y difundidas por la revista, como el propio Plan Peruano de Vivienda, los Centros Climáticos de Invierno, el Plan Piloto de Lima y los Concursos de Vivienda popular. Existe un trabajo anterior sobre la revista, restringido al campo del urbanismo realizado en 1992 por el historiador Antonio Zapata y titulado El joven Belaunde: Historia de la revista El Arquitecto Peruano en donde se inclina el peso de la revista hacia la Vivienda Social y se señala a Walter Gropius como el arquitecto más influyente en la publicación. La presente tesis plantea que el Plan Peruano es la punta del iceberg, pero que todos estos proyectos relacionados con la revista, conforman un conjunto indisoluble y que el paquete completo tiene una directa influencia de proyectos, ideas y labor editorial de José Luis Sert desarrollada desde finales de los años veinte hasta los años cincuenta. Sus libros Can Our Cities Survive? , The Heart of the City y la revista del GATEPAC AC Documentos de Actividad Contemporánea tienen improntas claras en la revista peruana que atraviesan tres de los periodos propuestos. Durante la década de los cuarenta cuando Sert junto a Wiener fueron socios en Town Plannning Associates y tuvieron contacto directo con el director de la revista así como con los principales colaboradores, y durante la década posterior. A la luz de las evidencias analizadas, la figura de José Luis Sert emerge como la del arquitecto más influyente para la revista El Arquitecto Peruano a lo largo de todo su recorrido. ABSTRACT The thesis focuses on the analysis of 356 issues of the magazine El Arquitecto Peruano published between 1937 and 1977. The magazine was founded in august 1937 by Fernando Belaunde Terry, graduated from the University of Texas at Austin in 1935 who leaded it 25 years until March 1963. Since April 1963 was leaded by Miguel Cruchaga Belaunde. During this last stage the magazine ceases to be published on regular times, being published intermittently, unreleased several years, and finally disappear in 1977. El Arquitecto Peruano is the most important magazine of architecture of the twentieth century in Peru. The research located the magazine in the national context where was developed further by linking the various events of architecture and urbanism of the international scene occurred during the three decades of study. The research begins to establish a sequence of periods. This identification is based on a fixed structure existing in the journal formed by the permanent sections. A gradual insertion of temporary sections was complementing and detailing new themes and contents generating variants of the fixed structure over time. As a result of this process we recognize five periods linked to a series of central themes developed under the lead of Fernando Belaunde: Period 1 (September 1937 to March 1942): The Small House. Period 2 (April 1942 to May 1944). Modern urbanism. Period 3 (June 1944 to December 1949). Housing. Period 4 (January-February 1950 January-February 1956). Projects and Buildings. Period 5 (March-April 1956 January-February-March 1963). Territory. The final years under the direction of Miguel Cruchaga make the last Period. In the thirties, during the first period, is analyzed the role that a group of European and American magazines in architecture had in formal construction and thematic of the magazine. In the beginning there are influences of The Architectural Forum, The American Architect, Architecture, California Arts and Architecture and Architectural Digest. And along with these, the german magazine Moderne Bauformen and Innen Dekoration. Following World War II, the references to german magazines disappear and US relations are intensified by the position of Peru in the area of US influence. The magazines was not the only ways of influence, during the forties there was an open framework with Latin America that included cooperation trips of american architects on the south of the continent. As part of these links, in 1945 Paul Lester Wiener of Town Planning Associates and Richard Neutra, -both members of CIAM and the second President of the CIAM USAassisted the most important initiative promoted by the peruvian magazine, a popular housing project for workers and employees called El Plan Peruano. The magazine always has a strong attitude of change of the reality in the peruvian scene. To model the new version of reality created a series of media campaigns. In the biggest it used the ideas of modern urbanism that circulated during the war born in the CIAM of twenties and thirties. El Arquitecto Peruano take advantage of the situation of the early postwar years to direct their initiatives, modeled his proposal with the idea of Neighborhood Unit, making project and finally building the Unidad Vecinal N° 3, the larger scale project linked with the magazine. This favorable outlook for the ideas expressed by the publication joins the fact that its Director is elected deputy for Lima and is very close member to the current government who gave legal instruments and management to crystallize projects from 1945 to 1948. During this period of far-reaching proposals promoted by Fernando Belaunde and diffused by the magazine, as El Plan Peruano itself, the Centros Climaticos de Invierno, the Plan Piloto for Lima and the Concusos de Vivienda Popular. There is an earlier work on the magazine, restricted to the field of urbanism in 1992 by historian Antonio Zapata, entitled El Joven Belaunde: Historia de la revista El Arquitecto Peruano where the weight of the magazine leans Social Housing and notes Walter Gropius as the most influential architect in the publication. This thesis suggests that El Plan Peruano is the end of the iceberg, but these related projects to the magazine, form an inseparable whole and that the whole package has a direct influence of projects, ideas and editorial work of José Luis Sert developed from late twenties to the fifties. His book Can Our Cities Survive? , The Heart of the City and the magazine of GATEPAC AC Documentos de Actividad Contemporanea have clear signs in the peruvian magazine cross three of the proposed periods. During the forties when Sert and Wiener were partners in Town Plannning Associates and had direct contact with the director of the magazine as well as with key colaborators, and during the following decade. In light of the evidence examined, the shape of José Luis Sert emerges as the most influential architect to the peruvian magazine along its entire route.
Resumo:
El objeto de esta tesis es construir un método comprensivo de análisis fotográfico del paisaje que, a partir de fotografía terrestre, permita caracterizarlo, estudiar su evolución y evaluarlo cualitativamente desde experiencias contrastadas procedentes de diferentes campos científicos. ABSTRACT The objective of this thesis is to create a comprehensive method for the photographic analysis of landscape, using terrestrial photography to characterize it, study its evolution and qualitatively evaluate it based on contrasting experiences from different scientific disciplines.
Resumo:
Los sistemas técnicos son cada vez más complejos, incorporan funciones más avanzadas, están más integrados con otros sistemas y trabajan en entornos menos controlados. Todo esto supone unas condiciones más exigentes y con mayor incertidumbre para los sistemas de control, a los que además se demanda un comportamiento más autónomo y fiable. La adaptabilidad de manera autónoma es un reto para tecnologías de control actualmente. El proyecto de investigación ASys propone abordarlo trasladando la responsabilidad de la capacidad de adaptación del sistema de los ingenieros en tiempo de diseño al propio sistema en operación. Esta tesis pretende avanzar en la formulación y materialización técnica de los principios de ASys de cognición y auto-consciencia basadas en modelos y autogestión de los sistemas en tiempo de operación para una autonomía robusta. Para ello el trabajo se ha centrado en la capacidad de auto-conciencia, inspirada en los sistemas biológicos, y se ha explorado la posibilidad de integrarla en la arquitectura de los sistemas de control. Además de la auto-consciencia, se han explorado otros temas relevantes: modelado funcional, modelado de software, tecnología de los patrones, tecnología de componentes, tolerancia a fallos. Se ha analizado el estado de la técnica en los ámbitos pertinentes para las cuestiones de la auto-consciencia y la adaptabilidad en sistemas técnicos: arquitecturas cognitivas, control tolerante a fallos, y arquitecturas software dinámicas y computación autonómica. El marco teórico de ASys existente de sistemas autónomos cognitivos ha sido adaptado para servir de base para este análisis de autoconsciencia y adaptación y para dar sustento conceptual al posterior desarrollo de la solución. La tesis propone una solución general de diseño para la construcción de sistemas autónomos auto-conscientes. La idea central es la integración de un meta-controlador en la arquitectura de control del sistema autónomo, capaz de percibir la estado funcional del sistema de control y, si es necesario, reconfigurarlo en tiempo de operación. Esta solución de metacontrol se ha formalizado en cuatro patrones de diseño: i) el Patrón Metacontrol, que define la integración de un subsistema de metacontrol, responsable de controlar al propio sistema de control a través de la interfaz proporcionada por su plataforma de componentes, ii) el patrón Bucle de Control Epistémico, que define un bucle de control cognitivo basado en el modelos y que se puede aplicar al diseño del metacontrol, iii) el patrón de Reflexión basada en Modelo Profundo propone una solución para construir el modelo ejecutable utilizado por el meta-controlador mediante una transformación de modelo a modelo a partir del modelo de ingeniería del sistema, y, finalmente, iv) el Patrón Metacontrol Funcional, que estructura el meta-controlador en dos bucles, uno para el control de la configuración de los componentes del sistema de control, y otro sobre éste, controlando las funciones que realiza dicha configuración de componentes; de esta manera las consideraciones funcionales y estructurales se desacoplan. La Arquitectura OM y el metamodelo TOMASys son las piezas centrales del marco arquitectónico desarrollado para materializar la solución compuesta de los patrones anteriores. El metamodelo TOMASys ha sido desarrollado para la representación de la estructura y su relación con los requisitos funcionales de cualquier sistema autónomo. La Arquitectura OM es un patrón de referencia para la construcción de una metacontrolador integrando los patrones de diseño propuestos. Este meta-controlador se puede integrar en la arquitectura de cualquier sistema control basado en componentes. El elemento clave de su funcionamiento es un modelo TOMASys del sistema decontrol, que el meta-controlador usa para monitorizarlo y calcular las acciones de reconfiguración necesarias para adaptarlo a las circunstancias en cada momento. Un proceso de ingeniería, complementado con otros recursos, ha sido elaborado para guiar la aplicación del marco arquitectónico OM. Dicho Proceso de Ingeniería OM define la metodología a seguir para construir el subsistema de metacontrol para un sistema autónomo a partir del modelo funcional del mismo. La librería OMJava proporciona una implementación del meta-controlador OM que se puede integrar en el control de cualquier sistema autónomo, independientemente del dominio de la aplicación o de su tecnología de implementación. Para concluir, la solución completa ha sido validada con el desarrollo de un robot móvil autónomo que incorpora un meta-controlador con la Arquitectura OM. Las propiedades de auto-consciencia y adaptación proporcionadas por el meta-controlador han sido validadas en diferentes escenarios de operación del robot, en los que el sistema era capaz de sobreponerse a fallos en el sistema de control mediante reconfiguraciones orquestadas por el metacontrolador. ABSTRACT Technical systems are becoming more complex, they incorporate more advanced functionalities, they are more integrated with other systems and they are deployed in less controlled environments. All this supposes a more demanding and uncertain scenario for control systems, which are also required to be more autonomous and dependable. Autonomous adaptivity is a current challenge for extant control technologies. The ASys research project proposes to address it by moving the responsibility for adaptivity from the engineers at design time to the system at run-time. This thesis has intended to advance in the formulation and technical reification of ASys principles of model-based self-cognition and having systems self-handle at runtime for robust autonomy. For that it has focused on the biologically inspired capability of self-awareness, and explored the possibilities to embed it into the very architecture of control systems. Besides self-awareness, other themes related to the envisioned solution have been explored: functional modeling, software modeling, patterns technology, components technology, fault tolerance. The state of the art in fields relevant for the issues of self-awareness and adaptivity has been analysed: cognitive architectures, fault-tolerant control, and software architectural reflection and autonomic computing. The extant and evolving ASys Theoretical Framework for cognitive autonomous systems has been adapted to provide a basement for this selfhood-centred analysis and to conceptually support the subsequent development of our solution. The thesis proposes a general design solution for building self-aware autonomous systems. Its central idea is the integration of a metacontroller in the control architecture of the autonomous system, capable of perceiving the functional state of the control system and reconfiguring it if necessary at run-time. This metacontrol solution has been formalised into four design patterns: i) the Metacontrol Pattern, which defines the integration of a metacontrol subsystem, controlling the domain control system through an interface provided by its implementation component platform, ii) the Epistemic Control Loop pattern, which defines a modelbased cognitive control loop that can be applied to the design of such a metacontroller, iii) the Deep Model Reflection pattern proposes a solution to produce the online executable model used by the metacontroller by model-to-model transformation from the engineering model, and, finally, iv) the Functional Metacontrol pattern, which proposes to structure the metacontroller in two loops, one for controlling the configuration of components of the controller, and another one on top of the former, controlling the functions being realised by that configuration; this way the functional and structural concerns become decoupled. The OM Architecture and the TOMASys metamodel are the core pieces of the architectural framework developed to reify this patterned solution. The TOMASys metamodel has been developed for representing the structure and its relation to the functional requirements of any autonomous system. The OM architecture is a blueprint for building a metacontroller according to the patterns. This metacontroller can be integrated on top of any component-based control architecture. At the core of its operation lies a TOMASys model of the control system. An engineering process and accompanying assets have been constructed to complete and exploit the architectural framework. The OM Engineering Process defines the process to follow to develop the metacontrol subsystem from the functional model of the controller of the autonomous system. The OMJava library provides a domain and application-independent implementation of an OM Metacontroller than can be used in the implementation phase of OMEP. Finally, the complete solution has been validated in the development of an autonomous mobile robot that incorporates an OM metacontroller. The functional selfawareness and adaptivity properties achieved thanks to the metacontrol system have been validated in different scenarios. In these scenarios the robot was able to overcome failures in the control system thanks to reconfigurations performed by the metacontroller.
Resumo:
Las transformaciones martensíticas (MT) se definen como un cambio en la estructura del cristal para formar una fase coherente o estructuras de dominio multivariante, a partir de la fase inicial con la misma composición, debido a pequeños intercambios o movimientos atómicos cooperativos. En el siglo pasado se han descubierto MT en diferentes materiales partiendo desde los aceros hasta las aleaciones con memoria de forma, materiales cerámicos y materiales inteligentes. Todos muestran propiedades destacables como alta resistencia mecánica, memoria de forma, efectos de superelasticidad o funcionalidades ferroicas como la piezoelectricidad, electro y magneto-estricción etc. Varios modelos/teorías se han desarrollado en sinergia con el desarrollo de la física del estado sólido para entender por qué las MT generan microstructuras muy variadas y ricas que muestran propiedades muy interesantes. Entre las teorías mejor aceptadas se encuentra la Teoría Fenomenológica de la Cristalografía Martensítica (PTMC, por sus siglas en inglés) que predice el plano de hábito y las relaciones de orientación entre la austenita y la martensita. La reinterpretación de la teoría PTMC en un entorno de mecánica del continuo (CM-PTMC) explica la formación de los dominios de estructuras multivariantes, mientras que la teoría de Landau con dinámica de inercia desentraña los mecanismos físicos de los precursores y otros comportamientos dinámicos. La dinámica de red cristalina desvela la reducción de la dureza acústica de las ondas de tensión de red que da lugar a transformaciones débiles de primer orden en el desplazamiento. A pesar de las diferencias entre las teorías estáticas y dinámicas dado su origen en diversas ramas de la física (por ejemplo mecánica continua o dinámica de la red cristalina), estas teorías deben estar inherentemente conectadas entre sí y mostrar ciertos elementos en común en una perspectiva unificada de la física. No obstante las conexiones físicas y diferencias entre las teorías/modelos no se han tratado hasta la fecha, aun siendo de importancia crítica para la mejora de modelos de MT y para el desarrollo integrado de modelos de transformaciones acopladas de desplazamiento-difusión. Por lo tanto, esta tesis comenzó con dos objetivos claros. El primero fue encontrar las conexiones físicas y las diferencias entre los modelos de MT mediante un análisis teórico detallado y simulaciones numéricas. El segundo objetivo fue expandir el modelo de Landau para ser capaz de estudiar MT en policristales, en el caso de transformaciones acopladas de desplazamiento-difusión, y en presencia de dislocaciones. Comenzando con un resumen de los antecedente, en este trabajo se presentan las bases físicas de los modelos actuales de MT. Su capacidad para predecir MT se clarifica mediante el ansis teórico y las simulaciones de la evolución microstructural de MT de cúbicoatetragonal y cúbicoatrigonal en 3D. Este análisis revela que el modelo de Landau con representación irreducible de la deformación transformada es equivalente a la teoría CM-PTMC y al modelo de microelasticidad para predecir los rasgos estáticos durante la MT, pero proporciona una mejor interpretación de los comportamientos dinámicos. Sin embargo, las aplicaciones del modelo de Landau en materiales estructurales están limitadas por su complejidad. Por tanto, el primer resultado de esta tesis es el desarrollo del modelo de Landau nolineal con representación irreducible de deformaciones y de la dinámica de inercia para policristales. La simulación demuestra que el modelo propuesto es consistente fcamente con el CM-PTMC en la descripción estática, y también permite una predicción del diagrama de fases con la clásica forma ’en C’ de los modos de nucleación martensítica activados por la combinación de temperaturas de enfriamiento y las condiciones de tensión aplicada correlacionadas con la transformación de energía de Landau. Posteriomente, el modelo de Landau de MT es integrado con un modelo de transformación de difusión cuantitativa para elucidar la relajación atómica y la difusión de corto alcance de los elementos durante la MT en acero. El modelo de transformaciones de desplazamiento y difusión incluye los efectos de la relajación en borde de grano para la nucleación heterogenea y la evolución espacio-temporal de potenciales de difusión y movilidades químicas mediante el acoplamiento de herramientas de cálculo y bases de datos termo-cinéticos de tipo CALPHAD. El modelo se aplica para estudiar la evolución microstructural de aceros al carbono policristalinos procesados por enfriamiento y partición (Q&P) en 2D. La microstructura y la composición obtenida mediante la simulación se comparan con los datos experimentales disponibles. Los resultados muestran el importante papel jugado por las diferencias en movilidad de difusión entre la fase austenita y martensita en la distibución de carbono en las aceros. Finalmente, un modelo multi-campo es propuesto mediante la incorporación del modelo de dislocación en grano-grueso al modelo desarrollado de Landau para incluir las diferencias morfológicas entre aceros y aleaciones con memoria de forma con la misma ruptura de simetría. La nucleación de dislocaciones, la formación de la martensita ’butterfly’, y la redistribución del carbono después del revenido son bien representadas en las simulaciones 2D del estudio de la evolución de la microstructura en aceros representativos. Con dicha simulación demostramos que incluyendo las dislocaciones obtenemos para dichos aceros, una buena comparación frente a los datos experimentales de la morfología de los bordes de macla, la existencia de austenita retenida dentro de la martensita, etc. Por tanto, basado en un modelo integral y en el desarrollo de códigos durante esta tesis, se ha creado una herramienta de modelización multiescala y multi-campo. Dicha herramienta acopla la termodinámica y la mecánica del continuo en la macroescala con la cinética de difusión y los modelos de campo de fase/Landau en la mesoescala, y también incluye los principios de la cristalografía y de la dinámica de red cristalina en la microescala. ABSTRACT Martensitic transformation (MT), in a narrow sense, is defined as the change of the crystal structure to form a coherent phase, or multi-variant domain structures out from a parent phase with the same composition, by small shuffles or co-operative movements of atoms. Over the past century, MTs have been discovered in different materials from steels to shape memory alloys, ceramics, and smart materials. They lead to remarkable properties such as high strength, shape memory/superelasticity effects or ferroic functionalities including piezoelectricity, electro- and magneto-striction, etc. Various theories/models have been developed, in synergy with development of solid state physics, to understand why MT can generate these rich microstructures and give rise to intriguing properties. Among the well-established theories, the Phenomenological Theory of Martensitic Crystallography (PTMC) is able to predict the habit plane and the orientation relationship between austenite and martensite. The re-interpretation of the PTMC theory within a continuum mechanics framework (CM-PTMC) explains the formation of the multivariant domain structures, while the Landau theory with inertial dynamics unravels the physical origins of precursors and other dynamic behaviors. The crystal lattice dynamics unveils the acoustic softening of the lattice strain waves leading to the weak first-order displacive transformation, etc. Though differing in statics or dynamics due to their origins in different branches of physics (e.g. continuum mechanics or crystal lattice dynamics), these theories should be inherently connected with each other and show certain elements in common within a unified perspective of physics. However, the physical connections and distinctions among the theories/models have not been addressed yet, although they are critical to further improving the models of MTs and to develop integrated models for more complex displacivediffusive coupled transformations. Therefore, this thesis started with two objectives. The first one was to reveal the physical connections and distinctions among the models of MT by means of detailed theoretical analyses and numerical simulations. The second objective was to expand the Landau model to be able to study MTs in polycrystals, in the case of displacive-diffusive coupled transformations, and in the presence of the dislocations. Starting with a comprehensive review, the physical kernels of the current models of MTs are presented. Their ability to predict MTs is clarified by means of theoretical analyses and simulations of the microstructure evolution of cubic-to-tetragonal and cubic-to-trigonal MTs in 3D. This analysis reveals that the Landau model with irreducible representation of the transformed strain is equivalent to the CM-PTMC theory and microelasticity model to predict the static features during MTs but provides better interpretation of the dynamic behaviors. However, the applications of the Landau model in structural materials are limited due its the complexity. Thus, the first result of this thesis is the development of a nonlinear Landau model with irreducible representation of strains and the inertial dynamics for polycrystals. The simulation demonstrates that the updated model is physically consistent with the CM-PTMC in statics, and also permits a prediction of a classical ’C shaped’ phase diagram of martensitic nucleation modes activated by the combination of quenching temperature and applied stress conditions interplaying with Landau transformation energy. Next, the Landau model of MT is further integrated with a quantitative diffusional transformation model to elucidate atomic relaxation and short range diffusion of elements during the MT in steel. The model for displacive-diffusive transformations includes the effects of grain boundary relaxation for heterogeneous nucleation and the spatio-temporal evolution of diffusion potentials and chemical mobility by means of coupling with a CALPHAD-type thermo-kinetic calculation engine and database. The model is applied to study for the microstructure evolution of polycrystalline carbon steels processed by the Quenching and Partitioning (Q&P) process in 2D. The simulated mixed microstructure and composition distribution are compared with available experimental data. The results show that the important role played by the differences in diffusion mobility between austenite and martensite to the partitioning in carbon steels. Finally, a multi-field model is proposed by incorporating the coarse-grained dislocation model to the developed Landau model to account for the morphological difference between steels and shape memory alloys with same symmetry breaking. The dislocation nucleation, the formation of the ’butterfly’ martensite, and the redistribution of carbon after tempering are well represented in the 2D simulations for the microstructure evolution of the representative steels. With the simulation, we demonstrate that the dislocations account for the experimental observation of rough twin boundaries, retained austenite within martensite, etc. in steels. Thus, based on the integrated model and the in-house codes developed in thesis, a preliminary multi-field, multiscale modeling tool is built up. The new tool couples thermodynamics and continuum mechanics at the macroscale with diffusion kinetics and phase field/Landau model at the mesoscale, and also includes the essentials of crystallography and crystal lattice dynamics at microscale.
Resumo:
En la Cumbre Mundial de la Sociedad de la Información (2003 y 2005) se definen a las TIC como las principales herramientas generadoras del conocimiento necesario para lograr el desarrollo de un país, haciendo que se destinen cada vez más esfuerzos económicos y políticos a su difusión. En Perú existe una brecha digital entre zonas rurales y urbanas, que se convierte en el obstáculo principal para convertir al país en una Sociedad de la Información que traerá consigo su desarrollo. Se buscan formas eficientes de llevar a cabo proyectos para difundir la infraestructura, el uso y las habilidades relacionados con las TIC en las zonas rurales del país con el fin de reducir la brecha digital existente. Se analiza la implantación del enfoque LEADER en una zona rural peruana como el enfoque más adecuado para desarrollar este tipo de proyectos en el Perú
Resumo:
Problemas rurales y políticas públicas llevadas a cabo en el Perú hasta el año 2007, y su importancia económica y social. Intervenciones llevada a cabo en las áreas rurales peruanas por diversas instituciones.
Resumo:
El presente Trabajo Fin de Master (TFM) está inserto dentro del Programa Sepahua-Agua que Energía Sin Fronteras (ESF) desarrolla a petición de la Municipalidad peruana de Sepahua, Ucayali. El TFM es el proyecto de instalación domiciliaria y saneamiento de la primera fase de dicho programa. El Programa Sepahua-Agua surge por la preocupación de los habitantes rurales y de la municipalidad de Sepahua por la calidad del agua que tienen, tanto por el acceso al agua potable como del tratamiento de sus residuos, y que es la causante de los problemas de desnutrición infantil que la población está padeciendo. Ante la falta de capacitación técnica para resolver el problema la municipalidad de Sepahua solicitó ayuda a la ONG española ESF, que ya había trabajado en esta localidad ayudando a la Misión Dominica de El Rosario de Sepahua y que actúa de contraparte en el programa. El programa se divide en dos fases: la primera se centra en aportar una solución de agua y saneamiento para cuatro barrios ribereños de la Villa de Sepahua: San Fernando, Santa Elena, San Felipe y Santa Rosa. La segunda fase buscará la posibilidad de ofrecer a otras comunidades de la ribera del Río Urubamba el proyecto realizado en la primera fase como una solución ejecutable. La primera fase del programa empezó hace año y medio. Tras unos meses de estudio de la situación desde Madrid, se entendió como imprescindible mandar a dos técnicos para que realizaran la toma de datos necesaria para poder seguir adelante. Los dos voluntarios de ESF que fuimos a trabajar en terreno somos también alumnos del Master en Tecnología para el Desarrollo Humano y la Cooperación. Durante la estancia de seis meses se alcanzaron los siguientes resultados: una descripción topográfica de la zona del proyecto, ubicando cada vivienda de los Barrios Ribereños, sus instalaciones de agua y saneamiento actuales, las quebradas o manantes de la zona y los pozos existentes; un análisis del agua y obtención del caudal de las quebradas que se vieron como posibles captaciones; un diagnóstico de la situación actual respecto al agua y saneamiento en los Barrios Ribereños; una identificación social para conocer las peculiaridades sobre su organización social, el manejo del agua que tienen en cada barrio, su cultura del agua, sus prácticas higiénicas y el nivel de salud en el que viven; un taller de diseño con la población para conocer su opinión sobre las futuras instalaciones que se construirán en las viviendas. Con estos datos se ha podido elaborar el diseño de la solución técnica para los cuatro barrios ribereños que consiste en: una captación de agua; su acumulación y reserva en depósitos; la distribución de agua ya tratada y clorada en cada domicilio; un Núcleo Húmedo de Higiene en cada vivienda como instalación domiciliaria; el saneamiento de cada uno de esos Núcleos Húmedos de Higiene. A su vez durante la primera fase también se realizarán los siguientes trabajos: la ejecución de la solución técnica; formación de la población para que adquieran los conocimientos que les ayuden a tener conciencia de la importancia de las buenas prácticas de higiene y cuiden y obtengan el mejor uso posible de su nueva instalación; una estrategia de sostenibilidad como propuesta de administración, operación y mantenimiento teniendo en cuenta a los pobladores de los barrios; una estrategia de implementación del sistema; el monitoreo y la evaluación del proyecto ejecutado por parte de ESF. En resumen, el presente TFM se centra en el proyecto de la primera fase que consiste en: los Núcleos Húmedos de Higiene como instalación domiciliaria; el saneamiento de estos núcleos; los demás aspectos relativos a los Núcleos Húmedos de Higiene como su mantenimiento, control, buen uso por parte de la población… El proyecto de captación, reserva, cloración y distribución del agua, también presentes en la primera fase del programa, son tratados en el TFM de Alba Gómez Calvo, alumna también del Master en Tecnología para el Desarrollo Humano y la Cooperación. Ambos TFM se complementan entre si y conjuntamente forman la primera fase del Programa Sepahua-Agua.
Resumo:
El objetivo general de esta Tesis doctoral fue estudiar la influencia de diversos factores nutricionales sobre los parámetros productivos y el desarrollo del tracto digestivo de pollitas rubias destinadas a la producción de huevos comerciales. Para alcanzar este objetivo se realizaron tres experimentos donde se estudió el cereal principal, el tamaño de partícula del cereal y el nivel de energía y la presentación de los piensos. En el experimento 1 se estudió la influencia del cereal (piensos con enzimas) y la presentación del pienso sobre los parámetros productivos y las características del tracto digestivo en 576 pollitas rubias de 1 a 120 d de edad. De 1 a 45 d de la edad, se utilizaron 4 piensos experimentales organizados de forma factorial con 2 cereales al 50% de inclusión (maíz vs. trigo) y 2 presentaciones del pienso (harina vs. gránulo de 2- mm de diámetro). Cada tratamiento se replicó 6 veces (24 pollitas por réplica). De 46 a 120 d de edad todas las dietas (maíz o trigo) se ofrecieron en harina y por tanto, la única diferencia entre tratamientos fue el cereal utilizado. De 1 a 120 d de edad, las pollitas que recibieron los piensos basados en maíz tuvieron una ganancia de peso vivo (PV) superior (P < 0,05) que las que recibieron los piensos basados en trigo, pero el índice de conversión (IC) fue similar para ambos grupos. De 1 a 45 d de edad, las pollitas alimentadas con gránulo consumieron más pienso (P < 0,001) y tuvieron una ganancia de peso superior (P < 0,001) que las pollitas alimentadas con harina. Gran parte de los efectos beneficiosos de la granulación sobre los parámetros productivos se mantuvieron al final de la prueba (120 d de edad). A los 45 d de edad, el peso relativo de la molleja (PR; g/kg PV) fue superior (P < 0,01) en pollitas alimentadas con maíz que en pollitas alimentadas con trigo. La alimentación en gránulo redujo el PR del tracto gastro intestinal (TGI) y de la molleja (P < 0,001), así como la longitud relativa (LR; cm/kg PV) del intestino delgado (P< 0.01) a ambas edades (45 y 120 d de edad). El tipo de cereal utilizado no afectó al pH del contenido de la molleja a 120 d de edad pero fué inferior (P < 0,01) en las pollitas que recibieron el pienso en harina de 1 a 45 d de la edad que en las que recibieron el pienso en gránulo. Se concluye que el trigo puede substituir al maíz en piensos para pollitas si se acepta una ligera reducción en la ganancia de peso. Asímismo, la alimentación en gránulo de 1 a 45 d de edad aumentó la ganancia de peso a esta edad y al final de la prueba, así como el pH de la molleja a 120 d de edad. La presentación del pienso en gránulo redujo el PR de la molleja y la LR del TGI a 120 d de edad. En el experimento 2 se utilizaron un total de 864 pollitas rubias Hy-Line de 1 d de edad para estudiar la influencia del cereal de la dieta (500 g de maíz o trigo/kg) y el tamaño de partícula del mismo (molienda con molino de martillos con un diámetro de criba de 6, 8, o 10-mm) sobre los parámetros productivos y las características del TGI de 1 a 120 d de edad. Cada uno de los 6 tratamientos se replicó 6 veces (24 pollitas por réplica). De 1 a 45 d de edad, la ganancia de PV aumentó (P< 0,001) y el IC se mejoró (P < 0,05) al reducir el tamaño de partícula del cereal, pero no se observaron diferencias en el periodo crecimiento de 45 a 120 d de edad. A los 45 d de vida, las pollitas alimentadas con maíz tendieron (P < 0,10) a tener un mayor PR del TGI y del proventrículo y una mayor LR del intestino delgado que las pollitas alimentadas con trigo. Asímismo, el PR del TGI a esta edad, aumentó (P < 0,05) a medida que aumentaba el tamaño de partícula del cereal utilizado. A los 120 d de edad, el tratamiento no afectó el PR de ninguno de los órganos del TGI ni al pH de la molleja. Sin embargo, la LR del intestino delgado fue superior (P < 0,05) para las pollitas alimentadas con trigo que para las pollitas alimentadas con maíz. La LR del TGI se redujó (P < 0,05) al aumentar el tamaño de partícula del cereal. Se concluye que el trigo puede incluirse 500 g/kg en piensos de pollitas de 1 a 120 días de edad y que el tamaño de partícula de los cereales afecta el crecimiento de las pollitas durante los primeros 45 d de vida, pero no después. Por lo tanto, se recomienda moler el cereal utilizado al inicio del período de recría (1 a 45 d de edad) con una criba de diámetro igual o inferior a 8 mm. En el experimento 3 se utilizaron un total de 1.152 pollitas rubias Hy-Line de 1 d de edad para estudiar la influencia del nivel de energía de la dieta y la presentación del pienso sobre la productividad y las características del TGI. De 1 a 45 d de edad se utilizaron 6 piensos organizados de forma factorial con 3 concentraciones energéticas (baja: 11,44 MJ; media: 12,05 MJ y alta: 12,66 MJ/kg) y 2 presentaciones del pienso (harina vs. gránulo). De 45 a 120 d todos los piensos experimentales se suministraron en forma de harina y por tanto, la única diferencia entre tratamientos fue el nivel de EMAn utilizado. Cada uno de los 6 tratamientos se replicó 8 veces y la unidad experimental fue la jaula con 24 pollitas. De 1 a 120 d de edad, la ganancia de PV y el IC mejoraron a medida que aumentó la EMAn del pienso (P < 0,001). Las pollitas alimentadas con gránulo de 1 a 45 d de edad comieron mas y tuvieron una ganancia de peso superior (P < 0,001) que las alimentadas con harina. En el global de la prueba, la ganancia de PV fue mayor (P < 0,01) para las pollitas alimentadas con piensos en gránulo. A los 45 d de edad, el PR de todos los segmentos del TGI estudiados fue inferior para las pollitas alimentadas con piensos de alta energía que para las pollitas alimentadas con piensos de media o baja energía. A 120 d de edad, el PR de la molleja fue superior (P < 0,01) para las pollitas alimentadas con piensos de baja energía que con los otros piensos. Sin embargo, la LR del TGI no se vió afectada por el nivel de energía de los piensos. A los 45 d de edad, la alimentación con gránulo redujo el PR del proventrículo (P < 0,05), de la molleja (P < 0,001) y del TGI (P < 0.001), así como la LR del intestino delgado (P < 0,05) y de los ciegos (P < 0,001). A pesar de que las pollitas solo recibieron los piensos en gránulo durante los primeros 45 d de vida, la alimentación con gránulos redujo el PR de la molleja y del proventrículo a 120 d de edad. Se concluye que la alimentación con gránulos durante los primeros 45 d de vida mejora el consumo de pienso y el PV de las pollitas a 120 d de edad. Un aumento del nivel de energía de la dieta de 12,0 a 12,7 MJ/kg mejora los parámetros productivos de 1 a 120 d de edad pero reduce el tamaño del proventrículo y de la molleja. En base de estos resultados concluimos que maíz y trigo con enzimas pueden utilizarse indistintamente en piensos para pollitas de 1 a 120 d de edad con sólo una ligera disminución del PV final con trigo. La granulación y la reducción del tamaño de partícula del cereal del pienso de primera edad (1 a 45 d de vida) y el uso de piensos de alta densidad energética, mejoran los PV a 120 d de edad. Por lo tanto, es recomendable moler los cereales con cribas de no más de 8-mm de diámetro. También, la granulación del pienso y el uso de piensos de alta energía (pobres en fibra bruta) pueden reducir el desarrollo del TGI especialmente de la molleja, lo que puede perjudicar el consumo posterior de pienso durante el inicio del ciclo de puesta. ABSTRACT The general objective of this Thesis was to study the effect of different nutritional factors on productive performance and the development of the gastrointestinal tract (GIT) of commercial brown egg-laying pullets from 1 to 120 d of age. In this respect, the influence of type and particle size of the cereal, and feed form, and energy content of the die,t were studied in 3 experiments. In experiment 1, the influence of the main cereal and feed form of the diet on performance and GIT traits was studied in 576 brown-egg laying pullets from 1 to 120 d of age. From 1 to 45 d of age, 4 diets arranged factorially with 2 cereals (maize vs. wheat) and 2 feed forms (mash vs. pellets) were used. Each treatment was replicated 6 times (24 pullets per replicate). From 46 to 120 d of age, all diets were offered in mash form and therefore, the only difference among diets was the cereal used. Cumulatively, pullets fed the maize diets had higher body weight (BW) gain (P< 0.05) but similar feed conversion ratio (FCR) than pullets fed the wheat diets. From 1 to 45 d of age, pullets fed pellets consumed more feed (P < 0.001) and had higher BW gain (P < 0.001) than pullets fed mash. Most of the beneficial effects of pelleting on productive performance of the birds were still evident at 120 d of age. At 45 d of age, gizzard relative weight (RW; g/kg BW) was higher (P < 0.01) in pullets fed maize than in pullets fed wheat. Feeding pellets reduced the RW of the GIT and the gizzard (P < 0.001) as well as the relative length (RL; cm/kg BW) of the small intestine (SI, P < 0.01) at both ages. The pH of the gizzard contents at 120 d of age was not affected by the main cereal of the diet, but was lower in pullets fed mash from 1 to 45 d of age (P < 0.01) than in pullets fed pellets. We conclude that wheat supplemented with enzymes can be used in substitution of maize in pullet diets with only a slight reduction in BW gain at 120 d of age. Also, feeding pellets from 1 to 45 d of age increased BW gain and pH of the gizzard, and reduced the RW of the gizzard and the RL of the GIT at 120 d of age. In experiment 2, a total of 864 brown-egg laying pullets was used to study the effects of the main cereal of the diet (500 g maize or wheat/kg) and particle size of the cereal (hammer milled to pass through a 6, 8, and 10-mm screen) on growth performance and GIT traits from 1 to 120 d of age. Each of the 6 treatments was replicated 6 times (24 pullets per replicate). Type of cereal did not affect pullet performance at any age. From 1 to 45 d of age, BW gain was increased (P < 0.001) and FCR was improved (P < 0.05) as the particle size of the cereal was reduced, but no effects were observed after this age. At 45 d of age, pullets fed maize tended (P < 0.10) to have a heavier RW of the GIT and proventriculus and a higher relative length (RL, cm/kg BW) of the SI than pullets fed wheat. Also at this age, the RW of the GIT increased (P < 0.05) with increases in particle size of the cereal. At 120 d of age, dietary treatment did not affect the RW of any of the organs studied or gizzard pH, but the RL of the SI was higher (P < 0.05) for pullets fed wheat than for pullets fed maize. Also, the RL of the SI was reduced (P < 0.05) as the particle size of the cereal increased. We conclude that 500 g wheat/kg can be included in pullet feeds from 1 to 120 d of age, and that particle size of the cereal affects pullet performance during the first 45 d of life but not thereafter. Therefore, it is recommended to grind the cereal used in this period with a screen size of no more than 8-mm. In experiment 3, a total of 1,152 one-day-old Hy-Line Brown egg laying pullets were used to study the influence of the energy content of the diet and feed form on productive performance and on several GIT traits. From 1 to 45 d of age, there were 6 diets arranged factorially with 3 concentrations of AMEn (low: 11.66 MJ/kg, medium: 12.05 MJ/kg and high: 12.66 MJ/kg) of the diet and 2 feed forms (mash vs. pellets). From 45 to 120 d all diets were fed in mash form and therefore, the only difference among treatments in this period was the energy content of the diets. Each of the 6 treatments was replicated 8 times and the experimental unit was formed by 24 pullets. Cumulatively, BW gain and FCR improved as the AMEn of the diet increased (P < 0.001). Also, pullets fed pellets from 1 to 45 d of age had higher feed intake and BW gain (P < 0.001) in this period and higher cumulative BW gain (P < 0.01) than pullets fed mash. At 45 d of age, the RWof all the segments of the GIT was lower for pullets fed the high- than for pullets fed the medium- or low- energy diets. At 120 d of age, the RW of the gizzard was higher (P < 0.01) for pullets fed the low energy diets than for pullets fed the other diets. However, the RL of the GIT was not affected by the energy content of the diet. Feeding pellets reduced the RW of the proventriculus (P < 0.05), gizzard (P < 0.001), and GIT (P < 0.001), as well as the RL of the small intestine (P < 0.05) and the ceaca (P < 0.001) at 45 d of age. The effects of feeding pellets on RW of gizzard and proventriculus were still evident at 120 d of age. We concluded that feeding pellets from 1 to 45 d of age improved feed intake and BW of pullets at 120 d of age and that an increase in the energy content of the diet increased pullet performance at all ages but reduced the RW of the proventriculus and gizzard. We conclude that maize and wheat can be used indistinctly in diets for egg laying pullets from 1 to 120 d of age, with only a slight reduction in final BW when wheat is used. Also, particle size of the cereal affects pullet performance during the first 45 d of life but not thereafter. Pelleting of the feeds, and grinding the cereal with a screen size of no more than 8-mm from 1 to 45 d of age, and the use of high density energy diets are recommended in order to achieve adequate target BW at 120 d of age. However, pelleting of the feed, very fine grinding, and the use of high AMEn diets might hinder the development of the GIT, especially that of the gizzard, which might affect feed intake of laying hens especially at the beginning of the production cycle.
Resumo:
En la actualidad la humanidad se enfrenta a una serie de problemas de gran transcendencia que van a determinar en alto grado los niveles de calidad de vida en los próximos años. El calentamiento global, el incremento demográfico incontrolado, la contaminación ambiental y la escasez de recursos así como una mala distribución de los mismos, son sólo algunos ejemplos. En este contexto, las microalgas, microrganismos fotosintéticos de alta eficiencia y versatilidad, presentan una serie de características que las convierten a priori en la base de una tecnología con un enorme potencial para formar parte de la solución a estos graves problemas planteados. Uno de los principales factores que impiden una mayor implantación de la tecnología de microalgas es de tipo económico. La baja productividad por unidad de área de los sistemas de cultivo actuales y la alta inversión necesaria en equipos y mantenimiento, hace que solo se justifique el cultivo de productos de muy alto valor añadido. Las soluciones pasan por aumentar el rendimiento global de los cultivos y por disminuir los costes de equipos e instalaciones. La presente tesis investiga sobre la posibilidad de conseguir un mejor aprovechamiento de la luz solar incidente sobre un cultivo de microalgas mediante el uso de una serie de dispositivos ópticos que vienen a denominarse intensificadores lumínicos. De entre los factores que determinan la productividad de un campo de cultivo de microalgas, posiblemente el más determinante sea la cantidad de radiación que las microalgas pueden aprovechar. Los intensificadores aumentan la disponibilidad de luz en el interior de los tubos de cultivo, de forma que la fotosíntesis se vea favorecida y, de este modo, se incremente la tasa de crecimiento de las microalgas. En el desarrollo de la tesis se proponen tres tipologías diferentes de intensificador diseñadas en base a criterios óptico-geométricos. Para cada una de estas tipologías se evalúa el incremento de radiación que se lograría sobre un tubo de cultivo. Paralelamente se desarrolla un modelo que permite la evaluación de la productividad del cultivo. Esto permite añadir el factor biológico al puramente óptico-físico y valorar las distintas propuestas de intensificadores en función de las características propias del microalga utilizada en el cultivo. El modelo es verificado y contrastado frente a datos de producción obtenidos en la bibliografía. Finalmente, la exposición concluye con una presentación general de las futuras líneas de investigación. ABSTRACT Today, humanity is facing a series of problems of global significance that will determine the standard of living in the years ahead. Global warming, uncontrolled population growth, pollution, lack of resources and poor distribution of them are just an example of the challenges we are facing. In this context, microalgae, high efficient photosynthetic microorganisms, have a number of characteristics that turn them into a very promising technology that can contribute or be part of a sustainable solution. One of the main factors preventing the adoption of microalgae technology is economical. The low productivity per unit area of current farming systems and the high investment needed in equipment and maintenance, only justifies the cultivation of algae for high value applications. One solution could be increasing the overall yield of the crops and reduce the equipment and facilities costs. Among the factors that determine the productivity of a microalgae culture, possibly the most influential one is the amount of radiation that microalgae receive. This Thesis develops the possibility of making better use of the sunlight radiation incident on a crop field using a series of devices similar to solar collectors. The solar collectors proposed are intended to increase the availability of light inside the culture tubes and within it, the tax of photosynthesis and the overall growth rate of the microalgae. In this research, three different configurations of collectors are designed, based on optical and geometrical criteria. For each one of these collectors, the increase on radiation that would be expected is evaluated. Furthermore, a model for light distribution inside the culture is developed in terms to estimate the biomass productivity. This allows adding the biological factor to purely optical-physical considerations and to assess the different solar collectors proposed, in terms specific for the microalgae. The model is tested against production data obtained in different scientific literature. Finally, the exposition concludes with some guidelines for future research.
Resumo:
El yacimiento de Pasto Bueno se localiza en el extremo nordeste del Batolito de la Cordillera Blanca, comprende diversas vetas, generalmente subverticales, asociadas al stock cuarzomonzonitico de Consuzo, datado como Terciario Superior, que intruye a las pizarras de la fm. Chicama y cuarcitas de la fm. Chimu. Las principales vetas discurren con direccion N-S cortando al stock, aunque tambien existen sistemas NE-SW asi como NW-SE encajados sobre las rocas metamorficas. La mineralogia de mena reconocida comprende wolframita (hubnerita), tetraedrita/tenantita, esfalerita y galena, en una ganga de cuarzo, fluorita, sericita, pirita y carbonatos, ademas de molibdenita, calcopirita, bornita, arsenopirita, enargita (luzonita), stolzita, scheelita, zinnwaldita, topacio, tungstita y arsenico nativo. Estudios previos han caracterizado Pasto Bueno como un yacimiento con una gran componente de greisen, con una evolucion de las vetas desde un episodio temprano esteril de 400 oC, depositando la mineralizacion economica en torno a los 220-250 oC y con un evento postumo de 175-220 oC rico en CO2. La precipitacion de la wolframita se produjo a partir de un fluido netamente hidrotermal, sin embargo, dicha precipitacion estuvo controlada por el aporte al sistema de aguas externas meteoricas y/o metamorficas. El trabajo llevado a cabo ha consistido en la realizacion de un estudio microtermometrico de las 3 principales estructuras del distrito: Consuelo, Alonso-Fenix y Chabuca, para caracterizar la evolucion del fluido mineralizador desde el stock (veta Consuelo) hacia las rocas metasedimentarias de las fm. Chicama y Chimu (manto Alonso-Fenix y veta Chabuca). Para ello se realizo un muestreo sobre el evento principal de mineralizacion. Dichas muestras se sometieron a un estudio petrografico de lamina gruesa para seleccionar las muestras optimas para el posterior estudio microtermometrico. Previamente a la obtencion de las medidas de temperatura de fusion del hielo (criotermometria) y de homogenizacion del fluido; se realizo un estudio de petrografia de inclusiones fluidas para caracterizarlas y seleccionar las representativas. La interpretacion de los resultados ha permitido confirmar la existencia de un episodio previo de alta temperatura, superior a 282 oC y un evento mineralizador con temperaturas en torno a los 200-240 oC. Sin embargo, las salinidades obtenidas son mucho menores que las previamente publicadas, en torno al 5 % peso eq. NaCl, frente a 11-17 % peso eq. NaCl. Tambien se ha observado un fluido postumo rico en CO2, pero de temperatura superior, en torno a los 270 oC. Los gradientes isotermicos muestran dos focos para dichos fluidos hidrotermales: el primero asociado al stock en la veta Consuelo, y el segundo en la veta Chabuca, asociado a la zona de cabalgamiento de las pizarras de la fm. Chicama sobre las cuarcitas de la fm. Chimu. Este segundo foco puede corresponder con los aportes externos de aguas metamorficas. Para finalizar, se dan una serie de pautas para guiar las futuras exploraciones en el yacimiento. ABSTRACT The Pasto Bueno deposit is located at the northeastern end of the Cordillera Blanca Batholith. It comprises several veins, generally subvertical, associated with the quartz-monzonite stock of Consuzo, dated as Tertiary, which intrudes the Chicama fm. slates and the Chimu fm. quartzites. The main veins trend N-S cutting the stock, although there are also NE-SW and NWSE systems, hosted by the metamorphic rocks. The ore mineralogy comprises wolframite (hubnerite), tetrahedrite/tennantite, sphalerite and galena in a gangue of quartz, fluorite, sericite, pyrite and carbonates, and minor molybdenite, chalcopyrite, bornite, arsenopyrite, enargite (luzonite), stolzite, scheelite, zinnwaldite, topaz, tungstite and native arsenic. Previous studies have characterized Pasto Bueno as a deposit with a large component of greisen, with an evolution of the veins from an early barren 400 oC event , followed by economic mineralization of about 220-250 °C and a late event of 175 -220 oC rich in CO2. Wolframite precipitation occurred from a purely hydrothermal fluid; however, this precipitation was controlled by an external flux of meteoric and/or metamorphic waters. Microthermometric studies of the 3 main structures of the district (Consuelo, Alonso-Fenix and Chabuca veins) have been carried out to depict the evolution of the mineralizing fluid coming from the stock (Consuelo vein) into the metasedimentary rocks of the Chimu and Chicama fm. (Alonso-Fenix and Chabuca veins). The sampling was performed over the main event of mineralization. These samples were subject to a quick plate petrography study in order to select the optimal samples for further microthermometry studies. Before the freezing/heating measures, a fluid inclusion petrography study was done to characterize and select the representative F.I. Interpretation of results has confirmed the existence of a previous episode of higher temperature, over 282 °C, and a mineralizing event with temperatures of about 200-240 °C. However, obtained salinities, about 5 wt% NaCl equivalents, are much lower than those previously reported, about 11-17 wt% NaCl equivalents. A last fluid, rich in CO2, but of higher temperature, about 270 oC, has been characterized. Isothermal gradients show two foci for the hydrothermal fluids: the first one associated to the Consuzo stock as shown in the Consuelo vein, and the second one related to the thrust fault which places the Chicama fm. slates over the Chimu fm. quartzites in the Chabuca vein area. This second focus may correspond to an external input of metamorphic waters. Finally, some guidelines have been given to guide future explorations.