1000 resultados para Sistemas de razonamiento basado en casos
Resumo:
La seguridad y fiabilidad de los procesos industriales son la principal preocupación de los ingenieros encargados de las plantas industriales. Por lo tanto, desde un punto de vista económico, el objetivo principal es reducir el costo del mantenimiento, el tiempo de inactividad y las pérdidas causadas por los fallos. Por otra parte, la seguridad de los operadores, que afecta a los aspectos sociales y económicos, es el factor más relevante a considerar en cualquier sistema Debido a esto, el diagnóstico de fallos se ha convertido en un foco importante de interés para los investigadores de todo el mundo e ingenieros en la industria. Los principales trabajos enfocados en detección de fallos se basan en modelos de los procesos. Existen diferentes técnicas para el modelado de procesos industriales tales como máquinas de estado, árboles de decisión y Redes de Petri (RdP). Por lo tanto, esta tesis se centra en el modelado de procesos utilizando redes de petri interpretadas. Redes de Petri es una herramienta usada en el modelado gráfico y matemático con la habilidad para describir información de los sistemas de una manera concurrente, paralela, asincrona, distribuida y no determinística o estocástica. RdP son también una herramienta de comunicación visual gráfica útil como lo son las cartas de flujo o diagramas de bloques. Adicionalmente, las marcas de las RdP simulan la dinámica y concurrencia de los sistemas. Finalmente, ellas tienen la capacidad de definir ecuaciones de estado específicas, ecuaciones algebraicas y otros modelos que representan el comportamiento común de los sistemas. Entre los diferentes tipos de redes de petri (Interpretadas, Coloreadas, etc.), este trabajo de investigación trata con redes de petri interpretadas principalmente debido a características tales como sincronización, lugares temporizados, aparte de su capacidad para procesamiento de datos. Esta investigación comienza con el proceso para diseñar y construir el modelo y diagnosticador para detectar fallos definitivos, posteriormente, la dinámica temporal fue adicionada para detectar fallos intermitentes. Dos procesos industriales, concretamente un HVAC (Calefacción, Ventilación y Aire Acondicionado) y un Proceso de Envasado de Líquidos fueron usados como banco de pruebas para implementar la herramienta de diagnóstico de fallos (FD) creada. Finalmente, su capacidad de diagnóstico fue ampliada en orden a detectar fallos en sistemas híbridos. Finalmente, un pequeño helicóptero no tripulado fue elegido como ejemplo de sistema donde la seguridad es un desafío, y las técnicas de detección de fallos desarrolladas en esta tesis llevan a ser una herramienta valorada, desde que los accidentes de las aeronaves no tripuladas (UAVs) envuelven un alto costo económico y son la principal razón para introducir restricciones de volar sobre áreas pobladas. Así, este trabajo introduce un proceso sistemático para construir un Diagnosticador de Fallos del sistema mencionado basado en RdR Esta novedosa herramienta es capaz de detectar fallos definitivos e intermitentes. El trabajo realizado es discutido desde un punto de vista teórico y práctico. El procedimiento comienza con la división del sistema en subsistemas para seguido integrar en una RdP diagnosticadora global que es capaz de monitorear el sistema completo y mostrar las variables críticas al operador en orden a determinar la salud del UAV, para de esta manera prevenir accidentes. Un Sistema de Adquisición de Datos (DAQ) ha sido también diseñado para recoger datos durante los vuelos y alimentar la RdP diagnosticadora. Vuelos reales realizados bajo condiciones normales y de fallo han sido requeridos para llevar a cabo la configuración del diagnosticador y verificar su comportamiento. Vale la pena señalar que un alto riesgo fue asumido en la generación de fallos durante los vuelos, a pesar de eso esto permitió recoger datos básicos para desarrollar el diagnóstico de fallos, técnicas de aislamiento, protocolos de mantenimiento, modelos de comportamiento, etc. Finalmente, un resumen de la validación de resultados obtenidos durante las pruebas de vuelo es también incluido. Un extensivo uso de esta herramienta mejorará los protocolos de mantenimiento para UAVs (especialmente helicópteros) y permite establecer recomendaciones en regulaciones. El uso del diagnosticador usando redes de petri es considerado un novedoso enfoque. ABSTRACT Safety and reliability of industrial processes are the main concern of the engineers in charge of industrial plants. Thus, from an economic point of view, the main goal is to reduce the maintenance downtime cost and the losses caused by failures. Moreover, the safety of the operators, which affects to social and economic aspects, is the most relevant factor to consider in any system. Due to this, fault diagnosis has become a relevant focus of interest for worldwide researchers and engineers in the industry. The main works focused on failure detection are based on models of the processes. There are different techniques for modelling industrial processes such as state machines, decision trees and Petri Nets (PN). Thus, this Thesis is focused on modelling processes by using Interpreted Petri Nets. Petri Nets is a tool used in the graphic and mathematical modelling with ability to describe information of the systems in a concurrent, parallel, asynchronous, distributed and not deterministic or stochastic manner. PNs are also useful graphical visual communication tools as flow chart or block diagram. Additionally, the marks of the PN simulate the dynamics and concurrence of the systems. Finally, they are able to define specific state equations, algebraic equations and other models that represent the common behaviour of systems. Among the different types of PN (Interpreted, Coloured, etc.), this research work deals with the interpreted Petri Nets mainly due to features such as synchronization capabilities, timed places, apart from their capability for processing data. This Research begins with the process for designing and building the model and diagnoser to detect permanent faults, subsequently, the temporal dynamic was added for detecting intermittent faults. Two industrial processes, namely HVAC (Heating, Ventilation and Air Condition) and Liquids Packaging Process were used as testbed for implementing the Fault Diagnosis (FD) tool created. Finally, its diagnostic capability was enhanced in order to detect faults in hybrid systems. Finally, a small unmanned helicopter was chosen as example of system where safety is a challenge and fault detection techniques developed in this Thesis turn out to be a valuable tool since UAVs accidents involve high economic cost and are the main reason for setting restrictions to fly over populated areas. Thus, this work introduces a systematic process for building a Fault Diagnoser of the mentioned system based on Petri Nets. This novel tool is able to detect both intermittent and permanent faults. The work carried out is discussed from theoretical and practical point of view. The procedure begins with a division of the system into subsystems for further integration into a global PN diagnoser that is able to monitor the whole system and show critical variables to the operator in order to determine the UAV health, preventing accidents in this manner. A Data Acquisition System (DAQ) has been also designed for collecting data during the flights and feed PN Diagnoser. Real flights carried out under nominal and failure conditions have been required to perform the diagnoser setup and verify its performance. It is worth noting that a high risk was assumed in the generation of faults during the flights, nevertheless this allowed collecting basic data so as to develop fault diagnosis, isolations techniques, maintenance protocols, behaviour models, etc. Finally, a summary of the validation results obtained during real flight tests is also included. An extensive use of this tool will improve preventive maintenance protocols for UAVs (especially helicopters) and allow establishing recommendations in regulations. The use of the diagnoser by using Petri Nets is considered as novel approach.
Resumo:
Los recientes desarrollos tecnológicos permiten la transición de la oceanografía observacional desde un concepto basado en buques a uno basado en sistemas autónomos en red. Este último, propone que la forma más eficiente y efectiva de observar el océano es con una red de plataformas autónomas distribuidas espacialmente y complementadas con sistemas de medición remota. Debido a su maniobrabilidad y autonomía, los planeadores submarinos están jugando un papel relevante en este concepto de observaciones en red. Los planeadores submarinos fueron específicamente diseñados para muestrear vastas zonas del océano. Estos son robots con forma de torpedo que hacen uso de su forma hidrodinámica, alas y cambios de flotabilidad para generar movimientos horizontales y verticales en la columna de agua. Un sensor que mide conductividad, temperatura y profundidad (CTD) constituye un equipamiento estándar en la plataforma. Esto se debe a que ciertas variables dinámicas del Océano se pueden derivar de la temperatura, profundidad y salinidad. Esta última se puede estimar a partir de las medidas de temperatura y conductividad. La integración de sensores CTD en planeadores submarinos no esta exenta de desafíos. Uno de ellos está relacionado con la precisión de los valores de salinidad derivados de las muestras de temperatura y conductividad. Específicamente, las estimaciones de salinidad están significativamente degradadas por el retardo térmico existente, entre la temperatura medida y la temperatura real dentro de la celda de conductividad del sensor. Esta deficiencia depende de las particularidades del flujo de entrada al sensor, su geometría y, también se ha postulado, del calor acumulado en las capas de aislamiento externo del sensor. Los efectos del retardo térmico se suelen mitigar mediante el control del flujo de entrada al sensor. Esto se obtiene generalmente mediante el bombeo de agua a través del sensor o manteniendo constante y conocida su velocidad. Aunque recientemente se han incorporado sistemas de bombeo en los CTDs a bordo de los planeadores submarinos, todavía existen plataformas equipadas con CTDs sin dichos sistemas. En estos casos, la estimación de la salinidad supone condiciones de flujo de entrada al sensor, razonablemente controladas e imperturbadas. Esta Tesis investiga el impacto, si existe, que la hidrodinámica de los planeadores submarinos pudiera tener en la eficiencia de los sensores CTD. Específicamente, se investiga primero la localización del sensor CTD (externo al fuselaje) relativa a la capa límite desarrollada a lo largo del cuerpo del planeador. Esto se lleva a cabo mediante la utilización de un modelo acoplado de fluido no viscoso con un modelo de capa límite implementado por el autor, así como mediante un programa comercial de dinámica de fluidos computacional (CFD). Los resultados indican, en ambos casos, que el sensor CTD se encuentra fuera de la capa límite, siendo las condiciones del flujo de entrada las mismas que las del flujo sin perturbar. Todavía, la velocidad del flujo de entrada al sensor CTD es la velocidad de la plataforma, la cual depende de su hidrodinámica. Por tal motivo, la investigación se ha extendido para averiguar el efecto que la velocidad de la plataforma tiene en la eficiencia del sensor CTD. Con este propósito, se ha desarrollado un modelo en elementos finitos del comportamiento hidrodinámico y térmico del flujo dentro del CTD. Los resultados numéricos indican que el retardo térmico, atribuidos originalmente a la acumulación de calor en la estructura del sensor, se debe fundamentalmente a la interacción del flujo que atraviesa la celda de conductividad con la geometría interna de la misma. Esta interacción es distinta a distintas velocidades del planeador submarino. Específicamente, a velocidades bajas del planeador (0.2 m/s), la mezcla del flujo entrante con las masas de agua remanentes en el interior de la celda, se ralentiza debido a la generación de remolinos. Se obtienen entonces desviaciones significantes entre la salinidad real y aquella estimada. En cambio, a velocidades más altas del planeador (0.4 m/s) los procesos de mezcla se incrementan debido a la turbulencia e inestabilidades. En consecuencia, la respuesta del sensor CTD es mas rápida y las estimaciones de la salinidad mas precisas que en el caso anterior. Para completar el trabajo, los resultados numéricos se han validado con pruebas experimentales. Específicamente, se ha construido un modelo a escala del sensor CTD para obtener la confirmación experimental de los modelos numéricos. Haciendo uso del principio de similaridad de la dinámica que gobierna los fluidos incompresibles, los experimentos se han realizado con flujos de aire. Esto simplifica significativamente la puesta experimental y facilita su realización en condiciones con medios limitados. Las pruebas experimentales han confirmado cualitativamente los resultados numéricos. Más aun, se sugiere en esta Tesis que la respuesta del sensor CTD mejoraría significativamente añadiendo un generador de turbulencia en localizaciones adecuadas al interno de la celda de conductividad. ABSTRACT Recent technological developments allow the transition of observational oceanography from a ship-based to a networking concept. The latter suggests that the most efficient and effective way to observe the Ocean is through a fleet of spatially distributed autonomous platforms complemented by remote sensing. Due to their maneuverability, autonomy and endurance at sea, underwater gliders are already playing a significant role in this networking observational approach. Underwater gliders were specifically designed to sample vast areas of the Ocean. These are robots with a torpedo shape that make use of their hydrodynamic shape, wings and buoyancy changes to induce horizontal and vertical motions through the water column. A sensor to measure the conductivity, temperature and depth (CTD) is a standard payload of this platform. This is because certain ocean dynamic variables can be derived from temperature, depth and salinity. The latter can be inferred from measurements of temperature and conductivity. Integrating CTD sensors in glider platforms is not exempted of challenges. One of them, concerns to the accuracy of the salinity values derived from the sampled conductivity and temperature. Specifically, salinity estimates are significantly degraded by the thermal lag response existing between the measured temperature and the real temperature inside the conductivity cell of the sensor. This deficiency depends on the particularities of the inflow to the sensor, its geometry and, it has also been hypothesized, on the heat accumulated by the sensor coating layers. The effects of thermal lag are usually mitigated by controlling the inflow conditions through the sensor. Controlling inflow conditions is usually achieved by pumping the water through the sensor or by keeping constant and known its diving speed. Although pumping systems have been recently implemented in CTD sensors on board gliders, there are still platforms with unpumped CTDs. In the latter case, salinity estimates rely on assuming reasonable controlled and unperturbed flow conditions at the CTD sensor. This Thesis investigates the impact, if any, that glider hydrodynamics may have on the performance of onboard CTDs. Specifically, the location of the CTD sensor (external to the hull) relative to the boundary layer developed along the glider fuselage, is first investigated. This is done, initially, by applying a coupled inviscid-boundary layer model developed by the author, and later by using a commercial software for computational fluid dynamics (CFD). Results indicate, in both cases, that the CTD sensor is out of the boundary layer, being its inflow conditions those of the free stream. Still, the inflow speed to the CTD sensor is the speed of the platform, which largely depends on its hydrodynamic setup. For this reason, the research has been further extended to investigate the effect of the platform speed on the performance of the CTD sensor. A finite element model of the hydrodynamic and thermal behavior of the flow inside the CTD sensor, is developed for this purpose. Numerical results suggest that the thermal lag effect is mostly due to the interaction of the flow through the conductivity cell and its geometry. This interaction is different at different speeds of the glider. Specifically, at low glider speeds (0.2 m/s), the mixing of recent and old waters inside the conductivity cell is slowed down by the generation of coherent eddy structures. Significant departures between real and estimated values of the salinity are found. Instead, mixing is enhanced by turbulence and instabilities for high glider speeds (0.4 m/s). As a result, the thermal response of the CTD sensor is faster and the salinity estimates more accurate than for the low speed case. For completeness, numerical results have been validated against model tests. Specifically, a scaled model of the CTD sensor was built to obtain experimental confirmation of the numerical results. Making use of the similarity principle of the dynamics governing incompressible fluids, experiments are carried out with air flows. This significantly simplifies the experimental setup and facilitates its realization in a limited resource condition. Model tests qualitatively confirm the numerical findings. Moreover, it is suggested in this Thesis that the response of the CTD sensor would be significantly improved by adding small turbulators at adequate locations inside the conductivity cell.
Resumo:
La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.
Resumo:
El nuevo paradigma de computación en la nube posibilita la prestación de servicios por terceros. Entre ellos, se encuentra el de las bases de datos como servicio (DaaS) que permite externalizar la gestión y alojamiento del sistema de gestión de base de datos. Si bien esto puede resultar muy beneficioso (reducción de costes, gestión simplificada, etc.), plantea algunas dificultades respecto a la funcionalidad, el rendimiento y, en especial, la seguridad de dichos servicios. En este trabajo se describen algunas de las propuestas de seguridad en sistemas DaaS existentes y se realiza un análisis de sus características principales, introduciendo un nuevo enfoque basado en tecnologías no exclusivamente relacionales (NoSQL) que presenta ventajas respecto a la escalabilidad y el rendimiento.
Resumo:
En este librito mostramos una colección de problemas diseñados de forma colaborativa entre profesores de Farmacología de tres universidades de España y Latinoamérica durante el curso 2013-14. Son casos ideados para ser utilizados como material docente en el contexto del aprendizaje Basado en Problemas. Se trata de 11 problemas, ordenados por orden de dificultad creciente con el propósito de que sean de utilidad para los docentes en diferentes niveles de la educación universitaria, desde los cursos más elementales hasta el doctorado. En esta primera versión hemos querido que todos los problemas versen sobre alteraciones del comportamiento o trastornos de la voluntad inducidos por fármacos. En todos ellos se ha tratado de definir al paciente no solo como un sujeto clínico, sino como una persona con todos los elementos psicológicos y sociales que caracterizan a cada individuo para que los problemas se puedan abordar desde un enfoque multidisciplinar. Todos los casos que aquí se muestran han sido utilizados en el aula, con estudiantes, como elemento docente en clases reales. En algunos casos, la experiencia ha obligado a modificar el primer borrador del problema añadiendo o eliminando pistas o elementos de confusión para adecuarlo las necesidades y la forma de entender la realidad que tienen los estudiantes. Confiamos en poder sacar más versiones en cursos sucesivos, aunando los esfuerzos de más profesores y de más universidades. Cuantos más profesores y cuantas más universidades nos sumemos a este proyecto, mayores serán las sinergias y el beneficio colectivo.
Resumo:
Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad.
Resumo:
Esta tesis doctoral se inicia con el Examen de Suficiencia Investigadora, para obtener el Diploma de Estudios Avanzados (DEA), defendido ante tribunal en el año 2011. Desde un principio se comprende que, el dosier del artista en Bellas Artes, sin distinguir el lenguaje de expresión o líneas de investigación del posible autor, está potencialmente vinculado a la actividad artística profesional, en diversos territorios artísticos. Permite enseñar a otros una realidad que no es fácil de demostrar en diferentes contextos y, desarrollado y presentado adecuadamente puede generar positivas relaciones profesionales. Es altamente significativo, para quienes lo elaboran y emplean como medio de comunicación con otros agentes, pero también para quienes lo demandan en el mercado del Arte. Como es el caso de las galerías y los concursos de arte, que actualmente rigen en gran medida su uso y parte de la actividad artística joven profesional. Desde el inicio de la investigación, se encontró información sobre documentos con características similares al dosier del artista, que muestran procesos y trabajos finalizados, pero en áreas profesionales aisladas a las Bellas Artes. Se comprendió que, dichas herramientas no suplían las necesidades en su totalidad con las particularidades del recurso artístico, considerando las diferencias entre los contextos de trabajo correspondientes y las propias características de los documentos. Sólo se localizó un documento que hablaba sobre el dosier del artista, realizado por Gayoso et al. (2007). En éste, el mayor propósito es promover al dosier como un Suplemento al Título Europeo, para el sistema europass. Basado en experiencias de docentes que participan ahí como coautores, y en teorías sobre herramientas académicas de condiciones similares al dosier. Ya que no hallamos gran contenido que contribuya teórica y específicamente al planteamiento de unas pautas generales para la construcción y el uso de un dosier de artista, aquel documento pasa a ser uno de los fundamentos que estructuran y dan vida a esta tesis doctoral. Aunque no se realiza ahí un énfasis sobre el desarrollo y uso del dosier, ello se convierte en la principal finalidad de los sucesivos estudios y análisis para la investigación: encontrar información real y más precisa sobre las características del dosier, su creación y uso...
Resumo:
La presente tesis es un estudio dedicado a la optimización y desarrollo de sistemas del tipo juntura túnel. La metodología utilizada para la realización de la tesis consistió, en primer lugar, en la optimización de las componentes independientes de la juntura túnel: electrodo y barrera aislante. Posteriormente se optimizaron los procesos de fabricación para el desarrollo y caracterización de dispositivos del tipo juntura túnel en su forma final. En la primera parte de la tesis se analizan detalladamente los resultados obtenidos de la caracterización eléctrica y topografica de barreras aislantes en sistemas electrodo - barrera. Los sistemas bicapas estudiados, GdBa_2Cu_3_7/SrTiO_3, Nb/Ba_0,05Sr_0,95TiO_3 y YBa_2Cu_3O_7/SrTiO_3, fueron caracterizados utilizando un microscopio de fuerza atómica en modo conductor. Se propuso un modelo fenomenológico basado en los resultados experimentales, que permitió la obtención de parámetros críticos para el desarrollo de dispositivos del tipo juntura túnel con nuevas funcionalidades. La información obtenida de la caracterización de los sistemas bicapas (homogeneidad de crecimiento, baja densidad de defectos y de pinholes) indican un muy buen control de los parámetros de crecimiento de las barreras. Por otro lado, se obtuvo un buen comportamiento aislante para espesores mayores a 2 nm sin la presencia de pinholes en la barrera. La similitud en la estequiometría de las barreras (SrTiO_3) permitió comparar los distintos sistemas estudiados en términos de conductividad eléctrica. Se verificó que el modelo fenomenológico permite comparar la conductividad eléctrica de los sistemas mediante uno de los parámetros definidos en el modelo fenomenológico (obtenido de los ajustes lineales de las curvas I(V)). De los 3 sistemas estudiados, las bicapas GdBa_2Cu_3O_7/SrTiO_3 presentaron un mayor valor de longitud de atenuación de los portadores de carga a través de la barrera y una muy baja densidad de defectos superficiales. Las bicapas YBa_2Cu_3O_7/SrTiO_3 y Nb/Ba_0,05Sr_0,95TiO_3 permitieron validar el modelo fenomenológico propuesto para el análisis de la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor. La segunda parte de la tesis abarca conceptos de magnetismo y microfabricación para el desarrollo de junturas túnel magnéticas. Durante la caracterización de las películas ferromagnéticas individuales de Co_90Fe_10 (CoFe) se logró aumentar valor del campo coercitivo de films de 10 nm de espesor al incrementar la temperatura de depósito. Esto se debe a un aumento del tamaño de grano de los films. El aumento de la temperatura del sustrato durante el crecimiento influye en la morfología y las propiedades magnéticas de los films de CoFe favoreciendo la formación de granos y la pérdida del eje preferencial de magnetización. Estos resultados permitieron la fabricación de sistemas Co_90Fe_10/M_gO/Co_90Fe_10 con distintas orientaciones relativas accesibles con campo magnético para el estudio del acople magnético entre los films de CoFe. La caracterización eléctrica de estos sistemas, particularmente la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor, indicó que las propiedades de transporte eléctrico de las junturas presentan un alto grado de reproducibilidad. Se analizó además la inuencia del sustrato utilizado en la corriente túnel que atraviesa la barrera aislante. Por otro lado, se discuten los fenómenos relacionados a la optimización de las propiedades magnéticas de electrodos ferromagnéticos para la fabricación de junturas túnel Co_90Fe_10/MgO/Co_90Fe_10 y Co_90Fe_10/MgO /Fe_20Ni_80. En particular, se estudió el acople magnético entre capas ferromagnéticas y la inuencia del sustrato utilizado para el crecimiento de las tricapas. La optimización de los electrodos magnéticos involucró el análisis de la inuencia de la presencia de un aislante entre dos capas magnéticas en el acople de los electrodos. Se logró el desacople de films de 10 nm de Co_90Fe_10 y Fe_20Ni_80 separados por un espaciador de MgO de 2 nm. Finalmente se detallan los pasos para la fabricación de una red de junturas túnel magnéticas y su caracterización eléctrica a bajas temperaturas. El sistema estudiado fue la tricapa Co_90Fe_10 (10 nm)/M_gO (8 nm)/ Fe_20Ni_80 (10 nm) crecido sobre un sustrato de M_gO. La caracterización eléctrica confirmó la buena calidad de la junturas fabricadas. Las junturas obtenidas presentaron un comportamiento altamente resistivo (~ MΩ). Las mediciones de la corriente túnel en función de la temperatura permitieron descartar la presencia de pinholes en la barrera. El transporte de los portadores de carga es por efecto túnel a través de la barrera aislante. Las curvas de conductancia diferencial permitieron calcular el valor medio de la altura de la barrera de potencial (φ = 3.1 eV) a partir del modelo de Brinkman. Los resultados obtenidos en cada uno de los capítulos se complementan y son relevantes para la optimización de junturas túnel, debido a que brindan información crítica para su correcto funcionamiento. En la presente tesis se lograron obtener los primeros avances para la fabricación de arreglos de junturas túnel que permitan el desarrollo de dispositivos.
Resumo:
La presente tesis es un estudio dedicado a la optimización y desarrollo de sistemas del tipo juntura túnel. La metodología utilizada para la realización de la tesis consistió, en primer lugar, en la optimización de las componentes independientes de la juntura túnel: electrodo y barrera aislante. Posteriormente se optimizaron los procesos de fabricación para el desarrollo y caracterización de dispositivos del tipo juntura túnel en su forma final. En la primera parte de la tesis se analizan detalladamente los resultados obtenidos de la caracterización eléctrica y topografica de barreras aislantes en sistemas electrodo - barrera. Los sistemas bicapas estudiados, GdBa_2Cu_3_7/SrTiO_3, Nb/Ba_0,05Sr_0,95TiO_3 y YBa_2Cu_3O_7/SrTiO_3, fueron caracterizados utilizando un microscopio de fuerza atómica en modo conductor. Se propuso un modelo fenomenológico basado en los resultados experimentales, que permitió la obtención de parámetros críticos para el desarrollo de dispositivos del tipo juntura túnel con nuevas funcionalidades. La información obtenida de la caracterización de los sistemas bicapas (homogeneidad de crecimiento, baja densidad de defectos y de pinholes) indican un muy buen control de los parámetros de crecimiento de las barreras. Por otro lado, se obtuvo un buen comportamiento aislante para espesores mayores a 2 nm sin la presencia de pinholes en la barrera. La similitud en la estequiometría de las barreras (SrTiO_3) permitió comparar los distintos sistemas estudiados en términos de conductividad eléctrica. Se verificó que el modelo fenomenológico permite comparar la conductividad eléctrica de los sistemas mediante uno de los parámetros definidos en el modelo fenomenológico (obtenido de los ajustes lineales de las curvas I(V)). De los 3 sistemas estudiados, las bicapas GdBa_2Cu_3O_7/SrTiO_3 presentaron un mayor valor de longitud de atenuación de los portadores de carga a través de la barrera y una muy baja densidad de defectos superficiales. Las bicapas YBa_2Cu_3O_7/SrTiO_3 y Nb/Ba_0,05Sr_0,95TiO_3 permitieron validar el modelo fenomenológico propuesto para el análisis de la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor. La segunda parte de la tesis abarca conceptos de magnetismo y microfabricación para el desarrollo de junturas túnel magnéticas. Durante la caracterización de las películas ferromagnéticas individuales de Co_90Fe_10 (CoFe) se logró aumentar valor del campo coercitivo de films de 10 nm de espesor al incrementar la temperatura de depósito. Esto se debe a un aumento del tamaño de grano de los films. El aumento de la temperatura del sustrato durante el crecimiento influye en la morfología y las propiedades magnéticas de los films de CoFe favoreciendo la formación de granos y la pérdida del eje preferencial de magnetización. Estos resultados permitieron la fabricación de sistemas Co_90Fe_10/M_gO/Co_90Fe_10 con distintas orientaciones relativas accesibles con campo magnético para el estudio del acople magnético entre los films de CoFe. La caracterización eléctrica de estos sistemas, particularmente la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor, indicó que las propiedades de transporte eléctrico de las junturas presentan un alto grado de reproducibilidad. Se analizó además la inuencia del sustrato utilizado en la corriente túnel que atraviesa la barrera aislante. Por otro lado, se discuten los fenómenos relacionados a la optimización de las propiedades magnéticas de electrodos ferromagnéticos para la fabricación de junturas túnel Co_90Fe_10/MgO/Co_90Fe_10 y Co_90Fe_10/MgO /Fe_20Ni_80. En particular, se estudió el acople magnético entre capas ferromagnéticas y la inuencia del sustrato utilizado para el crecimiento de las tricapas. La optimización de los electrodos magnéticos involucró el análisis de la inuencia de la presencia de un aislante entre dos capas magnéticas en el acople de los electrodos. Se logró el desacople de films de 10 nm de Co_90Fe_10 y Fe_20Ni_80 separados por un espaciador de MgO de 2 nm. Finalmente se detallan los pasos para la fabricación de una red de junturas túnel magnéticas y su caracterización eléctrica a bajas temperaturas. El sistema estudiado fue la tricapa Co_90Fe_10 (10 nm)/M_gO (8 nm)/ Fe_20Ni_80 (10 nm) crecido sobre un sustrato de M_gO. La caracterización eléctrica confirmó la buena calidad de la junturas fabricadas. Las junturas obtenidas presentaron un comportamiento altamente resistivo (~ MΩ). Las mediciones de la corriente túnel en función de la temperatura permitieron descartar la presencia de pinholes en la barrera. El transporte de los portadores de carga es por efecto túnel a través de la barrera aislante. Las curvas de conductancia diferencial permitieron calcular el valor medio de la altura de la barrera de potencial (φ = 3.1 eV) a partir del modelo de Brinkman. Los resultados obtenidos en cada uno de los capítulos se complementan y son relevantes para la optimización de junturas túnel, debido a que brindan información crítica para su correcto funcionamiento. En la presente tesis se lograron obtener los primeros avances para la fabricación de arreglos de junturas túnel que permitan el desarrollo de dispositivos.
Resumo:
La higiene de los alimentos para el consumo humano es un derecho que tienen todas las personas, pues esto les evita daños a la salud. La incidencia de las enfermedades por transmisión alimentaria ha ido en aumento, y pueden llevar en muchos casos incluso hasta la muerte. Asimismo, hay efectos negativos en el deterioro de los alimentos, significan costos y pérdidas económicas para los países. Estas son razones por las que se deben tener sistemas que aseguren la higiene de los alimentos. Los riesgos alimentarios pueden ser de tipo microbiológico, residuos de plaguicidas, utilización inadecuada de los aditivos alimentarios, contaminantes químicos, incluidas las toxinas biológicas, adulteraciones. Así también se pueden incluir organismos genéticamente modificados, alérgenos, residuos de medicamentos veterinarios y hormonas. Por estas razones, es necesario un control eficaz de la higiene para evitar las enfermedades y por el daño en alimentos a la economía de un país. Cada vez que un consumidor paga por un alimento, bien sea para consumo inmediato o para un proceso de cocción y luego ser ingerido, espera que lo puede consumir sin ningún peligro, ya que confía en que las autoridades sanitarias encargadas en cada uno de los eslabones de la cadena alimenticia (Finca, Planta, Expendio, Comercio, Transporte) han desarrollado actividades que le den la garantía al consumidor de pagar por el producto e ingerirlo sin pensar en que afectará su salud. Hoy en día, se observa, como sigue en aumento los índices de Enfermedades Transmitidas por Alimentos (ETA´s), mientras que, los esfuerzos por disminuir e identificar las fallas en el aseguramiento de la inocuidad de los alimentos en todo el proceso son insuficientes. El Gobierno de Nicaragua, ha tomado conciencia y se está preparando para los próximos desafíos que presentará el comercio mundial en cuanto a garantizar productos de alta calidad e inocuidad. Por lo tanto, el MAG para mejorar y asegurar la inocuidad de los productos de origen animal y vegetal se ha basado en la implementación del sistema HACCP cuyo enfoque principal es la seguridad alimentaria y nutricional, en conjunto con la implementación de los programas prerrequisitos como son las Buenas Prácticas Agrícolas (BPA), Buenas Prácticas de manufactura (BPM), Programas de Operación y Sanitización (SOP's).(Picado, 2002).El objetivo del presente estudio de caso fue: Contrastar la aplicación de las normas Sistemas de Análisis de Peligro y Puntos Críticos de Control (HACCP) en el periodo 2014 – 2015, en el MATADERO NICA BEEF PACKERS S.A, que funciona en el municipio de Condega, Departamento de Estelí, Nicaragua. Para alcanzar el objetivo se aplicó una metodología comparativa entre un estudio anterior y las nuevas realidades generadas en la empresa, apoyándonos para tal efecto de técnicas e instrumentos aplicados por la ciencia como son: la entrevista, la observación, el análisis documental, y programas de aplicación Microsoft Word y Excel 2010, las que fueron utilizadas pertinentemente en su momento, permitiendo el procesamiento de datos y su posterior análisis. El punto de partida de este proceso investigativo fue la búsqueda de información relacionada al objeto de estudio, determinándose los tres puntos críticos de control y las variables que influyen en el fenómeno estudiado.. Las variables tomadas en cuenta fueron: Buenas prácticas de manufacturación, Procedimientos operativos estandarizados de Higiene, Análisis de riesgos, identificación y control de puntos críticos (HACCP). En lo concerniente a la primer variable las buenas prácticas de manufactura que realiza el personal de la empresa, se cumplen en un 91 % en ambos estudios, destacándose en forma ascendente las condiciones de edificio con el 94% y el personal con 93%; la segunda variable referida a los Procedimientos Operacionales Estándares (POE), se cumplen en un 88.65 %, ubicándose en un lugar privilegiado la salud de los trabajadores al tener 99% de cumplimiento. En promedio estos prerrequisitos generales se cumplen en un 89.82 %. La tercera variable las acciones correctivas de los PCC del sistema HACCP presentaron un 95.22% de cumplimiento, mostrando así que los equipos de trabajo de la empresa tienen un alto grado de conocimiento y la práctica requerida para las labores que realizan; en esta última sobresale el PCC N°2 que en cuanto a intervención antimicrobiano tuvo el 100% de cumplimiento, y un rango aceptable en la concentración de la solución de ácido orgánico de 1.5 a 2% y pH entre 3 y 4.4 unidades después del rociado,. En el PCC N°3 relacionada a la etapa de enfriamiento, se está cumpliendo con las normas establecidas en el reglamento HACCP, manteniendo temperatura de canales ≤ 8.33333 Grados Celsius, y 24 horas de refrigeración, impidiendo todas estas aplicaciones el desarrollo de bacterias patógenas.
Resumo:
El trabajo se desarrolló con el objetivo de identificar alternativas tecnológicas disponibles en el país en ganadería de cría y conocer más profundamente las causas de la existencia de una brecha entre la oferta tecnológica y su adopción. La zona de ejecución fue Sierras del Este (Uruguay), que comprende un área de aproximadamente 1.828.000 hectáreas, con predominancia de sistemas ganaderos de cría. Las principales actividades consistieron en consensuar, con un grupo calificado de técnicos vinculados a la cría vacuna, un listado de la oferta tecnológica disponible para esos sistemas, y caracterizarla en base a atributos; y definir a través de una encuesta y análisis de grupos foco las variables socio-económicas y actitudinales de los productores de la región y su relación con el comportamiento hacia lo tecnológico. Entre los resultados obtenidos están: 1) la oferta tecnológica disponible en el país para la cría vacuna, caracterizada y priorizada; 2) las causas que han limitado una mayor incorporación tecnológica en sistemas criadores; 3) una detallada caracterización de los productores de Sierras del Este y su predisposición hacia la adopción tecnológica (estrechamente relacionada a cinco variables: escala, disponibilidad de instalaciones, asistencia a reuniones técnicas, la percepción de que el negocio consiste en producir más y el tener asistencia técnica) y 4) la identificación de los principales canales y redes de información de estos productores. Estos estudios constituyen una base sólida para elaborar un plan de transferencia de tecnología basado en una comprensión afinada del proceso de toma de decisiones tecnológicas a nivel predial.
Resumo:
Este trabajo tiene como objetivo la mejora en la validación de la simulación numérica del flujo bifásico característico del transporte de lecho fluido, mediante la formulación y desarrollo de un modelo numérico combinado Volúmenes Finitos - Elementos Finitos. Para ello se simula numéricamente el flujo de mezcla sólido-gas en una Cámara de Lecho Fluido, bajo implementación en código COMSOL, cuyos resultados son mejores comparativamente a un modelo basado en el método de Elementos Discretos implementado en código abierto MFIX. El problema fundamental de la modelización matemática del fenómeno de lecho fluido es la irregularidad del dominio, el acoplamiento de las variables en espacio y tiempo y, la no linealidad. En esta investigación se reformula apropiadamente las ecuaciones conservativas del fenómeno, tales que permitan obtener un problema variacional equivalente y solucionable numéricamente. Entonces; se define una ecuación de estado en función de la presión hidrodinámica y la fracción volumétrica de sólidos, quedando desacoplado el sistema en tres sub-problemas, garantizando así la existencia de solución del problema general. Una vez aproximados numéricamente ambos modelos, se comparan los resultados de donde se observa que el modelo materia del presente artículo, verifica de forma más eficaz las condiciones de mezcla óptima, reflejada en la calidad del burbujeo y velocidad de mezcla.
Resumo:
El objetivo esencial del trabajo es emitir una propuesta metodológica, como vía alternativa, para abordar la resolución de ciertos Sistemas de Ecuaciones Diferenciales Lineales (SEDL) expresables en forma normal, usando métodos matriciales, a partir del empleo de la diagonalimción y normalización de matrices a través de la matriz normal de Jordan y usando para ello un procedimiento único, basado en el método analítico que es empleado para resolver la ecuación diferencial lineal de primer orden dada en su forma característica, sin soslayar, la obligada extensión a este contexto. Desde el punto de vista didáctico, la metodología general que se propone, para la resolución de estos SEDL es una de sus mayores ventajas metodológicas, ya que, precisamente, proporciona una vía operacional única y fija, con las obligadas transferencias contextuales que fueron señaladas, esperándose lograr una estructuración sistémica de los contenidos asociados al tema, en aras de alcanzar mayores niveles de asequibilidad dentro del proceso de asimilación.
Resumo:
102 p.
Resumo:
El presente artículo académico busca analizar las prácticas culturales y métodos de resistencia noviolenta utilizados por las Comisiones por la Vida del Agua (CVA) de Valparaíso y la Asociación RED UNÍOS de San Vicente del Caguán, para preservar el territorio ante las políticas petroleras presentes en el Departamento del Caquetá, entre los años 2010 y 2016. A lo largo de la investigación se pretende dar cuenta de cómo dichas acciones, relacionadas en la tipificación de Gene Sharp como resistencias noviolentas, han construido una conciencia de preservación en algunas comunidades del departamento a través de los ejercicios de protesta, persuasión, intervención y no-cooperación. Para lograr dicho objetivo, se realizó un análisis de documentos de la prensa oficial del departamento del Caquetá, de las redes sociales de las dos organizaciones mencionadas y un trabajo de campo basado en entrevistas semiestructuradas a los colaboradores de las mismas.