850 resultados para Sistemas en tiempo real
Resumo:
Las masas forestales tienen una importancia colosal para nuestra sociedad y el conjunto de la biosfera. Estudios recientes a escala mundial indican que la sequía es el factor abiótico que más afecta a su crecimiento y supervivencia, seguida por las temperaturas extremas y la salinidad. Aunque comprender los mecanismos con que las especies arbóreas toleran estas formas de estrés tiene un interés aplicado evidente, dichos mecanismos se han estudiado mucho más en especies herbáceas modelo o de interés agronómico. Existen sin embargo diferencias notables entre ellas, como se demuestra en esta tesis y en otros trabajos recientes. Nuestro estudio se centra concretamente en la respuesta molecular del chopo –el sistema modelo forestal más desarrollado– al estrés abiótico, con particular énfasis en la sequía. Utilizando una estrategia proteómica y tratamientos controlados, hemos identificado componentes mayoritarios de dicha respuesta. Su participación en la misma se ha validado mediante análisis transcripcionales detallados utilizando tecnología qRT-PCR (PCR cuantitativa en tiempo real). Hemos identificado proteínas cuyo nexo funcional con mecanismos de tolerancia ya era conocido, como chaperonas moleculares sHSP o enzimas que atenúan el estrés oxidativo, pero también proteínas cuya relación funcional con el estrés es menos clara o incluso novedosa, como polifenol oxidasas (PPO), deshidrogenasas/reductasas de cadena corta (SDR), o bicupinas (BIC), entre otras. El cuerpo central de la tesis consiste en la caracterización detallada de una PPO inusual, cuya inducción por estrés hídrico se describe por vez primera. Estas enzimas están ampliamente distribuidas en plantas, si bien su número es muy variable de unas especies a otras. Algunas, como nogal, tienen un único gen, mientras que Arabidopsis no tiene ninguno. En la última versión del genoma de chopo hemos identificado un total de 12 miembros bona fide, corrigiendo trabajos previos, y hemos caracterizado su expresión individual ante diferentes situaciones de estrés controlado y tratamientos hormonales. La isoforma antedicha es el único miembro de la familia que responde claramente a la deshidratación. También responde a salinidad y a la mayor parte de tratamientos hormonales ensayados, pero no a daño mecánico o tratamientos con metil jasmonato. Esto la diferencia de enzimas homólogas presentes en otras especies de plantas, que se han relacionado experimentalmente con estrés biótico. Los patrones de acumulación de transcritos en árboles adultos son compatibles con un papel protector frente a la sequía. La integración de nuestros estudios funcionales y filogenéticos sugiere que la familia ha sufrido un proceso reciente de diversificación y neofuncionalización, siendo la protección frente a deshidratación su papel primigenio. Aunque se conoce la actividad bioquímica in vitro de este tipo de enzimas, sus sustratos naturales son esencialmente una incógnita. Mediante expresión heteróloga en Escherichia coli BL21(DE3) hemos detectado que la enzima de chopo es capaz de oxidar L-DOPA a dopaquinona, siendo menos activa frente a otros sustratos. Por otra parte, hemos demostrado su localización cloroplástica mediante transformación transitoria de protoplastos con fusiones a la proteína fluorescente YFP. Mediante la obtención de plantas transgénicas de A. thaliana hemos demostrado que la enzima de chopo aumenta considerablemente la tolerancia in vivo frente a la deshidratación y al estrés salino. El análisis fenotípico detallado de las líneas transgénicas, combinando múltiples metodologías, nos ha permitido sustanciar que la tolerancia tiene una base compleja. Esta incluye una mayor protección del sistema fotosintético, una capacidad antioxidante muy incrementada y la acumulación de solutos osmoprotectores como la prolina. Los análisis metabolómicos nos han permitido asociar la expresión de la proteína a la síntesis de un flavano no descrito previamente en A. thaliana, vinculando la enzima de chopo con la síntesis de fenilpropanoides. También hemos observado alteraciones en los niveles hormonales que podrían subyacer a efectos pleiotrópicos con interés aplicado, como un aumento consistente del tamaño de la planta o el acortamiento del ciclo de crecimiento. Además de aportar datos novedosos sobre la funcionalidad in vivo de esta familia de oxidasas, los resultados de esta tesis demuestran que los árboles son sistemas de estudio interesantes para caracterizar nuevas estrategias de tolerancia al estrés abiótico con potencial aplicado. ABSTRACT Forests masses have an extraordinary importance for our society and the biosphere. Recent worldwide studies indicate that drought is the abiotic factor that affects more their growing and survival, followed by extreme temperatures and salinity. The understanding of how the arboreal species tolerate the stress has an evident practical interest, but their mechanisms have been studied much more in herbaceous species or with agronomic interest. However, considerable differences exist between them, as this thesis and recent studies show. Our study is focused on the molecular response of the poplar –the more developed forestry model system- to abiotic stress, specifically focused in the drought. Using a proteomic strategy and controlled treatments, we have identified main components in such response. Its participation has been validated through transcriptional analysis using qRT-PCR technology. We have identified proteins whose functional connection with tolerance mechanisms were already known, as molecular chaperones sHSP or enzymes that attenuate the oxidative stress, but also some proteins whose functional relationship with the stress is less clear or even novel, as polifenol oxidases (PPO), short chain deshidrogenases/reductases (SDR), or bicupines (BIC), among others. The central body of the thesis consists of the detailed characterization of an unsual PPO, whose induction due to drought stress is first described. These enzymes are thoroughly distributed in plants, but their number of members is very variable among species. Some of them, as the walnut tree, have a single gene, while Arabidopsis has none. We have identified a total of 12 members in the last version of the poplar genome, correcting previous works, and have characterized their individual expression against different situations of controlled stress and hormone treatments. The aforementioned isoform is the only member of the family that responds clearly to the drought. It also reacts to salinity and the majority of hormonal treatments tested, but it does not respond to mechanical damage or treatments with methyl jasmonate. This is the difference with homologue enzymes present in other plant species, which have been related experimentally with abiotic stress. The accumulation patterns of transcripts in adult trees are compatible with a protector role against drought. The integration of our functional and phylogenetic studies suggests that the family has suffered a recent process of diversification and neofunctionalization, being the protection against drought their original role. Although the in vitro biochemistry activity of this kind of enzymes is already known, their natural substracts are essentially a mystery. By means of heterologous expression of Escherichia coli BL21(DE3) we have detected that the enzyme of poplar is able to oxidize L-DOPA to dopaquinone, being less active against other substrates. Additionally, we have proven its chloroplastic location with transitory transformation of protoplasts with YFP protein fusion. By means of getting transgenic plants of A. thaliana, we have demonstrated that the poplar enzyme increases notably the in vivo tolerance against the drought and salinity stresses. The phenotypic analysis of the transgenic lines, and the use of multiple methodologies, allowed us to test the complexity of the tolerance. This includes a major protection of the photosynthetic system, a very increased antioxidant capacity and the accumulation of osmoprotectant solutes as the proline. The metabolic analysis has allowed to associate the protein expression with the synthesis of a Flavan non described previously in A. thalaiana, linking the enzyme of poplar with the synthesis of phenylpropanoids. We have observed alterations in the hormonal levels that could underlie pleiotropic effects with applied interest, as a consistent increase of the size of the plant and the reduction of the growth cycle. The results of this thesis, in addition to provide novel data about the in vivo functionality of the oxidase family, demonstrate that the trees are interesting systems of study to characterize new strategies of tolerance against abiotic stress with applied potential.
Resumo:
Este proyecto consiste en el diseño e implementación de un procesador digital de efectos de audio en tiempo real orientado a instrumentos eléctricos tales como guitarras, bajos, teclados, etc. El procesador está basado en la tarjeta Raspberry Pi B+, ordenador de placa reducida de bajo coste, desarrollado en Reino unido y cuyo lanzamiento tuvo lugar en el año 2012. En primer lugar, ha sido necesario lograr que la tarjeta asuma la funcionalidad de un procesador de audio en tiempo real. Para ello se ha instalado un sistema operativo Linux orientado a Raspberry (Raspbian) y se ha hecho uso de Pure Data (Pd): lenguaje de programación gráfico que fue desarrollado en los años 90 por Miller Puckette con intención de ser enfocado a la creación de eventos multimedia y de música por computador. El papel que desempeña Pd es de capa intermedia entre el hardware y el software ya que se encarga de tomar bloques de N muestras del convertidor analógico/digital y encaminarlas a través del flujo de señal diseñado gráficamente. En segundo lugar, se han implementado diferentes efectos de audio de distintas características. Así pues, se encuentran efectos basados en retardos, filtros digitales y procesadores de dinámica. Concretamente, los efectos implementados son los siguientes: delay, flanger, vibrato, reverberador de Schroeder, filtros (paso bajo, paso alto y paso banda), ecualizador paramétrico y compresor y expansor de dinámica. Estos efectos han sido implementados en lenguaje C de acuerdo con la API de Pd. Con esto se ha conseguido obtener un objeto por cada efecto, el cual es “instanciado” en Pd pudiendo ejecutarlo en tiempo real. En este proyecto se expone la problemática que supone cada paso del diseño proponiendo soluciones válidas. Además se incluye una guía paso a paso para configurar la tarjeta y lograr realizar un bypass de señal y un efecto simple partiendo desde cero. ABSTRACT. This project involves the design and implementation of a digital real-time audio processor for electrical instruments (guitars, basses, keyboards, etc.). The processor is based on the Raspberry Pi B + card: low cost computer, developed in UK in 2012. First, it was necessary to make the cards assume the functionality of a real time audio processor. A Linux operating system called Raspberry (Raspbian) was installed. In this Project is used Pure Data (Pd): a graphical programming language developed in the 90s by Miller Puckette intending to be focused on creating multimedia and computer music events. The role of Pd is an intermediate layer between the hardware and the software. It is responsible for taking blocks of N samples of the analog/digital converter and route it through the signal flow. Secondly, it is necessary to implemented the different audio effects. There are delays based effects, digital filter and dynamics effects. Specifically, the implemented effects are: delay, flanger, vibrato, Schroeder reverb, filters (lowpass, highpass and bandpass), parametric equalizer and compressor and expander dynamics. These effects have been implemented in C language according to the Pd API. As a result, it has been obtained an object for each effect, which is instantiated in Pd. In this Project, the problems of every step are exposed with his corresponding solution. It is inlcuded a step-by-step guide to configure the card and achieve perform a bypass signal process and a simple effect.
Resumo:
La teoría de reconocimiento y clasificación de patrones y el aprendizaje automático son actualmente áreas de conocimiento en constante desarrollo y con aplicaciones prácticas en múltiples ámbitos de la industria. El propósito de este Proyecto de Fin de Grado es el estudio de las mismas así como la implementación de un sistema software que dé solución a un problema de clasificación de ruido impulsivo, concretamente mediante el desarrollo de un sistema de seguridad basado en la clasificación de eventos sonoros en tiempo real. La solución será integral, comprendiendo todas las fases del proceso, desde la captación de sonido hasta el etiquetado de los eventos registrados, pasando por el procesado digital de señal y la extracción de características. Para su desarrollo se han diferenciado dos partes fundamentales; una primera que comprende la interfaz de usuario y el procesado de la señal de audio donde se desarrollan las labores de monitorización y detección de ruido impulsivo y otra segunda centrada únicamente en la clasificación de los eventos sonoros detectados, definiendo una arquitectura de doble clasificador donde se determina si los eventos detectados son falsas alarmas o amenazas, etiquetándolos como de un tipo concreto en este segundo caso. Los resultados han sido satisfactorios, mostrando una fiabilidad global en el proceso de entorno al 90% a pesar de algunas limitaciones a la hora de construir la base de datos de archivos de audio, lo que prueba que un dispositivo de seguridad basado en el análisis de ruido ambiente podría incluirse en un sistema integral de alarma doméstico aumentando la protección del hogar. ABSTRACT. Pattern classification and machine learning are currently expertise areas under continuous development and also with extensive applications in many business sectors. The aim of this Final Degree Project is to study them as well as the implementation of software to carry on impulsive noise classification tasks, particularly through the development of a security system based on sound events classification. The solution will go over all process stages, from capturing sound to the labelling of the events recorded, without forgetting digital signal processing and feature extraction, everything in real time. In the development of the Project a distinction has been made between two main parts. The first one comprises the user’s interface and the audio signal processing module, where monitoring and impulsive noise detection tasks take place. The second one is focussed in sound events classification tasks, defining a double classifier architecture where it is determined whether detected events are false alarms or threats, labelling them from a concrete category in the latter case. The obtained results have been satisfactory, with an overall reliability of 90% despite some limitations when building the audio files database. This proves that a safety device based on the analysis of environmental noise could be included in a full alarm system increasing home protection standards.
Resumo:
La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.
Resumo:
La percepción de profundidad se hace imprescindible en muchas tareas de manipulación, control visual y navegación de robots. Las cámaras de tiempo de vuelo (ToF: Time of Flight) generan imágenes de rango que proporcionan medidas de profundidad en tiempo real. No obstante, el parámetro distancia que calculan estas cámaras es fuertemente dependiente del tiempo de integración que se configura en el sensor y de la frecuencia de modulación empleada por el sistema de iluminación que integran. En este artículo, se presenta una metodología para el ajuste adaptativo del tiempo de integración y un análisis experimental del comportamiento de una cámara ToF cuando se modifica la frecuencia de modulación. Este método ha sido probado con éxito en algoritmos de control visual con arquitectura ‘eye-in-hand’ donde el sistema sensorial está compuesto por una cámara ToF. Además, la misma metodología puede ser aplicada en otros escenarios de trabajo.
Resumo:
El reciente crecimiento masivo de medios on-line y el incremento de los contenidos generados por los usuarios (por ejemplo, weblogs, Twitter, Facebook) plantea retos en el acceso e interpretación de datos multilingües de manera eficiente, rápida y asequible. El objetivo del proyecto TredMiner es desarrollar métodos innovadores, portables, de código abierto y que funcionen en tiempo real para generación de resúmenes y minería cross-lingüe de medios sociales a gran escala. Los resultados se están validando en tres casos de uso: soporte a la decisión en el dominio financiero (con analistas, empresarios, reguladores y economistas), monitorización y análisis político (con periodistas, economistas y políticos) y monitorización de medios sociales sobre salud con el fin de detectar información sobre efectos adversos a medicamentos.
Resumo:
Social Rankings es una aplicación web que realiza un seguimiento en tiempo real de entidades en las redes sociales. Detecta y analiza las opiniones sobre estas entidades utilizando técnicas de análisis de sentimientos para generar un informe visual de su valoración y su evolución en el tiempo.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Hoy en día la mayor parte de los sensores de energía IoT (Internet of Things) están orientados a la medida de corriente alterna (AC). No son aptos para monitorizar equipos que no estén conectados a la red eléctrica (baterías, paneles fotovoltaicos, etc.) o que formen parte de otros equipos más grandes y que estén situados detrás del transformador (ej. aceleradores de cómputo en supercomputadores). El presente trabajo tiene como objetivo principal construir un sistema, con una instalación sencilla y reducida, que permita la monitorización de consumo de dispositivos conectados a corriente continua. Toda la información recogida será mostrada a través de una interfaz web, que nos permitirá observar los cambios en el consumo en tiempo real con un intervalo de actualización especificado por el usuario. Además el sistema será robusto, con bajo coste de implementación y permitirá una alta escalabilidad, ya que el objetivo del proyecto es que sea escalable a nivel de centro de datos o institución.
Resumo:
Se han desarrollado cuatro mejoras en los proyectos de simulación de flujo de tráfico en tiempo acelerado. Los proyectos [1] y [2] realizan una simulación de flujo de tráfico en un CAS, Maxima, y usan Java, para realizar la GUI. Ambos usan Jacomax para realizar la comunicación Java-Maxima. La primera ha sido implementar un algoritmo Dijkstra difuso en [2] que simule (de forma más real que el algoritmo Dijkstra), el camino que sigue un vehículo entre un origen y un destino, dentro de un mapa (un grafo) que representa una zona de Málaga. Además, se ha personalizado el grafo inicial asociando uno ponderado a cada vehículo, en el cual, las aristas (las calles) tienen un peso calculado con una uniforme o una normal. Para ganar en rendimiento en [1] y [2], se ha permitido al usuario decidir cada cuantos pasos en Maxima se comunica con Java, eliminando así muchas comunicaciones que resultaban lentas. Además, se ha creado un programa con Java, el cual crea un paquete Maxima con las funciones de distribución, densidad, masa, variables aleatorias, que el usuario desee, dando la posibilidad de elegir entre las más usuales ya implementadas. Este paquete puede ser cargado en [1] y [2] permitiendo al usuario elegir la función de distribución que más se asemeje al fenómeno que se desea simular. La última ha sido conseguir que funcionen los proyectos [1] y [2] en una máquina Mac.
Resumo:
150 p.
Resumo:
176 p.
Resumo:
Introducción. A pesar de los esfuerzos tanto de la medicina como de la industria farmacéutica, el incremento en la prevalencia de resistencia en bacterias patógenas frente a antibióticos se ha vuelto uno de los mayores problemas en la medicina moderna. El área odontológica tampoco se encuentra exenta, siendo común el uso excesivo de antibióticos lo que contribuye al desarrollo de resistencia antimicrobiana. La primera etapa para el desarrollo de la enfermedad periodontal es la formación de un biofilm de bacterias periodontopatógenas, siendo el Aggregaribacter actinomycetemcomitans (A.a) uno de los más asociados a dicha enfermedad. El tratamiento de esta patología se basa en remover mecánicamente la placa dentobacteriana y, en segunda instancia, en el apoyo de terapia antimicrobiana para coadyuvar la eliminación de las bacterias periodontopatógenas, cuales tienen gran similitud con Mycobacterium tuberculosis. La rifampicina es uno de los antibióticos efectivos contra bacterias multi-resistentes y la primera elección en el tratamiento de tuberculosis activa. Con el fin de mejorar la terapia farmacológica y evadir la resistencia del agente infectivo, se han propuesto nuevas estrategias basadas en sistemas de liberación controlada. Entre los más estudiados en los últimos 10 años se encuentran las nanopartículas poliméricas. El objetivo del presente estudio fue evaluar la actividad antimicrobiana de la rifampicina nanoencapsulada contra el A.a presente en la periodontitis. Materiales y Métodos. Para el estudio, Se tomaron muestras de fluido crevicular en pacientes con bolsas periodontales de 5-10 mm de profundidad. Se inoculo caldo de tripticaseina de soya (TCS) con las muestras tomadas y se incubaron a 37 ° C en condiciones aeróbicas por 7 días. La presencia de Aggregatibacter actinomycetemcomitans (A.a) fue determinado mediante PCR en tiempo real. La Concentración Mínima Inhibitoria (MIC) de rifampicina para interferir con el crecimiento de bacterias orales fue determinada mediante la técnica de dilución de tubos. Posteriormente se prepararon mediante la técnica de nanoprecipitación NP de Eudragit® EPO, L100-55 y PLA entre 100 y 200 nm y su IP con distribución de tamaño homogéneo. Resultados. A.a fue detectado en muestras de fluido crevicular en pacientes con periodontitis, corroborando su asociación con dicha patología. La efectividad de la rifampicina libre contra bacterias orales fue confirmada, obteniéndose una CMI de 1 µg/ml. Las NP con Rifampicina se ajustaron a la misma CMI que la Rif libre. Las NP de Eudragit® EPO cargadas con Rif mostraron que la liberación de la Rif de la NP fue inmediata, mientras que el Eudragit® L100-55 y PLA con Rif no mostró inhibición durante los 5 días de incubación. Esto hace suponer que el fármaco no fue liberado o solo se liberó en una baja proporción que no permitió llegar a la CMI. Conclusión. La rifampicina es una excelente alternativa terapéutica para el tratamiento de la enfermedad periodontal, promoviendo resultados favorables en la evaluación clínica de pacientes. Sería interesante continuar con estudios utilizando otro polímero o mezcla de ellos para favorecer la liberación del fármaco en la NP.
Resumo:
Mantener y asegurar la cadena del frío en el transporte de alimentos perecederos es uno de los aspectos más importantes que deben tener en cuenta las empresas de logística y cadenas de venta al consumidor. Con el control de la cadena del frío se puede asegurar tanto unos mínimos de calidad como de seguridad del producto en cuestión. Para asegurar el cumplimiento de la cadena de frío en el transporte de alimentos (o medicamentos) existen actualmente multitud de sistemas o dispositivos en el mercado que pueden cumplir perfectamente ese papel. Algunos de ellos son sistemas que únicamente informan al operario en destino si se ha producido una ruptura de la cadena del frío sirviendo como control de calidad previo a la venta de los alimentos, pero por el contrario otros sistemas sí que realizan un control exhaustivo de la cadena de frío en tiempo real dando una mayor capacidad de reacción a la empresa logística o cadena de venta para subsanar cuanto antes esa ruptura en la cadena del frío. Es este tipo de sistemas en el que se va a basar este proyecto. Por ello con la ayuda de la arquitectura IoT se mejorarán las principales ventajas que tienen este tipo de sistemas (funcionalidad) y disminuirán o incluso eliminarán las desventajas que tienen este tipo de sistemas, principalmente coste (objetivo más importante del proyecto) y dificultad de instalación.