955 resultados para Complete Urethral Duplication, Effman Classification, IIA1 Type,Surgical Repair


Relevância:

30.00% 30.00%

Publicador:

Resumo:

We consider the classification up to a Möbius transformation of real linearizable and integrable partial difference equations with dispersion defined on a square lattice by the multiscale reduction around their harmonic solution. We show that the A1, A2, and A3 linearizability and integrability conditions constrain the number of parameters in the equation, but these conditions are insufficient for a complete characterization of the subclass of multilinear equations on a square lattice.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diabetes is the most common disease nowadays in all populations and in all age groups. diabetes contributing to heart disease, increases the risks of developing kidney disease, blindness, nerve damage, and blood vessel damage. Diabetes disease diagnosis via proper interpretation of the diabetes data is an important classification problem. Different techniques of artificial intelligence has been applied to diabetes problem. The purpose of this study is apply the artificial metaplasticity on multilayer perceptron (AMMLP) as a data mining (DM) technique for the diabetes disease diagnosis. The Pima Indians diabetes was used to test the proposed model AMMLP. The results obtained by AMMLP were compared with decision tree (DT), Bayesian classifier (BC) and other algorithms, recently proposed by other researchers, that were applied to the same database. The robustness of the algorithms are examined using classification accuracy, analysis of sensitivity and specificity, confusion matrix. The results obtained by AMMLP are superior to obtained by DT and BC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundamento de la tesis: Al comienzo del siglo XX, el interés por el turismo unido a la necesidad de restaurar un abundante patrimonio histórico, posibilitó en España que los poderes públicos se embarcaran en una singular experiencia: la creación de una infraestructura hotelera a partir de la rehabilitación de edificios históricos. La preservación, mantenimiento e incluso rentabilidad de una gran parte del patrimonio español se haría efectiva a través de la innovadora fórmula patrimonio‐turismo, cuya máxima expresión se materializó en la Red de Paradores desde su fundación en la segunda década del siglo pasado hasta nuestros días. Sorprendentemente, este tema no ha sido todavía investigado en su vertiente arquitectónica pese a que España ha sido pionera y modelo en la cuestión de la hotelería pública. Este trabajo aborda el estudio del caso más significativo de todos los edificios de la red, en tanto que el patrimonio que ha servido de base a los fines hoteleros del Estado ha contado con un total de seis tipos arquitectónicos a lo largo de su historia, dentro de los cuales la arquitectura militar despunta con su mayoritaria presencia dentro del contexto de los edificios históricos de la red. El carácter arquetípico de los castillos y fortalezas, arraigado en el inconsciente colectivo, les hizo especialmente atractivos como alojamiento turístico al permitir evocar la remota época medieval, pese a ser el tipo arquitectónico más comprometido para la rehabilitación hotelera. El estudio de las intervenciones operadas en estos inmuebles se revela de forma clara como escaparate de los distintos criterios de intervención patrimonial que se han sucedido en el siglo XX, hasta enlazar con la perspectiva interdisciplinar actual. La tesis abarca en, primer lugar, diferentes aspectos generales relativos al promotor hotelero, la hotelería pública de ámbito nacional e internacional, y la caracterización de los inmuebles de la red estatal española, desde el punto de vista hotelero y arquitectónico, entendida esta última en sus tres escalas de influencia: la arquitectónica, la urbana o paisajística, y la del interiorismo. Se analiza en segundo término la arquitectura militar dentro del contexto de la Red de Paradores, desde la consideración de su transformación hotelera, para lo cual ha sido necesario realizar una clasificación propia, que abarca tanto edificios que respondieron a una estructura de cuartel, como castillos‐palacio, o fortalezas que habían servido a los fines de una orden religiosa militar, además de considerarse las intervenciones en recintos históricos de carácter militar, donde se hacía obligatorio construir de nueva planta. En tercer y último lugar, se analiza a lo largo de las distintas etapas del organismo turístico las rehabilitaciones realizadas en estas construcciones militares, a la vez que se tienen en cuenta las intervenciones en los restantes edificios históricos, para evitar la descontextualización. Este recorrido comienza con la promoción de los dos primeros paradores a cargo del Comisario Regio, el marqués de la Vega‐Inclán, que sirvieron para sentar las bases de los conceptos e ideas que habrían de desarrollarse en las siguientes décadas. Posteriormente, se desarrolló y tomó forma la red con el Patronato Nacional del Turismo, en la que las primeras intervenciones en tipos militares se tradujeron en reformas interiores de locales. La etapa clave de la red, y en particular de la arquitectura militar, tuvo lugar con el Ministerio de Información y Turismo, marcada por la “repristinación” de monumentos, tras un período preparatorio con la Dirección General del Turismo en el que lo militar había quedado de telón de fondo de otros tipos arquitectónicos. Tras el auge del Ministerio llegó el período de decadencia en el que los castillos y fortalezas desaparecieron de los intereses de las Secretarias de Turismo, hasta llegar a las inauguraciones de los novedosos establecimientos del siglo XXI y el resurgimiento del tipo militar con el parador de Lorca. Metodología empleada: Este trabajo de investigación se ha servido fundamentalmente de documentación inédita, procedente de diversos archivos, además de una muy extensa toma de datos in situ. Dentro del patrimonio analizado, los inmuebles que responden al tipo arquitectónico militar se han dividido en tres grandes grupos: inmuebles rehabilitados que entraron en funcionamiento en la red, inmuebles en proceso de transformación hotelera, e inmuebles que fueron adquiridos con fines hoteleros pero que no llegaron a rehabilitarse. Para cada uno de ellos ha sido necesario determinar en qué estado llegaron a manos de la Administración Turística, cuál fue el mecanismo a través del cual se adquirieron, en qué consistió su primera rehabilitación hotelera, y cuáles fueron las ampliaciones o reformas más significativas que se realizaron posteriormente. Estos datos se han sintetizado en fichas y se han extraído conclusiones al comparar cada unidad con el conjunto. Simultáneamente se introdujeron dos factores externos: la historia del turismo que permitió hacer una ordenación cronológica de los inmuebles según etapas, y la historia de la teoría y práctica de la intervención patrimonial en España que permitió comparar los criterios patrimoniales de la Administración competente respecto de las intervenciones de la Administración Turística, cuyo contacto se haría obligatorio a partir del Decreto, de 22 de abril de 1949, que dejaba bajo la tutela del Estado a todos los castillos y fortalezas. Aportación de la tesis: Con carácter general, la tesis centra una ordenación y sistematización completa del patrimonio inmobiliario de la red, desde el punto de vista de los tipos hoteleros y arquitectónicos, además de poner por primera vez en conexión distintos modelos de hotelería pública, para constituirse en el sustrato de futuras investigaciones. El estudio realizado se ha hecho extensivo a las distintas escalas que inciden de forma interconectada en la implantación de un parador: la arquitectónica, la urbana y la del interiorismo, hasta ahora referenciado desde la exclusiva visión arquitectónica. Se han definido las etapas de la historia de la red, no ya sólo a partir del hilo conductor de la cadena sucesiva de organismos turísticos, sino que por primera vez se hace en razón de la evolución que sufren las intervenciones patrimoniales a lo largo del tiempo, a la vez que se entra en conexión con la teoría y praxis de la restauración monumental. Con carácter particular, la arquitectura militar dentro del contexto de los paradores se destaca en el período del Ministerio, en el que se experimentaron todas las posibilidades que presentaba su rehabilitación. En este sentido se ha puesto de manifiesto en este trabajo un tipo híbrido de parador, a caballo entre la rehabilitación y la edificación de nueva planta, las dos formas básicas de establecimiento creadas en la Comisaría Regia, al que se ha denominado edificación de nueva planta en recinto histórico militar. Esta nueva caracterización se ha valorado como la forma más eficiente de implantar paradores, cuyas pautas arquitectónicas abarcaron un abanico de posibilidades: imitación de modelos arquitectónicos históricos con utilización de elementos patrimoniales prestados que dieran el valor de la historia, utilización de un lenguaje moderno, o la inspiración en la arquitectura vernácula. La amalgama de elementos, estilos e intervenciones sucesivas de ampliación fue la característica común tanto para la implantación de un parador en un edificio como en un recinto amurallado. La arquitectura militar transformada en establecimiento hotelero evidencia la vocación escenográfica de las intervenciones patrimoniales, secundada por el interiorismo, además de su aportación a la arquitectura hotelera en lo referente al confort, organización y funcionamiento de sus instalaciones. La tesis ahonda en los diversos aspectos de la rehabilitación hotelera apuntados de forma parcial por algunos autores, y pone de manifiesto la “ambientación medieval” operada en la arquitectura militar, que llegó a tener su máxima expresión con el criterio de la “unidad de estilo” del Ministerio de Información y Turismo. La rehabilitación hotelera dentro del contexto de la Red de Paradores, queda caracterizada en la tesis en relación a intervenciones en construcciones militares, cuya sistematización puede ser extrapolable a otros tipos arquitectónicos o cadenas hoteleras de titularidad pública, a partir del estudio que se ha avanzado en este trabajo. Thesis basis: At the beginning of the 20th century the interest in tourism added to the plentiful heritage in Spain enabled the authorities to embark on a singular experience: the creation of a hotel infrastructure from the restoration of historic buildings. Preservation, maintenance, and even profitability of a large part of the Spanish heritage would be effective through the innovative formula heritage-tourism. Its greatest expression materialized in the Paradores Network since its foundation in last century’s second decade to the present day. Surprisingly, this subject has not yet been investigated in its architectural aspect, even though Spain has been a pioneer and a model in the matter of public hotel business. This project tackles the study of the most significative case of all the network’s buildings, since the heritage which has served throughout history as a base for the State hotel purposes has altogether six architectural types, among which military architecture stands out with its majority presence in the context of the historical buildings of the network. The archetypal character of castles and fortresses, ingrained in the collective subconscious, made them specially attractive for tourist accommodation, as it allowed the evocation of far medieval times, despite being the most awkward architectural type for hotel restoration. The study of the interventions in these buildings clearly reveals itself as a showcase of the different criteria of heritage intervention along the 20th century, connecting to the present interdisciplinary perspective. Firstly, the thesis covers different general aspects regarding the hotel developer, the domestic and international public hotel business, and the description of the Spanish state network buildings from a hotel business and an architectural point of view, the latter from its three influence scales: architectural, urban or landscape, and interior design. Secondly, the transformation of the military architecture in the Paradores Network into hotels is analyzed. For that purpose it was necessary to create a specific classification, which included barrack-structured buildings, castle-palaces, or fortresses which served the purposes of military-religious orders. The interventions in those military historical places where new building became compulsory were also taken into consideration. Thirdly and lastly, the thesis analyses the restorations in these military constructions through the different stages of the tourist organization. In order to avoid decontextualization, interventions in other historical buildings were also considered. This route begins with the promotion of the two first Paradores by the Royal Commissioner, the marquis of Vega-Inclán, which paved the way for the concepts and ideas that were developed in the following decades. Subsequently, the network was developed and took shape with the National Tourism Board. The first interventions on military types were inside refurbishments. The Network’s key period, and in particular of its military architecture, took place with the Ministry of Information and Tourism, a time marked by the “restoration to its original state” of monuments. This stage arrived after a preparatory period with the State Tourist Office, when the military type was left as a backdrop for other architectural types. After the Ministry’s boom arrived a decline, in which castles and fortresses disappeared from the Tourist Department’s interests up to the opening of the 21st century new establishments and the resurgence of the military type with Lorca’s Parador. Methodology: The present research project has mainly used unpublished documentation from several archives and has done an extensive in situ data-gathering. Within the heritage analyzed, military buildings have been divided into three main groups: restored buildings that began to operate in the network, those in process of hotel transformation, and those acquired for hotel purposes, but which did not become restored. In each case, it has been necessary to determine the condition in which they arrived to the Tourist Administration, the procedure by which they were acquired, what their first hotel restoration consisted of, and which their subsequent most significative enlargements and alterations were. These facts have been synthesized in cards, and conclusions were drawn by comparing each unit with the whole. Simultaneously, two external factors were introduced: the history of tourism, that allowed establishing a chronological order according to different periods, and the history of Spanish heritage intervention’s theory and practice, that permitted to compare the heritage criteria from the competent Administration with those of the Tourist Administration’s interventions. Both Administrations came compulsorily into contact after the Decree of 22nd April 1949, by which all castles and fortresses became under the protection of the State. Thesis contribution: In general, the thesis focuses on a complete order and systematization of the network’s heritage buildings from the hotel and architectural types points of view, besides connecting for the first time different public hotel business models, becoming the substratum for future investigations. The study has included the different scales that impact interconnected on the establishment of a Parador: architectural, urban and interior design, only referenced to date from an architectural point of view. The Network’s history stages have been defined according to not only a consecutive series of tourist organizations, but also, and for the first time, to the evolution of heritage interventions over time, thus connecting with the theory and praxis of monumental restoration. In particular, within the Paradores, military architecture stands out in the Ministry’s period, in which all kind of restoration possibilities were explored. In this sense, the present project puts forth a hybrid type of Parador between restoration and new building, the two basic ways of establishment created in the Royal Commission, termed new building in military historic enclosure. This new characterization has been evaluated as the most efficient for establishing Paradores, whose architectonic guidelines include a wide range of possibilities: the imitation of historical architectonic models with use of borrowed heritage components that provide historical value, the use of modern language, or the inspiration in vernacular architecture. The amalgam of elements, styles and consecutive enlargement interventions was the common feature of the establishment of a Parador, both in a building or in a walled enclosure. The military architecture transformed into a hotel establishment gives proof of the scenographic vocation of heritage interventions, supported by interior design, as well as of its contribution to hotel architecture, related to its comfort, organization and the functioning of its facilities. The thesis delves into the diverse aspects of hotel restoration, partially pointed out by several authors, and puts forth the creation of a “medieval atmosphere” in military architecture, which came to its highest expression with the “unitary style” criteria of the Ministry of Information and Tourism. Hotel restoration within the context of the Paradores’ Network is defined in this thesis in relation to interventions in military constructions, whose systemization can be extrapolative to other architectural types or public hotel chains, based on the study which has been put forward in this project.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION: Objective assessment of motor skills has become an important challenge in minimally invasive surgery (MIS) training.Currently, there is no gold standard defining and determining the residents' surgical competence.To aid in the decision process, we analyze the validity of a supervised classifier to determine the degree of MIS competence based on assessment of psychomotor skills METHODOLOGY: The ANFIS is trained to classify performance in a box trainer peg transfer task performed by two groups (expert/non expert). There were 42 participants included in the study: the non-expert group consisted of 16 medical students and 8 residents (< 10 MIS procedures performed), whereas the expert group consisted of 14 residents (> 10 MIS procedures performed) and 4 experienced surgeons. Instrument movements were captured by means of the Endoscopic Video Analysis (EVA) tracking system. Nine motion analysis parameters (MAPs) were analyzed, including time, path length, depth, average speed, average acceleration, economy of area, economy of volume, idle time and motion smoothness. Data reduction was performed by means of principal component analysis, and then used to train the ANFIS net. Performance was measured by leave one out cross validation. RESULTS: The ANFIS presented an accuracy of 80.95%, where 13 experts and 21 non-experts were correctly classified. Total root mean square error was 0.88, while the area under the classifiers' ROC curve (AUC) was measured at 0.81. DISCUSSION: We have shown the usefulness of ANFIS for classification of MIS competence in a simple box trainer exercise. The main advantage of using ANFIS resides in its continuous output, which allows fine discrimination of surgical competence. There are, however, challenges that must be taken into account when considering use of ANFIS (e.g. training time, architecture modeling). Despite this, we have shown discriminative power of ANFIS for a low-difficulty box trainer task, regardless of the individual significances between MAPs. Future studies are required to confirm the findings, inclusion of new tasks, conditions and sample population.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neuronal morphology is a key feature in the study of brain circuits, as it is highly related to information processing and functional identification. Neuronal morphology affects the process of integration of inputs from other neurons and determines the neurons which receive the output of the neurons. Different parts of the neurons can operate semi-independently according to the spatial location of the synaptic connections. As a result, there is considerable interest in the analysis of the microanatomy of nervous cells since it constitutes an excellent tool for better understanding cortical function. However, the morphologies, molecular features and electrophysiological properties of neuronal cells are extremely variable. Except for some special cases, this variability makes it hard to find a set of features that unambiguously define a neuronal type. In addition, there are distinct types of neurons in particular regions of the brain. This morphological variability makes the analysis and modeling of neuronal morphology a challenge. Uncertainty is a key feature in many complex real-world problems. Probability theory provides a framework for modeling and reasoning with uncertainty. Probabilistic graphical models combine statistical theory and graph theory to provide a tool for managing domains with uncertainty. In particular, we focus on Bayesian networks, the most commonly used probabilistic graphical model. In this dissertation, we design new methods for learning Bayesian networks and apply them to the problem of modeling and analyzing morphological data from neurons. The morphology of a neuron can be quantified using a number of measurements, e.g., the length of the dendrites and the axon, the number of bifurcations, the direction of the dendrites and the axon, etc. These measurements can be modeled as discrete or continuous data. The continuous data can be linear (e.g., the length or the width of a dendrite) or directional (e.g., the direction of the axon). These data may follow complex probability distributions and may not fit any known parametric distribution. Modeling this kind of problems using hybrid Bayesian networks with discrete, linear and directional variables poses a number of challenges regarding learning from data, inference, etc. In this dissertation, we propose a method for modeling and simulating basal dendritic trees from pyramidal neurons using Bayesian networks to capture the interactions between the variables in the problem domain. A complete set of variables is measured from the dendrites, and a learning algorithm is applied to find the structure and estimate the parameters of the probability distributions included in the Bayesian networks. Then, a simulation algorithm is used to build the virtual dendrites by sampling values from the Bayesian networks, and a thorough evaluation is performed to show the model’s ability to generate realistic dendrites. In this first approach, the variables are discretized so that discrete Bayesian networks can be learned and simulated. Then, we address the problem of learning hybrid Bayesian networks with different kinds of variables. Mixtures of polynomials have been proposed as a way of representing probability densities in hybrid Bayesian networks. We present a method for learning mixtures of polynomials approximations of one-dimensional, multidimensional and conditional probability densities from data. The method is based on basis spline interpolation, where a density is approximated as a linear combination of basis splines. The proposed algorithms are evaluated using artificial datasets. We also use the proposed methods as a non-parametric density estimation technique in Bayesian network classifiers. Next, we address the problem of including directional data in Bayesian networks. These data have some special properties that rule out the use of classical statistics. Therefore, different distributions and statistics, such as the univariate von Mises and the multivariate von Mises–Fisher distributions, should be used to deal with this kind of information. In particular, we extend the naive Bayes classifier to the case where the conditional probability distributions of the predictive variables given the class follow either of these distributions. We consider the simple scenario, where only directional predictive variables are used, and the hybrid case, where discrete, Gaussian and directional distributions are mixed. The classifier decision functions and their decision surfaces are studied at length. Artificial examples are used to illustrate the behavior of the classifiers. The proposed classifiers are empirically evaluated over real datasets. We also study the problem of interneuron classification. An extensive group of experts is asked to classify a set of neurons according to their most prominent anatomical features. A web application is developed to retrieve the experts’ classifications. We compute agreement measures to analyze the consensus between the experts when classifying the neurons. Using Bayesian networks and clustering algorithms on the resulting data, we investigate the suitability of the anatomical terms and neuron types commonly used in the literature. Additionally, we apply supervised learning approaches to automatically classify interneurons using the values of their morphological measurements. Then, a methodology for building a model which captures the opinions of all the experts is presented. First, one Bayesian network is learned for each expert, and we propose an algorithm for clustering Bayesian networks corresponding to experts with similar behaviors. Then, a Bayesian network which represents the opinions of each group of experts is induced. Finally, a consensus Bayesian multinet which models the opinions of the whole group of experts is built. A thorough analysis of the consensus model identifies different behaviors between the experts when classifying the interneurons in the experiment. A set of characterizing morphological traits for the neuronal types can be defined by performing inference in the Bayesian multinet. These findings are used to validate the model and to gain some insights into neuron morphology. Finally, we study a classification problem where the true class label of the training instances is not known. Instead, a set of class labels is available for each instance. This is inspired by the neuron classification problem, where a group of experts is asked to individually provide a class label for each instance. We propose a novel approach for learning Bayesian networks using count vectors which represent the number of experts who selected each class label for each instance. These Bayesian networks are evaluated using artificial datasets from supervised learning problems. Resumen La morfología neuronal es una característica clave en el estudio de los circuitos cerebrales, ya que está altamente relacionada con el procesado de información y con los roles funcionales. La morfología neuronal afecta al proceso de integración de las señales de entrada y determina las neuronas que reciben las salidas de otras neuronas. Las diferentes partes de la neurona pueden operar de forma semi-independiente de acuerdo a la localización espacial de las conexiones sinápticas. Por tanto, existe un interés considerable en el análisis de la microanatomía de las células nerviosas, ya que constituye una excelente herramienta para comprender mejor el funcionamiento de la corteza cerebral. Sin embargo, las propiedades morfológicas, moleculares y electrofisiológicas de las células neuronales son extremadamente variables. Excepto en algunos casos especiales, esta variabilidad morfológica dificulta la definición de un conjunto de características que distingan claramente un tipo neuronal. Además, existen diferentes tipos de neuronas en regiones particulares del cerebro. La variabilidad neuronal hace que el análisis y el modelado de la morfología neuronal sean un importante reto científico. La incertidumbre es una propiedad clave en muchos problemas reales. La teoría de la probabilidad proporciona un marco para modelar y razonar bajo incertidumbre. Los modelos gráficos probabilísticos combinan la teoría estadística y la teoría de grafos con el objetivo de proporcionar una herramienta con la que trabajar bajo incertidumbre. En particular, nos centraremos en las redes bayesianas, el modelo más utilizado dentro de los modelos gráficos probabilísticos. En esta tesis hemos diseñado nuevos métodos para aprender redes bayesianas, inspirados por y aplicados al problema del modelado y análisis de datos morfológicos de neuronas. La morfología de una neurona puede ser cuantificada usando una serie de medidas, por ejemplo, la longitud de las dendritas y el axón, el número de bifurcaciones, la dirección de las dendritas y el axón, etc. Estas medidas pueden ser modeladas como datos continuos o discretos. A su vez, los datos continuos pueden ser lineales (por ejemplo, la longitud o la anchura de una dendrita) o direccionales (por ejemplo, la dirección del axón). Estos datos pueden llegar a seguir distribuciones de probabilidad muy complejas y pueden no ajustarse a ninguna distribución paramétrica conocida. El modelado de este tipo de problemas con redes bayesianas híbridas incluyendo variables discretas, lineales y direccionales presenta una serie de retos en relación al aprendizaje a partir de datos, la inferencia, etc. En esta tesis se propone un método para modelar y simular árboles dendríticos basales de neuronas piramidales usando redes bayesianas para capturar las interacciones entre las variables del problema. Para ello, se mide un amplio conjunto de variables de las dendritas y se aplica un algoritmo de aprendizaje con el que se aprende la estructura y se estiman los parámetros de las distribuciones de probabilidad que constituyen las redes bayesianas. Después, se usa un algoritmo de simulación para construir dendritas virtuales mediante el muestreo de valores de las redes bayesianas. Finalmente, se lleva a cabo una profunda evaluaci ón para verificar la capacidad del modelo a la hora de generar dendritas realistas. En esta primera aproximación, las variables fueron discretizadas para poder aprender y muestrear las redes bayesianas. A continuación, se aborda el problema del aprendizaje de redes bayesianas con diferentes tipos de variables. Las mixturas de polinomios constituyen un método para representar densidades de probabilidad en redes bayesianas híbridas. Presentamos un método para aprender aproximaciones de densidades unidimensionales, multidimensionales y condicionales a partir de datos utilizando mixturas de polinomios. El método se basa en interpolación con splines, que aproxima una densidad como una combinación lineal de splines. Los algoritmos propuestos se evalúan utilizando bases de datos artificiales. Además, las mixturas de polinomios son utilizadas como un método no paramétrico de estimación de densidades para clasificadores basados en redes bayesianas. Después, se estudia el problema de incluir información direccional en redes bayesianas. Este tipo de datos presenta una serie de características especiales que impiden el uso de las técnicas estadísticas clásicas. Por ello, para manejar este tipo de información se deben usar estadísticos y distribuciones de probabilidad específicos, como la distribución univariante von Mises y la distribución multivariante von Mises–Fisher. En concreto, en esta tesis extendemos el clasificador naive Bayes al caso en el que las distribuciones de probabilidad condicionada de las variables predictoras dada la clase siguen alguna de estas distribuciones. Se estudia el caso base, en el que sólo se utilizan variables direccionales, y el caso híbrido, en el que variables discretas, lineales y direccionales aparecen mezcladas. También se estudian los clasificadores desde un punto de vista teórico, derivando sus funciones de decisión y las superficies de decisión asociadas. El comportamiento de los clasificadores se ilustra utilizando bases de datos artificiales. Además, los clasificadores son evaluados empíricamente utilizando bases de datos reales. También se estudia el problema de la clasificación de interneuronas. Desarrollamos una aplicación web que permite a un grupo de expertos clasificar un conjunto de neuronas de acuerdo a sus características morfológicas más destacadas. Se utilizan medidas de concordancia para analizar el consenso entre los expertos a la hora de clasificar las neuronas. Se investiga la idoneidad de los términos anatómicos y de los tipos neuronales utilizados frecuentemente en la literatura a través del análisis de redes bayesianas y la aplicación de algoritmos de clustering. Además, se aplican técnicas de aprendizaje supervisado con el objetivo de clasificar de forma automática las interneuronas a partir de sus valores morfológicos. A continuación, se presenta una metodología para construir un modelo que captura las opiniones de todos los expertos. Primero, se genera una red bayesiana para cada experto y se propone un algoritmo para agrupar las redes bayesianas que se corresponden con expertos con comportamientos similares. Después, se induce una red bayesiana que modela la opinión de cada grupo de expertos. Por último, se construye una multired bayesiana que modela las opiniones del conjunto completo de expertos. El análisis del modelo consensuado permite identificar diferentes comportamientos entre los expertos a la hora de clasificar las neuronas. Además, permite extraer un conjunto de características morfológicas relevantes para cada uno de los tipos neuronales mediante inferencia con la multired bayesiana. Estos descubrimientos se utilizan para validar el modelo y constituyen información relevante acerca de la morfología neuronal. Por último, se estudia un problema de clasificación en el que la etiqueta de clase de los datos de entrenamiento es incierta. En cambio, disponemos de un conjunto de etiquetas para cada instancia. Este problema está inspirado en el problema de la clasificación de neuronas, en el que un grupo de expertos proporciona una etiqueta de clase para cada instancia de manera individual. Se propone un método para aprender redes bayesianas utilizando vectores de cuentas, que representan el número de expertos que seleccionan cada etiqueta de clase para cada instancia. Estas redes bayesianas se evalúan utilizando bases de datos artificiales de problemas de aprendizaje supervisado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this research, the halved and tabled traditional timber scarf joint is analyzed. This joint consists in two end joint pieces usually subjected to tension. Initially, the study is discussed from an experimental point of view. In this way, 3 critical cross-sections are established (section of the notch, section of the horizontal plane and reduced section) and mechanical tests are performed to achieve the failure on each of critical sections by changing the geometry of the joint. The study is completed by developing a finite element model which allows verify experimental results and extend the analysis to other geometries. This model has to simulate the real behavior of the material which is being studied, so mechanical tests are performed to obtain the elastic constants and the coefficients of friction of the material. In the reduced section, an abrupt decrease of the effective cross-section takes place, and this effect is also experimentally analyzed. These tests indicate that a crack is initiated before the bending-tension failure occurs in the reduced section. The test material consists of wood of Pinus sylvestris L. coming from the “Valsaín´s Sawmill” (Segovia) with “premium quality” according to the nonstructural wood visual classification of sawmill. It is observed that initiation of a crack, in the mortise (bottom of reduced section), and shear stress concentration, at the initial part of the heel (beginning of horizontal plane), completely determine the mechanical behaviour of the joint, resulting in 3 failure modes: local compression failure in the section of the notch, shear failure in the horizontal plane, and failure of stresses concentration, mainly perpendicular to the grain tension, at the bottom of reduced section. The geometric optimization is obtained for halved and tabled traditional scarf joint, when the joint has made with similar properties of wood than tested specimens, for any height and width of the cross-section. It is considered the failure due to the initiation of a crack in reduced section, by applying a correction coefficient into the usual equation used to design the members subjected to both tension and bending. Therefore, it is possible to obtain, analytically, the design conditions to be met of the 3 critical cross-sections. According to the theoretical optimization, the tension strength of complete cross-section is reduced until 14%, when using this type of joint. The experimental optimization indicates even a greater reduction, until 6%. En el presente trabajo de investigación se analiza el comportamiento mecánico de las uniones tradicionales de empalme de llave, que consisten en dos piezas unidas por sus testas transmitiéndose entre ellas principalmente un esfuerzo de tracción. Inicialmente, el estudio se aborda desde un punto de vista experimental. De este modo, se establecen las 3 secciones críticas o de estudio (sección del encaje, sección rasante del cogote y sección reducida) y se realizan ensayos mecánicos, variando la geometría de la unión, para alcanzar la rotura en cada una de ellas. Se completa el estudio mediante la elaboración de un modelo por elementos finitos que permite verificar los resultados experimentales y ampliar el análisis a otras geometrías. Este modelo debe simular el comportamiento real del material objeto de estudio, por lo que se realizan ensayos para obtener las constantes elásticas y los coeficientes de rozamiento del mismo. También se analiza, experimentalmente, el efecto entalladura que reduce bruscamente la sección completa del tirante, estableciendo que el fallo por flexotracción en la sección reducida de la pieza, no llega a producirse por el inicio previo de una grieta. El material de ensayo consiste en madera de Pinus sylvestris L. (pino silvestre) procedente del Aserradero de Valsaín (Segovia) y de calidad “Extra” o “Primera” según la clasificación visual no estructural del aserradero. Se observa que el inicio de una grieta en la mortaja del rediente y la concentración de tensiones tangenciales en la parte inicial del cogote, determinan completamente el comportamiento mecánico de la unión, dando lugar a 3 modos distintos de rotura: fallo por compresión en la sección del encaje, fallo por cortante en la sección rasante y fallo por concentración de tensiones, principalmente tracciones perpendiculares, en el rebaje de la sección reducida. Se consigue optimizar geométricamente cualquier empalme de llave confeccionado con madera de características similares a la ensayada, para cualquier valor de la altura y de la anchura de la sección. Se considera el agotamiento en la sección reducida causado por el inicio de grieta, mediante la aplicación de un coeficiente corrector en la expresión habitual de agotamiento por flexotracción, en consecuencia, finalmente es posible obtener, de modo analítico, un valor del índice de agotamiento en cada una de las 3 secciones de estudio. La optimización teórica del empalme de llave indica que la capacidad resistente del tirante bruto se reduce al 14%, cuando se coloca este tipo de unión tradicional. Experimentalmente se obtiene, que, para la sección ensayada, la capacidad resistente del tirante bruto se reduce todavía más, llegando al 6%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día, con la evolución continua y rápida de las tecnologías de la información y los dispositivos de computación, se recogen y almacenan continuamente grandes volúmenes de datos en distintos dominios y a través de diversas aplicaciones del mundo real. La extracción de conocimiento útil de una cantidad tan enorme de datos no se puede realizar habitualmente de forma manual, y requiere el uso de técnicas adecuadas de aprendizaje automático y de minería de datos. La clasificación es una de las técnicas más importantes que ha sido aplicada con éxito a varias áreas. En general, la clasificación se compone de dos pasos principales: en primer lugar, aprender un modelo de clasificación o clasificador a partir de un conjunto de datos de entrenamiento, y en segundo lugar, clasificar las nuevas instancias de datos utilizando el clasificador aprendido. La clasificación es supervisada cuando todas las etiquetas están presentes en los datos de entrenamiento (es decir, datos completamente etiquetados), semi-supervisada cuando sólo algunas etiquetas son conocidas (es decir, datos parcialmente etiquetados), y no supervisada cuando todas las etiquetas están ausentes en los datos de entrenamiento (es decir, datos no etiquetados). Además, aparte de esta taxonomía, el problema de clasificación se puede categorizar en unidimensional o multidimensional en función del número de variables clase, una o más, respectivamente; o también puede ser categorizado en estacionario o cambiante con el tiempo en función de las características de los datos y de la tasa de cambio subyacente. A lo largo de esta tesis, tratamos el problema de clasificación desde tres perspectivas diferentes, a saber, clasificación supervisada multidimensional estacionaria, clasificación semisupervisada unidimensional cambiante con el tiempo, y clasificación supervisada multidimensional cambiante con el tiempo. Para llevar a cabo esta tarea, hemos usado básicamente los clasificadores Bayesianos como modelos. La primera contribución, dirigiéndose al problema de clasificación supervisada multidimensional estacionaria, se compone de dos nuevos métodos de aprendizaje de clasificadores Bayesianos multidimensionales a partir de datos estacionarios. Los métodos se proponen desde dos puntos de vista diferentes. El primer método, denominado CB-MBC, se basa en una estrategia de envoltura de selección de variables que es voraz y hacia delante, mientras que el segundo, denominado MB-MBC, es una estrategia de filtrado de variables con una aproximación basada en restricciones y en el manto de Markov. Ambos métodos han sido aplicados a dos problemas reales importantes, a saber, la predicción de los inhibidores de la transcriptasa inversa y de la proteasa para el problema de infección por el virus de la inmunodeficiencia humana tipo 1 (HIV-1), y la predicción del European Quality of Life-5 Dimensions (EQ-5D) a partir de los cuestionarios de la enfermedad de Parkinson con 39 ítems (PDQ-39). El estudio experimental incluye comparaciones de CB-MBC y MB-MBC con los métodos del estado del arte de la clasificación multidimensional, así como con métodos comúnmente utilizados para resolver el problema de predicción de la enfermedad de Parkinson, a saber, la regresión logística multinomial, mínimos cuadrados ordinarios, y mínimas desviaciones absolutas censuradas. En ambas aplicaciones, los resultados han sido prometedores con respecto a la precisión de la clasificación, así como en relación al análisis de las estructuras gráficas que identifican interacciones conocidas y novedosas entre las variables. La segunda contribución, referida al problema de clasificación semi-supervisada unidimensional cambiante con el tiempo, consiste en un método nuevo (CPL-DS) para clasificar flujos de datos parcialmente etiquetados. Los flujos de datos difieren de los conjuntos de datos estacionarios en su proceso de generación muy rápido y en su aspecto de cambio de concepto. Es decir, los conceptos aprendidos y/o la distribución subyacente están probablemente cambiando y evolucionando en el tiempo, lo que hace que el modelo de clasificación actual sea obsoleto y deba ser actualizado. CPL-DS utiliza la divergencia de Kullback-Leibler y el método de bootstrapping para cuantificar y detectar tres tipos posibles de cambio: en las predictoras, en la a posteriori de la clase o en ambas. Después, si se detecta cualquier cambio, un nuevo modelo de clasificación se aprende usando el algoritmo EM; si no, el modelo de clasificación actual se mantiene sin modificaciones. CPL-DS es general, ya que puede ser aplicado a varios modelos de clasificación. Usando dos modelos diferentes, el clasificador naive Bayes y la regresión logística, CPL-DS se ha probado con flujos de datos sintéticos y también se ha aplicado al problema real de la detección de código malware, en el cual los nuevos ficheros recibidos deben ser continuamente clasificados en malware o goodware. Los resultados experimentales muestran que nuestro método es efectivo para la detección de diferentes tipos de cambio a partir de los flujos de datos parcialmente etiquetados y también tiene una buena precisión de la clasificación. Finalmente, la tercera contribución, sobre el problema de clasificación supervisada multidimensional cambiante con el tiempo, consiste en dos métodos adaptativos, a saber, Locally Adpative-MB-MBC (LA-MB-MBC) y Globally Adpative-MB-MBC (GA-MB-MBC). Ambos métodos monitorizan el cambio de concepto a lo largo del tiempo utilizando la log-verosimilitud media como métrica y el test de Page-Hinkley. Luego, si se detecta un cambio de concepto, LA-MB-MBC adapta el actual clasificador Bayesiano multidimensional localmente alrededor de cada nodo cambiado, mientras que GA-MB-MBC aprende un nuevo clasificador Bayesiano multidimensional. El estudio experimental realizado usando flujos de datos sintéticos multidimensionales indica los méritos de los métodos adaptativos propuestos. ABSTRACT Nowadays, with the ongoing and rapid evolution of information technology and computing devices, large volumes of data are continuously collected and stored in different domains and through various real-world applications. Extracting useful knowledge from such a huge amount of data usually cannot be performed manually, and requires the use of adequate machine learning and data mining techniques. Classification is one of the most important techniques that has been successfully applied to several areas. Roughly speaking, classification consists of two main steps: first, learn a classification model or classifier from an available training data, and secondly, classify the new incoming unseen data instances using the learned classifier. Classification is supervised when the whole class values are present in the training data (i.e., fully labeled data), semi-supervised when only some class values are known (i.e., partially labeled data), and unsupervised when the whole class values are missing in the training data (i.e., unlabeled data). In addition, besides this taxonomy, the classification problem can be categorized into uni-dimensional or multi-dimensional depending on the number of class variables, one or more, respectively; or can be also categorized into stationary or streaming depending on the characteristics of the data and the rate of change underlying it. Through this thesis, we deal with the classification problem under three different settings, namely, supervised multi-dimensional stationary classification, semi-supervised unidimensional streaming classification, and supervised multi-dimensional streaming classification. To accomplish this task, we basically used Bayesian network classifiers as models. The first contribution, addressing the supervised multi-dimensional stationary classification problem, consists of two new methods for learning multi-dimensional Bayesian network classifiers from stationary data. They are proposed from two different points of view. The first method, named CB-MBC, is based on a wrapper greedy forward selection approach, while the second one, named MB-MBC, is a filter constraint-based approach based on Markov blankets. Both methods are applied to two important real-world problems, namely, the prediction of the human immunodeficiency virus type 1 (HIV-1) reverse transcriptase and protease inhibitors, and the prediction of the European Quality of Life-5 Dimensions (EQ-5D) from 39-item Parkinson’s Disease Questionnaire (PDQ-39). The experimental study includes comparisons of CB-MBC and MB-MBC against state-of-the-art multi-dimensional classification methods, as well as against commonly used methods for solving the Parkinson’s disease prediction problem, namely, multinomial logistic regression, ordinary least squares, and censored least absolute deviations. For both considered case studies, results are promising in terms of classification accuracy as well as regarding the analysis of the learned MBC graphical structures identifying known and novel interactions among variables. The second contribution, addressing the semi-supervised uni-dimensional streaming classification problem, consists of a novel method (CPL-DS) for classifying partially labeled data streams. Data streams differ from the stationary data sets by their highly rapid generation process and their concept-drifting aspect. That is, the learned concepts and/or the underlying distribution are likely changing and evolving over time, which makes the current classification model out-of-date requiring to be updated. CPL-DS uses the Kullback-Leibler divergence and bootstrapping method to quantify and detect three possible kinds of drift: feature, conditional or dual. Then, if any occurs, a new classification model is learned using the expectation-maximization algorithm; otherwise, the current classification model is kept unchanged. CPL-DS is general as it can be applied to several classification models. Using two different models, namely, naive Bayes classifier and logistic regression, CPL-DS is tested with synthetic data streams and applied to the real-world problem of malware detection, where the new received files should be continuously classified into malware or goodware. Experimental results show that our approach is effective for detecting different kinds of drift from partially labeled data streams, as well as having a good classification performance. Finally, the third contribution, addressing the supervised multi-dimensional streaming classification problem, consists of two adaptive methods, namely, Locally Adaptive-MB-MBC (LA-MB-MBC) and Globally Adaptive-MB-MBC (GA-MB-MBC). Both methods monitor the concept drift over time using the average log-likelihood score and the Page-Hinkley test. Then, if a drift is detected, LA-MB-MBC adapts the current multi-dimensional Bayesian network classifier locally around each changed node, whereas GA-MB-MBC learns a new multi-dimensional Bayesian network classifier from scratch. Experimental study carried out using synthetic multi-dimensional data streams shows the merits of both proposed adaptive methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present work covers the first validation efforts of the EVA Tracking System for the assessment of minimally invasive surgery (MIS) psychomotor skills. Instrument movements were recorded for 42 surgeons (4 expert, 22 residents, 16 novice medical students) and analyzed for a box trainer peg transfer task. Construct validation was established for 7/9 motion analysis parameters (MAPs). Concurrent validation was determined for 8/9 MAPs against the TrEndo Tracking System. Finally, automatic determination of surgical proficiency based on the MAPs was sought by 3 different approaches to supervised classification (LDA, SVM, ANFIS), with accuracy results of 61.9%, 83.3% and 80.9% respectively. Results not only reflect on the validation of EVA for skills? assessment, but also on the relevance of motion analysis of instruments in the determination of surgical competence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background Objective assessment of psychomotor skills has become an important challenge in the training of minimally invasive surgical (MIS) techniques. Currently, no gold standard defining surgical competence exists for classifying residents according to their surgical skills. Supervised classification has been proposed as a means for objectively establishing competence thresholds in psychomotor skills evaluation. This report presents a study comparing three classification methods for establishing their validity in a set of tasks for basic skills’ assessment. Methods Linear discriminant analysis (LDA), support vector machines (SVM), and adaptive neuro-fuzzy inference systems (ANFIS) were used. A total of 42 participants, divided into an experienced group (4 expert surgeons and 14 residents with >10 laparoscopic surgeries performed) and a nonexperienced group (16 students and 8 residents with <10 laparoscopic surgeries performed), performed three box trainer tasks validated for assessment of MIS psychomotor skills. Instrument movements were captured using the TrEndo tracking system, and nine motion analysis parameters (MAPs) were analyzed. The performance of the classifiers was measured by leave-one-out cross-validation using the scores obtained by the participants. Results The mean accuracy performances of the classifiers were 71 % (LDA), 78.2 % (SVM), and 71.7 % (ANFIS). No statistically significant differences in the performance were identified between the classifiers. Conclusions The three proposed classifiers showed good performance in the discrimination of skills, especially when information from all MAPs and tasks combined were considered. A correlation between the surgeons’ previous experience and their execution of the tasks could be ascertained from results. However, misclassifications across all the classifiers could imply the existence of other factors influencing psychomotor competence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The genome of the Gram-negative bacterium Pseudomonas putida harbours a complete set of xcp genes for a type II protein secretion system (T2SS). This study shows that expression of these genes is induced under inorganic phosphate (Pi ) limitation and that the system enables the utilization of various organic phosphate sources. A phosphatase of the PhoX family, previously designated UxpB, was identified, which was produced under low Pi conditions and transported across the cell envelope in an Xcp-dependent manner demonstrating that the xcp genes encode an active T2SS. The signal sequence of UxpB contains a twin-arginine translocation (Tat) motif as well as a lipobox, and both processing by leader peptidase II and Tat dependency were experimentally confirmed. Two different tat gene clusters were detected in the P.?putida genome, of which one, named tat-1, is located adjacent to the uxpB and xcp genes. Both Tat systems appeared to be capable of transporting the UxpB protein. However, expression of the tat-1 genes was strongly induced by low Pi levels, indicating a function of this system in survival during Pi starvation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The genome of the Gram-negative bacterium Pseudomonas putida harbours a complete set of xcp genes for a type II protein secretion system (T2SS). This study shows that expression of these genes is induced under inorganic phosphate (Pi ) limitation and that the system enables the utilization of various organic phosphate sources. A phosphatase of the PhoX family, previously designated UxpB, was identified, which was produced under low Pi conditions and transported across the cell envelope in an Xcp-dependent manner demonstrating that the xcp genes encode an active T2SS. The signal sequence of UxpB contains a twin-arginine translocation (Tat) motif as well as a lipobox, and both processing by leader peptidase II and Tat dependency were experimentally confirmed. Two different tat gene clusters were detected in the P.?putida genome, of which one, named tat-1, is located adjacent to the uxpB and xcp genes. Both Tat systems appeared to be capable of transporting the UxpB protein. However, expression of the tat-1 genes was strongly induced by low Pi levels, indicating a function of this system in survival during Pi starvation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El auge que ha surgido en los últimos años por la reparación de edificios y estructuras construidas con hormigón ha llevado al desarrollo de morteros de reparación cada vez más tecnológicos. En el desarrollo de estos morteros por parte de los fabricantes, surge la disyuntiva en el uso de los polímeros en sus formulaciones, por no encontrarse justificado en ocasiones el trinomio prestaciones/precio/aplicación. En esta tesis se ha realizado un estudio exhaustivo para la justificación de la utilización de estos morteros como morteros de reparación estructural como respuesta a la demanda actual disponiéndolo en tres partes: En la primera parte se realizó un estudio del arte de los morteros y sus constituyentes. El uso de los morteros se remonta a la antigüedad, utilizándose como componentes yeso y cal fundamentalmente. Los griegos y romanos desarrollaron el concepto de morteros de cal, introduciendo componentes como las puzolanas, cales hidraúlicas y áridos de polvo de mármol dando origen a morteros muy parecidos a los hormigones actuales. En la edad media y renacimiento se perdió la tecnología desarrollada por los romanos debido al extenso uso de la piedra en las construcciones civiles, defensivas y religiosas. Hubo que esperar hasta el siglo XIX para que J. Aspdin descubriese el actual cemento como el principal compuesto hidraúlico. Por último y ya en el siglo XX con la aparición de moléculas tales como estireno, melanina, cloruro de vinilo y poliésteres se comenzó a desarrollar la industria de los polímeros que se añadieron a los morteros dando lugar a los “composites”. El uso de polímeros en matrices cementantes dotan al mortero de propiedades tales como: adherencia, flexibilidad y trabajabilidad, como ya se tiene constancia desde los años 30 con el uso de caucho naturales. En la actualidad el uso de polímeros de síntesis (polivinialacetato, estireno-butadieno, viniacrílico y resinas epoxi) hacen que principalmente el mortero tenga mayor resistencia al ataque del agua y por lo tanto aumente su durabilidad ya que se minimizan todas las reacciones de deterioro (hielo, humedad, ataque biológico,…). En el presente estudio el polímero que se utilizó fue en estado polvo: polímero redispersable. Estos polímeros están encapsulados y cuando se ponen en contacto con el agua se liberan de la cápsula formando de nuevo el gel. En los morteros de reparación el único compuesto hidraúlico que hay es el cemento y es el principal constituyente hoy en día de los materiales de construcción. El cemento se obtiene por molienda conjunta de Clínker y yeso. El Clínker se obtiene por cocción de una mezcla de arcillas y calizas hasta una temperatura de 1450-1500º C por reacción en estado fundente. Para esta reacción se deben premachacar y homogeneizar las materias primas extraídas de la cantera. Son dosificadas en el horno con unas proporciones tales que cumplan con unas relación de óxidos tales que permitan formar las fases anhidras del Clínker C3S, C2S, C3A y C4AF. De la hidratación de las fases se obtiene el gel CSH que es el que proporciona al cemento de sus propiedades. Existe una norma (UNE-EN 197-1) que establece la composición, especificaciones y tipos de cementos que se fabrican en España. La tendencia actual en la fabricación del cemento pasa por el uso de cementos con mayores contenidos de adiciones (cal, puzolana, cenizas volantes, humo de sílice,…) con el objeto de obtener cementos más sostenibles. Otros componentes que influyen en las características de los morteros son: - Áridos. En el desarrollo de los morteros se suelen usar naturales, bien calizos o silícicos. Hacen la función de relleno y de cohesionantes de la matriz cementante. Deben ser inertes - Aditivos. Son aquellos componentes del mortero que son dosificados en una proporción menor al 5%. Los más usados son los superplastificantes por su acción de reductores de agua que revierte en una mayor durabilidad del mortero. Una vez analizada la composición de los morteros, la mejora tecnológica de los mismos está orientada al aumento de la durabilidad de su vida en obra. La durabilidad se define como la capacidad que éste tiene de resistir a la acción del ambiente, ataques químicos, físicos, biológicos o cualquier proceso que tienda a su destrucción. Estos procesos dependen de factores tales como la porosidad del hormigón y de la exposición al ambiente. En cuanto a la porosidad hay que tener en cuenta la distribución de macroporos, mesoporos y microporos de la estructura del hormigón, ya que no todos son susceptibles de que se produzca el transporte de agentes deteriorantes, provocando tensiones internas en las paredes de los mismos y destruyendo la matriz cementante Por otro lado los procesos de deterioro están relacionados con la acción del agua bien como agente directo o como vehículo de transporte del agente deteriorante. Un ambiente que resulta muy agresivo para los hormigones es el marino. En este caso los procesos de deterioro están relacionados con la presencia de cloruros y de sulfatos tanto en el agua de mar como en la atmosfera que en combinación con el CO2 y O2 forman la sal de Friedel. El deterioro de las estructuras en ambientes marinos se produce por la debilitación de la matriz cementante y posterior corrosión de las armaduras que provocan un aumento de volumen en el interior y rotura de la matriz cementante por tensiones capilares. Otras reacciones que pueden producir estos efectos son árido-álcali y difusión de iones cloruro. La durabilidad de un hormigón también depende del tipo de cemento y su composición química (cementos con altos contenidos de adición son más resistentes), relación agua/cemento y contenido de cemento. La Norma UNE-EN 1504 que consta de 10 partes, define los productos para la protección y reparación de estructuras de hormigón, el control de calidad de los productos, propiedades físico-químicas y durables que deben cumplir. En esta Norma se referencian otras 65 normas que ofrecen los métodos de ensayo para la evaluación de los sistemas de reparación. En la segunda parte de esta Tesis se hizo un diseño de experimentos con diferentes morteros poliméricos (con concentraciones de polímero entre 0 y 25%), tomando como referencia un mortero control sin polímero, y se estudiaron sus propiedades físico-químicas, mecánicas y durables. Para mortero con baja proporción de polímero se recurre a sistemas monocomponentes y para concentraciones altas bicomponentes en la que el polímero está en dispersión acuosa. Las propiedades mecánicas medidas fueron: resistencia a compresión, resistencia a flexión, módulo de elasticidad, adherencia por tracción directa y expansión-retracción, todas ellas bajo normas UNE. Como ensayos de caracterización de la durabilidad: absorción capilar, resistencia a carbonatación y adherencia a tracción después de ciclos hielo-deshielo. El objeto de este estudio es seleccionar el mortero con mejor resultado general para posteriormente hacer una comparativa entre un mortero con polímero (cantidad optimizada) y un mortero sin polímero. Para seleccionar esa cantidad óptima de polímero a usar se han tenido en cuenta los siguientes criterios: el mortero debe tener una clasificación R4 en cuanto a prestaciones mecánicas al igual que para evaluar sus propiedades durables frente a los ciclos realizados, siempre teniendo en cuenta que la adición de polímero no puede ser elevada para hacer el mortero competitivo. De este estudio se obtuvieron las siguientes conclusiones generales: - Un mortero normalizado no cumple con propiedades para ser clasificado como R3 o R4. - Sin necesidad de polímero se puede obtener un mortero que cumpliría con R4 para gran parte de las características medidas - Es necesario usar relaciones a:c< 0.5 para conseguir morteros R4, - La adición de polímero mejora siempre la adherencia, abrasión, absorción capilar y resistencia a carbonatación - Las diferentes proporciones de polímero usadas siempre suponen una mejora tecnológica en propiedades mecánicas y de durabilidad. - El polímero no influye sobre la expansión y retracción del mortero. - La adherencia se mejora notablemente con el uso del polímero. - La presencia de polímero en los morteros mejoran las propiedades relacionadas con la acción del agua, por aumento del poder cementante y por lo tanto de la cohesión. El poder cementante disminuye la porosidad. Como consecuencia final de este estudio se determinó que la cantidad óptima de polímero para la segunda parte del estudio es 2.0-3.5%. La tercera parte consistió en el estudio comparativo de dos morteros: uno sin polímero (mortero A) y otro con la cantidad optimizada de polímero, concluida en la parte anterior (mortero B). Una vez definido el porcentaje de polímeros que mejor se adapta a los resultados, se plantea un nuevo esqueleto granular mejorado, tomando una nueva dosificación de tamaños de áridos, tanto para el mortero de referencia, como para el mortero con polímeros, y se procede a realizar los ensayos para su caracterización física, microestructural y de durabilidad, realizándose, además de los ensayos de la parte 1, mediciones de las propiedades microestructurales que se estudiaron a través de las técnicas de porosimetría de mercurio y microscopia electrónica de barrido (SEM); así como propiedades del mortero en estado fresco (consistencia, contenido de aire ocluido y tiempo final de fraguado). El uso del polímero frente a la no incorporación en la formulación del mortero, proporcionó al mismo de las siguientes ventajas: - Respecto a sus propiedades en estado fresco: El mortero B presentó mayor consistencia y menor cantidad de aire ocluido lo cual hace un mortero más trabajable y más dúctil al igual que más resistente porque al endurecer dejará menos huecos en su estructura interna y aumentará su durabilidad. Al tener también mayor tiempo de fraguado, pero no excesivo permite que la manejabilidad para puesta en obra sea mayor, - Respecto a sus propiedades mecánicas: Destacar la mejora en la adherencia. Es una de las principales propiedades que confiere el polímero a los morteros. Esta mayor adherencia revierte en una mejora de la adherencia al soporte, minimización de las posibles reacciones en la interfase hormigón-mortero y por lo tanto un aumento en la durabilidad de la reparación ejecutada con el mortero y por consecuencia del hormigón. - Respecto a propiedades microestructurales: la porosidad del mortero con polímero es menor y menor tamaño de poro critico susceptible de ser atacado por agentes externos causantes de deterioro. De los datos obtenidos por SEM no se observaron grandes diferencias - En cuanto a abrasión y absorción capilar el mortero B presentó mejor comportamiento como consecuencia de su menor porosidad y su estructura microscópica. - Por último el comportamiento frente al ataque de sulfatos y agua de mar, así como al frente de carbonatación, fue más resistente en el mortero con polímero por su menor permeabilidad y su menor porosidad. Para completar el estudio de esta tesis, y debido a la gran importancia que están tomando en la actualidad factores como la sostenibilidad se ha realizado un análisis de ciclo de vida de los dos morteros objeto de estudio de la segunda parte experimental.In recent years, the extended use of repair materials for buildings and structures made the development of repair mortars more and more technical. In the development of these mortars by producers, the use of polymers in the formulations is a key point, because sometimes this use is not justified when looking to the performance/price/application as a whole. This thesis is an exhaustive study to justify the use of these mortars as a response to the current growing demand for structural repair. The thesis is classified in three parts:The first part is the study of the state of the art of mortars and their constituents.In ancient times, widely used mortars were based on lime and gypsum. The Greeks and Romans developed the concept of lime mortars, introducing components such as pozzolans, hydraulic limes and marble dust as aggregates, giving very similar concrete mortars to the ones used currently. In the middle Age and Renaissance, the technology developed by the Romans was lost, due to the extensive use of stone in the civil, religious and defensive constructions. It was not until the 19th century, when J. Aspdin discovered the current cement as the main hydraulic compound. Finally in the 20th century, with the appearance of molecules such as styrene, melanin, vinyl chloride and polyester, the industry began to develop polymers which were added to the binder to form special "composites".The use of polymers in cementitious matrixes give properties to the mortar such as adhesion, Currently, the result of the polymer synthesis (polivynilacetate, styrene-butadiene, vynilacrylic and epoxy resins) is that mortars have increased resistance to water attack and therefore, they increase their durability since all reactions of deterioration are minimised (ice, humidity, biological attack,...). In the present study the polymer used was redispersible polymer powder. These polymers are encapsulated and when in contact with water, they are released from the capsule forming a gel.In the repair mortars, the only hydraulic compound is the cement and nowadays, this is the main constituent of building materials. The current trend is centered in the use of higher contents of additions (lime, pozzolana, fly ash, silica, silica fume...) in order to obtain more sustainable cements. Once the composition of mortars is analyzed, the technological improvement is centred in increasing the durability of the working life. Durability is defined as the ability to resist the action of the environment, chemical, physical, and biological attacks or any process that tends to its destruction. These processes depend on factors such as the concrete porosity and the environmental exposure. In terms of porosity, it be considered, the distribution of Macropores and mesopores and pores of the concrete structure, since not all of them are capable of causing the transportation of damaging agents, causing internal stresses on the same walls and destroying the cementing matrix.In general, deterioration processes are related to the action of water, either as direct agent or as a transport vehicle. Concrete durability also depends on the type of cement and its chemical composition (cement with high addition amounts are more resistant), water/cement ratio and cement content. The standard UNE-EN 1504 consists of 10 parts and defines the products for the protection and repair of concrete, the quality control of products, physical-chemical properties and durability. Other 65 standards that provide the test methods for the evaluation of repair systems are referenced in this standard. In the second part of this thesis there is a design of experiments with different polymer mortars (with concentrations of polymer between 0 and 25%), taking a control mortar without polymer as a reference and its physico-chemical, mechanical and durable properties were studied. For mortars with low proportion of polymer, 1 component systems are used (powder polymer) and for high polymer concentrations, water dispersion polymers are used. The mechanical properties measured were: compressive strength, flexural strength, modulus of elasticity, adhesion by direct traction and expansion-shrinkage, all of them under standards UNE. As a characterization of the durability, following tests are carried out: capillary absorption, resistance to carbonation and pull out adhesion after freeze-thaw cycles. The target of this study is to select the best mortar to make a comparison between mortars with polymer (optimized amount) and mortars without polymer. To select the optimum amount of polymer the following criteria have been considered: the mortar must have a classification R4 in terms of mechanical performance as well as in durability properties against the performed cycles, always bearing in mind that the addition of polymer cannot be too high to make the mortar competitive in price. The following general conclusions were obtained from this study: - A standard mortar does not fulfill the properties to be classified as R3 or R4 - Without polymer, a mortar may fulfill R4 for most of the measured characteristics. - It is necessary to use relations w/c ratio < 0.5 to get R4 mortars - The addition of polymer always improves adhesion, abrasion, capillary absorption and carbonation resistance - The different proportions of polymer used always improve the mechanical properties and durability. - The polymer has no influence on the expansion and shrinkage of the mortar - Adhesion is improved significantly with the use of polymer. - The presence of polymer in mortars improves the properties related to the action of the water, by the increase of the cement power and therefore the cohesion. The cementitious properties decrease the porosity. As final result of this study, it was determined that the optimum amount of polymer for the second part of the study is 2.0 - 3.5%. The third part is the comparative study between two mortars: one without polymer (A mortar) and another with the optimized amount of polymer, completed in the previous part (mortar B). Once the percentage of polymer is defined, a new granular skeleton is defined, with a new dosing of aggregate sizes, for both the reference mortar, the mortar with polymers, and the tests for physical, microstructural characterization and durability, are performed, as well as trials of part 1, measurements of the microstructural properties that were studied by scanning electron microscopy (SEM) and mercury porosimetry techniques; as well as properties of the mortar in fresh State (consistency, content of entrained air and final setting time). The use of polymer versus non polymer mortar, provided the following advantages: - In fresh state: mortar with polymer presented higher consistency and least amount of entrained air, which makes a mortar more workable and more ductile as well as more resistant because hardening will leave fewer gaps in its internal structure and increase its durability. Also allow it allows a better workability because of the longer (not excessive) setting time. - Regarding the mechanical properties: improvement in adhesion. It is one of the main properties which give the polymer to mortars. This higher adhesion results in an improvement of adhesion to the substrate, minimization of possible reactions at the concrete-mortar interface and therefore an increase in the durability of the repair carried out with mortar and concrete. - Respect to microstructural properties: the porosity of mortar with polymer is less and with smaller pore size, critical to be attacked by external agents causing deterioration. No major differences were observed from the data obtained by SEM - In terms of abrasion and capillary absorption, polymer mortar presented better performance as a result of its lower porosity and its microscopic structure. - Finally behavior against attack by sulfates and seawater, as well as to carbonation, was better in the mortar with polymer because of its lower permeability and its lower porosity. To complete the study, due to the great importance of sustainability for future market facts, the life cycle of the two mortars studied was analysed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Disturbances shape forest ecosystems by influencing their composition, structure, and processes. In the Mediterranean Basin, changes in the disturbance regimes have been predicted to occur in the next future with a higher occurrence of extreme events of drought, wildfire, and – to a lesser extent – windstorm. Woody species are the main elements defining the structure and functioning of forest ecosystems. Recently, response-type diversity has been pointed out as an appropriate indicator of ecosystems resilience. For this, we have elaborated a complete response-trait database for the tree and shrubby species considered in the Third Spanish National Forest Inventory (3SNFI). In the database, the presence or absence of nine response traits associated to drought, fire, and wind were assigned to each species. The database reflected the lack of information about some important traits (in particular for shrubby species) and allowed to determine those traits most widely distributed. The information contained in the database was then used to assess a relative index of forest resilience to these disturbances calculated from the abundance of response traits and the species redundancy for each plot of the 3SNFI; considering both tree and shrubby species. In general, few plots showed high values of the resilience index, probably because some traits were scarcely presented in the species and also because most plots presented very few species. The cartographic representation of the index showed low values for the stands located in mountainous ranges, which are mostly composed by species typical from central Europe. In the other side, Eucalyptus plantations in Galicia appeared as one thee the most resilient ecosystems, due to its higher adaptive capacity to persist after the occurrence of drought, fire, and windstorm events. We conclude that the response traits database can constitute a useful tool for forest management and planning and for future research to enhance the forest resilience.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract Interneuron classification is an important and long-debated topic in neuroscience. A recent study provided a data set of digitally reconstructed interneurons classified by 42 leading neuroscientists according to a pragmatic classification scheme composed of five categorical variables, namely, of the interneuron type and four features of axonal morphology. From this data set we now learned a model which can classify interneurons, on the basis of their axonal morphometric parameters, into these five descriptive variables simultaneously. Because of differences in opinion among the neuroscientists, especially regarding neuronal type, for many interneurons we lacked a unique, agreed-upon classification, which we could use to guide model learning. Instead, we guided model learning with a probability distribution over the neuronal type and the axonal features, obtained, for each interneuron, from the neuroscientists’ classification choices. We conveniently encoded such probability distributions with Bayesian networks, calling them label Bayesian networks (LBNs), and developed a method to predict them. This method predicts an LBN by forming a probabilistic consensus among the LBNs of the interneurons most similar to the one being classified. We used 18 axonal morphometric parameters as predictor variables, 13 of which we introduce in this paper as quantitative counterparts to the categorical axonal features. We were able to accurately predict interneuronal LBNs. Furthermore, when extracting crisp (i.e., non-probabilistic) predictions from the predicted LBNs, our method outperformed related work on interneuron classification. Our results indicate that our method is adequate for multi-dimensional classification of interneurons with probabilistic labels. Moreover, the introduced morphometric parameters are good predictors of interneuron type and the four features of axonal morphology and thus may serve as objective counterparts to the subjective, categorical axonal features.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Interneuron classification is an important and long-debated topic in neuroscience. A recent study provided a data set of digitally reconstructed interneurons classified by 42 leading neuroscientists according to a pragmatic classification scheme composed of five categorical variables, namely, of the interneuron type and four features of axonal morphology. From this data set we now learned a model which can classify interneurons, on the basis of their axonal morphometric parameters, into these five descriptive variables simultaneously. Because of differences in opinion among the neuroscientists, especially regarding neuronal type, for many interneurons we lacked a unique, agreed-upon classification, which we could use to guide model learning. Instead, we guided model learning with a probability distribution over the neuronal type and the axonal features, obtained, for each interneuron, from the neuroscientists’ classification choices. We conveniently encoded such probability distributions with Bayesian networks, calling them label Bayesian networks (LBNs), and developed a method to predict them. This method predicts an LBN by forming a probabilistic consensus among the LBNs of the interneurons most similar to the one being classified. We used 18 axonal morphometric parameters as predictor variables, 13 of which we introduce in this paper as quantitative counterparts to the categorical axonal features. We were able to accurately predict interneuronal LBNs. Furthermore, when extracting crisp (i.e., non-probabilistic) predictions from the predicted LBNs, our method outperformed related work on interneuron classification. Our results indicate that our method is adequate for multi-dimensional classification of interneurons with probabilistic labels. Moreover, the introduced morphometric parameters are good predictors of interneuron type and the four features of axonal morphology and thus may serve as objective counterparts to the subjective, categorical axonal features.