999 resultados para Ensayos clínicos
Resumo:
En el presente proyecto se redacta un estudio sobre la resistencia al corte de escolleras en cajón de 1x1m2.Con este estudio se intentará valores aproximados al ángulo de rozamiento. Estos parámetros se distinguirán en función si las escolleras son directamente vertidas o si han sufrido una previa compactación. Para ello se han realizado una serie de ensayos, con materias traído de varias zonas de España al Laboratorio de Geotecnia de CEDEX. Los datos obtenidos se han interpretado de varias formas. Primero se ha analizado las curvas resultantes de la tensión tangencial en función del desplazamiento. Después se ha aplicado un análisis de la relación entre el ángulo de rozamiento y la tensión normal. Por otra parte se han utilizado dos modelos, uno de hiperbólico y otro modelo rotura. Dentro del modelo de rotura se han tomado dos criterios. Un primer criterio según el criterio de rotura de Morh-Coulomb y un segundo criterio no lineal sino parabólico. Con los resultados obtenidos de las interpretaciones, se ha realizado una comparativa. Por una parte se han comparada con los datos que dieron otros autores y por otra parte con los resultados obtenidos en los ensayos de corte directo en caja de 30x30 cm2. Las conclusiones obtenidas, un valor del ángulo de rozamiento sería de 42° para escolleras que no han sido compactadas y de 47° para escolleras que hayan sido compactadas.
Resumo:
La presente publicación presenta el desarrollo de diferentes ensayos experimentales con el fin de poder determinar las características aerodinámicas asociadas al Efecto Magnus en cuerpos no cilíndricos circulares. Se realiza la descripción del banco y los equipos utilizados para los ensayos, los modelos, la metodología y los resultados de los ensayos realizados. Se presentan la sustentación y resistencia aerodinámica de los modelos para diferentes velocidades de rotación y de la corriente de aire.
Resumo:
Hay un ejemplar encuadernado dentro del volumen facticio XVIII/1829
Resumo:
Hace ya varias décadas, comenzó a aplicarse al análisis de presas el estudio experimental en modelos reducidos, campo en el que se ha trabajado durante muchos años en el Laboratorio Central. Durante este tiempo, la técnica de tales ensayos ha ido perfeccionándose, consiguiendo reproducir con mayor fidelidad la situación real, en particular, aspectos tan importantes como las posibles discontinuidades existentes en el valle así como la interacción presa-terreno de cimentación, apareciendo así, de una forma natural los ensayos geomecánicos. Como resultado de esa evolución se han llevado a cabo algunos ensayos geomecánicos de presas en dicho Laboratorio, los cuales constituyen el objeto de esta publicación.
Resumo:
El vidrio no puede ser tratado como un material estructural convencional desde el punto de vista de la resistencia mecánica. Su naturaleza, como material frágil, junto con la inevitable presencia de microfisuras en su superficie y las consecuencias de accidentes por posibles fallos, exigen métodos rigurosos que garanticen un cálculo seguro de los elementos estructurales de vidrio, cuya resistencia a rotura depende en gran medida del tamaño del elemento y del tipo de carga a la que está sometido. Por lo tanto, su cálculo debe basarse en conceptos probabilísticos y en criterios de mecánica de la fractura, en sustitución de un cálculo convencional de vidrio según tablas deducidas de programas experimentales y posterior aplicación del concepto de tensiones admisibles. Con el fin de analizar y comparar las características mecánicas de vidrios templados, termoendurecidos y recocidos, se realizó un amplio programa experimental de ensayos de flexión a cuatro puntos y de anillos concéntricos de pequeña superficie, seguido de un ajuste de los resultados mediante una función de distribución triparamétrica de Weibull. Glass cannot be handled as a conventional structural material from the point of view of the mechanical strength. Its nature as brittle material, together with the inevitable presence of micro-cracks on its surface and the consequences of eventual failures, demand rigorous methods to achieve a safe design for glass elements, whose stress resistance is very much dependent on the integrity of its surface, element size and loading pattern. Thus, its design must rely on probabilistic concepts and fracture mechanics criteria, substitutive of the conventional glass design based on charts derived from experimental programs and subsequent application of the admissible stress concept. In order to analyze and compare the strength characteristics of tempered, heat-strengthened and annealed glass, a large experimental programme based on four-point bending and coaxial double ring tests was performed and the results were fitted using a three-parameter Weibull cumulative distribution function.
Resumo:
El comportamiento post-rotura de los vidrios laminados es uno de los temas que están siendo investigados para explicar la capacidad de carga remanente tras la rotura de la primera lámina. En investigaciones previas se ha observado que en el caso de impacto humano en vidrios recocidos se llega a una capacidad hasta 3 veces superior, sin explicación clara del comportamiento estructural del conjunto. Para realizar un acercamiento a la resistencia a la rotura del vidrio laminado se ha planificado una campaña de ensayos de rotura con anillos concéntricos de grandes superficies en vidrio recocido, termoendurecido y templado, con dos series adicionales de vidrio recocido y termoendurecido con una capa de butiral adherida justo después del proceso de fabricación. Para realizar la comparación de las distribuciones de Weibull de las distintas tensiones de rotura se utiliza un proceso iterativo basado en la distribución real de tensiones obtenida con un modelo de elementos finitos ajustado con datos experimentales. Las comparaciones finales muestran un aumento apreciable de la resistencia (45%) en el caso de vidrios recocidos, y menor en el de los termoendurecidos (25%).The post-fracture behavior of the laminated glasses is one of the research topics that are being studied to explain the load capacity after the break of the first sheet. Previous experimental work have shown, that in case of human impact in annealed glasses, the capacity of bearing load it can be up to 3 times higher without clear explanation of the structural behavior of the plate. To make an approximation to the post-fracture resistance, a experimental program to test annealed, heat-tempered and toughened glass plates has been prepared. Two additional series of annealed and heattempered, with a layer of polyvinyl butyral adhered just after the manufacturing process, have also been incorporated. Coaxial Double Ring with large test surface areas Coaxial Double Ring with large test surface areas is the standard that has been followed. To make the comparison of Weibull's distributions of the different fracture stress, an iterative process based on the actual stress distribution obtained with a finite elements model updated with experimental results has been used. Final comparisons show a great stress improvement for the annealed glass plates (45 %), and a minor increment for the heat-tempered (25 %).
Comportamiento a cortante puro de hormigones reforzados con fibras sometidos a ensayos tipo Push-Off
Resumo:
El hormigón como material de construcción constituye la base fundamental del desarrollo de la infraestructura de nuestras sociedades modernas. Este material compuesto en su forma mas básica de material cementoso, áridos finos, gruesos y agua es muy versátil dada la posibilidad de fabricación en obra, su capacidad de moldeo y sus altas prestaciones mecánicas ante cargas de compresión El uso de fibras dentro de la matriz del hormigón surge como una opción para mejorar las capacidades mecánicas del hormigón, tendiente principalmente a un aumento de su capacidad de absorción de energía (Aumento de ductilidad). El objetivo de este trabajo fue el estudio del comportamiento mecánico de hormigones autocompactantes reforzados con fibras de poliolefina y metálicas sometidos a esfuerzos de cortante puro. Para esto se realizaron ensayos tipo “Push-Off” sobre diferentes dosificaciones de fibras agregadas a hormigones patrón de referencia. La campana experimental se realizo sobre hormigones autocompactantes de campanas experimentales anteriores. La campana abarca hormigones reforzados con fibra de poliolefina desde el umbral inferior de 3kg/m3 hasta un valor máximo de 10kg/m3, así como hormigones reforzados con fibra de acero con 26 y 70 kilogramos de fibra por metro cúbico de hormigón, buscando evaluar su comportamiento mecánico en estado endurecido a ensayos de cortante puro tipo “Push-off”. Dichos ensayos fueron instrumentados mediante la colocación de CMOD (Crack mouth open displacement) en las entallas, así como usando la técnica de la video extensometría (DIC por sus siglas en ingles), la cual permite hacer un análisis mas minucioso de los estados de deformaciones de toda la probeta. Se concluyo que los hormigones con bajos y medios contenidos de fibras de poliolefina aumentan en pequeña magnitud su ductilidad, estando condicionados los ensayos tipo “Push-off” de los mismos a la probabilidad de encontrar fibras en la interfaz de la fisura por cortante. En el caso de los hormigones con contenido medio de fibras de acero, se concluyo que tienen una gran mejoría en su comportamiento frente a cortante puro. Su comportamiento post-pico tiene aumentos considerables con respecto a los hormigones no reforzados, ductilidad y capacidad de conservación de cargas residuales, y la capacidad de disipación de energía de estos es intermedia entre los hormigones de bajo contenido de fibras de poliolefina y los de alto contenido tanto de acero como de poliolefina. Estos hormigones constituyen en general un punto medio entre economía y facilidad de fabricación y desempeño mecánico. En el caso de los hormigones de alto contenido de fibras de poliolefina, se obtuvieron comportamientos post-pico con alta ductilidad, con deformaciones que superan valores de 2mm. Las cargas pico de los mismos fueron levemente superiores a los hormigones no reforzados y un poco inferiores a los de alto contenido de fibras de acero sin ser concluyentes los resultados al respecto. Estos hormigones disipan menos energía en la fractura que los hormigones de acero hasta deformaciones de 2mm pero una vez alcanzada la misma se evidencio que el cortante residual de estos superaba la de los hormigones con fibra de acero. Los hormigones con alto contenido de fibra de acero presentaron los mejores resultados de la campana experimental, con cargas pico mayores, ramas de descarga con pendiente reducida (fallas dúctiles) y mayor cantidad de energía disipada. A pesar de esto es importante tener en cuenta que los resultados obtenidos no estuvieron muy alejados de los hormigones con alto contenido de fibras de poliolefina, los cuales son mas económicos, menos densos, mas durables y mas manejables.
Resumo:
El artículo que se presenta a continuación recoge la ampliación de una investigación previa sobre los rebases en los espaldones de los diques verticales y en talud. Para ello se han realizado una serie de ensayos en modelo físico a escala reducida sobre la sección vertical del Dique de Levante de Málaga, cuyo objeto principal fue analizar el efecto del viento en el rebase. Los ensayos se han realizado generando oleaje con y sin viento, comparando los resultados obtenidos en cada una de las dos situaciones y se han llevado a cabo en el Canal de Oleaje y Viento de Gran Escala existente en el Laboratorio de Experimentación Marítima del Centro de Estudios de Puertos y Costas del CEDEX. The purpose of the research work as summarised in this article, resulting from diverse work carried out at the CEDEX, is to make an analysis of the influence of wind effects on the wave overtopping of vertical sea-walls. The results obtained in the Málaga´s Levante breakwater tests are presented here. The test was carried out in large sized facilities where waves and wind are generated.
Resumo:
La norma UNE-EN ISO/IEC 17025 establece los requisitos generales para la competencia en la realización de ensayos y sirve de referencia para la acreditación de los laboratorios. Entre los requisitos que establece está el de asegurar que los equipos utilizados en las mediciones cumplen con las especificaciones que determinan las normas de ensayo correspondientes. En este trabajo se analizan los requisitos que se imponen a las fuentes sonoras en los ensayos acústicos más usuales. Se describen las técnicas de verificación habitualmente utilizadas y se discuten los errores más comunes en las verificaciones y en la evaluación de los resultados.
Resumo:
Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.
Resumo:
El aislamiento acústico de elementos constructivos obtenido en obra difiere del aislamiento acústico obtenido en laboratorio, tanto para ruido aéreo como para ruido de impactos. Esto se produce porque el aislamiento acústico de cualquier elemento constructivo, como por ejemplo una pared, está influido por los elementos constructivos conectados a ella, como son tabiques, forjados o fachadas, ya que los elementos constructivos, en presencia del campo acústico vibran y transmiten sus vibraciones al elemento de separación produciendo la transmisión indirecta estructural o también denominada transmisión por flancos. El objeto de esta comunicación es cuantificar la pérdida de aislamiento acústico a ruido aéreo, que se produce en la edificación y que es atribuible a las transmisiones indirectas. En el caso de los edificios estudiados, la pérdida de aislamiento acústico puede variar de 4 a 10 dB.
Resumo:
El presente trabajo de investigación se plantea el estudio del fenómeno de la retracción. El fenómeno de la retracción, al igual que otras propiedades del hormigón, ha sido ampliamente divulgado, pero de un tiempo a esta parte, debido a la aparición de nuevos tipos de hormigones (autocompactantes, de altas resistencias, reciclados, etc.) se ha dejado en un segundo plano. Este segundo plano no significa que haya pasado al olvido, pues en los “nuevos hormigones” se toman los modelos de estimación de los hormigones normales como base para estimar sus propiedades, siendo, por este motivo, muy necesario reflexionar sobre si los modelos que estamos empleando son apropiados o no lo son. Este trabajo pretende, mediante la confección de una base de datos que unifica y amplía la del profesor Bazant, realizar un análisis estadístico de los datos que actualmente tenemos a nuestra disposición, y que conforman un total de 802 ensayos que abarcan desde el fenómeno el entumecimiento hasta la retracción total, pasando por la retracción autógena, con un intervalo de tiempo que abarca desde 1958 hasta 2013. Además, este trabajo realiza una revisión de los siete modelos de cálculo más empleados a la hora de estimar la deformación por retracción, analizándolos minuciosamente y superponiéndolos con los datos reales de la base anteriormente nombrada. Como conclusión, se demuestra que los modelos estudiados estiman razonablemente bien el fenómeno de la retracción, si bien no se llegan a discriminar todas las variables con la precisión esperada, siendo alguno de ellos conservador. En este sentido, se abre la puerta a insistir en un estudio más afinado de la retracción del hormigón, por dos motivos: los actuales modelos sirven de base para la estimación de los anteriormente mencionados nuevos hormigones y porque la introducción y desarrollo de aditivos que sean capaces de disminuir este fenómeno deben asentarse ambos sobre una base más sólida y precisa. Por último, deja la puerta abierta para que otros trabajos de investigación puedan realizarse, bien con la retracción, bien con otras propiedades, como el módulo de deformación, la adquisición de resistencias, etc., pues se adjunta como anexo toda la base completa con más de 20.000 datos que pueden ser de gran utilidad. The main objective of this research study is to evaluate the phenomenon of shrinkage in concrete. The phenomenon of shrinkage, as well as other properties of concrete, has been widely studied, but for a time, and due to the emergence of new types of concrete (self-compacting, high strength, recycled, etc.) it has been left in the background. Having moved to second plane did not mean that it have been abandoned, since in the "new concrete" these properties are calculated using the estimation models developed for conventional concrete, and it is for this reason, why it is important and necessary to reflect whether these models we are using are appropriate or are not. This work seeks to unify and bring up-to-date a database of experimental shrinkage results. The database is based on existing databases, especially on the last version of the database created by Professor Bazant. The database includes a total of 802 experimental results, and include results for total shrinkage, autogenous shrinkage and swelling, and over experimental studies for 1958 to 2013. The database serves as a basis for a complex and detailed statistical analysis of the data. In addition, seven commonly used shrinkage estimation models are presented and evaluated. These models are used for a thoroughly comparison analysis between the estimated results obtained using these models and the actual experimental data included in the unified database. In conclusion, it is shown that the models estimate reasonably well the shrinkage strains, although they fail to discriminate adequately some of the influencing variables, resulting in some of them being too conservative in their estimation. In this sense, the results of this work emphasis the importance and the need of addition research on the shrinkage of concrete. This is especially important considering that the existing models provide a basis for estimating the shrinkage in "new concretes", and that the increase use of shrinkage reducing additives should be based and supported by solid research in this field. Finally, this study includes an extensive and updated database that can serve for further research on shrinkage. The full database, developed as part of this work, which includes more than 20,000 data, is included in the annex of the study.
Resumo:
Los ensayos de bombeo son, sin lugar a dudas, una de las pruebas más fiables y de mayor interés que se hacen en el medio físico. No son pruebas estrictamente puntuales, dado que el bombeo atrae flujo desde distancias lejanas al pozo, la prueba tiene una excelente representatividad espacial. Los métodos de interpretación mediante ensayos de bombeo se empezaron a plantear en la primera mitad del pasado siglo. Con los ensayos de bombeo se puede calcular la transmisividad y coeficiente de almacenamiento de las formaciones acuíferas y suministran información sobre el tipo de acuífero, la calidad constructiva del pozo de extracción, la existencia de barreras impermeable o bordes de recarga próximos, e incluso en algunas circunstancias permiten el cálculo del área de embalse subterráneo. Desde mediados del siglo 20 existe una eficaz y abundante gama de métodos analítico-interpretativos de ensayos de bombeo, tanto en régimen permanente como transitorio. Estos métodos son ampliamente conocidos y están muy experimentados a lo largo de muchos países, sin embargo, hoy día, podrían utilizarse modelos de flujo para la interpretación, logrando la misma fiabilidad e incluso mejores posibilidades de análisis. Muchos ensayos que no pueden interpretarse porque las configuraciones del medio son demasiado complejas y no están disponibles, o no es posible, el desarrollo de métodos analíticos, tienen buena adaptación y en ocasiones muy fácil solución haciendo uso de los métodos numéricos de simulación del flujo. En esta tesis se ha buscado una vía de interpretar ensayos de bombeo haciendo uso de modelos de simulación del flujo. Se utiliza el modelo universal MODFLOW del United States Geological Survey, en el cual se configura una celda de simulación y mallado particularmente adecuados para el problema a tratar, se valida con los métodos analíticos existentes. Con la célula convenientemente validada se simulan otros casos en los que no existen métodos analíticos desarrollados dada la complejidad del medio físico a tratar y se sacan las oportunas conclusiones. Por último se desarrolla un modelo específico y la correspondiente aplicación de uso general para la interpretación numérica de ensayos de bombeo tanto con las configuraciones normales como con configuraciones complejas del medio físico. ABSTRACT Pumping tests are, without doubt, one of the most reliable and most interesting tests done in the physical environment. They are not strictly anecdotal evidence, since pumping flow attracts from far distances to the well, the test has excellent spatial representation. Methods of interpretation by pumping tests began to arise in the first half of last century. With pumping tests, can be calculated transmissivity and storage coefficient of the aquifer formations, and provide information on the type of aquifer, the construction quality of the well, the existence of waterproof barriers or borders next recharge, and even in some circumstances allow calculating the area of underground reservoir. Since the mid-20th century there is effective and abundant range of analytical interpretative pumping tests, both in steady state and transient methods. These methods are very widely known and experienced over many countries, however, nowadays, may flow models used for interpretation, obtaining equally reliable or even better possibilities for analysis. Many trials cannot be interpreted as environmental settings are too complex and are not available, or not possible, the development of analytical methods, have good adaptation and sometimes very easily solved using numerical flow simulation methods. This thesis has sought a way to interpret pumping tests using flow simulation models. MODFLOW universal model of United States Geological Survey, in which a simulation cell and meshing particularly suitable for the problem to be treated, is validated with existing analytical methods used is set. With suitably validated cell other cases where there are no analytical methods developed given the complexity of the physical environment to try and draw appropriate conclusions are simulated. Finally, a specific model and the corresponding application commonly used for numerical interpretation of pumping tests both with normal settings as complex configurations of the physical environment is developed.
Resumo:
La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.
Resumo:
En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.