63 resultados para Ensayos mexicanos-Colecciones


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente proyecto se redacta un estudio sobre la resistencia al corte de escolleras en cajón de 1x1m2.Con este estudio se intentará valores aproximados al ángulo de rozamiento. Estos parámetros se distinguirán en función si las escolleras son directamente vertidas o si han sufrido una previa compactación. Para ello se han realizado una serie de ensayos, con materias traído de varias zonas de España al Laboratorio de Geotecnia de CEDEX. Los datos obtenidos se han interpretado de varias formas. Primero se ha analizado las curvas resultantes de la tensión tangencial en función del desplazamiento. Después se ha aplicado un análisis de la relación entre el ángulo de rozamiento y la tensión normal. Por otra parte se han utilizado dos modelos, uno de hiperbólico y otro modelo rotura. Dentro del modelo de rotura se han tomado dos criterios. Un primer criterio según el criterio de rotura de Morh-Coulomb y un segundo criterio no lineal sino parabólico. Con los resultados obtenidos de las interpretaciones, se ha realizado una comparativa. Por una parte se han comparada con los datos que dieron otros autores y por otra parte con los resultados obtenidos en los ensayos de corte directo en caja de 30x30 cm2. Las conclusiones obtenidas, un valor del ángulo de rozamiento sería de 42° para escolleras que no han sido compactadas y de 47° para escolleras que hayan sido compactadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación:  Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas.  Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas].  Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas].  Implementación. Desarrollo del código de la herramienta [80 horas].  Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas].  Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas].  Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows:  Training. Gathering the necessary information to develop the tool [30 hours].  Software requirement specification. Requirements the tool must accomplish [20 hours].  Design. Decisions on the design of the tool [35 hours].  Implementation. Tool development [80 hours].  Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours].  Debugging. Improve efficiency and correct errors [45 hours].  Documenting. Final report elaboration [44 hours].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente publicación presenta el desarrollo de diferentes ensayos experimentales con el fin de poder determinar las características aerodinámicas asociadas al Efecto Magnus en cuerpos no cilíndricos circulares. Se realiza la descripción del banco y los equipos utilizados para los ensayos, los modelos, la metodología y los resultados de los ensayos realizados. Se presentan la sustentación y resistencia aerodinámica de los modelos para diferentes velocidades de rotación y de la corriente de aire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hace ya varias décadas, comenzó a aplicarse al análisis de presas el estudio experimental en modelos reducidos, campo en el que se ha trabajado durante muchos años en el Laboratorio Central. Durante este tiempo, la técnica de tales ensayos ha ido perfeccionándose, consiguiendo reproducir con mayor fidelidad la situación real, en particular, aspectos tan importantes como las posibles discontinuidades existentes en el valle así como la interacción presa-terreno de cimentación, apareciendo así, de una forma natural los ensayos geomecánicos. Como resultado de esa evolución se han llevado a cabo algunos ensayos geomecánicos de presas en dicho Laboratorio, los cuales constituyen el objeto de esta publicación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El vidrio no puede ser tratado como un material estructural convencional desde el punto de vista de la resistencia mecánica. Su naturaleza, como material frágil, junto con la inevitable presencia de microfisuras en su superficie y las consecuencias de accidentes por posibles fallos, exigen métodos rigurosos que garanticen un cálculo seguro de los elementos estructurales de vidrio, cuya resistencia a rotura depende en gran medida del tamaño del elemento y del tipo de carga a la que está sometido. Por lo tanto, su cálculo debe basarse en conceptos probabilísticos y en criterios de mecánica de la fractura, en sustitución de un cálculo convencional de vidrio según tablas deducidas de programas experimentales y posterior aplicación del concepto de tensiones admisibles. Con el fin de analizar y comparar las características mecánicas de vidrios templados, termoendurecidos y recocidos, se realizó un amplio programa experimental de ensayos de flexión a cuatro puntos y de anillos concéntricos de pequeña superficie, seguido de un ajuste de los resultados mediante una función de distribución triparamétrica de Weibull. Glass cannot be handled as a conventional structural material from the point of view of the mechanical strength. Its nature as brittle material, together with the inevitable presence of micro-cracks on its surface and the consequences of eventual failures, demand rigorous methods to achieve a safe design for glass elements, whose stress resistance is very much dependent on the integrity of its surface, element size and loading pattern. Thus, its design must rely on probabilistic concepts and fracture mechanics criteria, substitutive of the conventional glass design based on charts derived from experimental programs and subsequent application of the admissible stress concept. In order to analyze and compare the strength characteristics of tempered, heat-strengthened and annealed glass, a large experimental programme based on four-point bending and coaxial double ring tests was performed and the results were fitted using a three-parameter Weibull cumulative distribution function.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El comportamiento post-rotura de los vidrios laminados es uno de los temas que están siendo investigados para explicar la capacidad de carga remanente tras la rotura de la primera lámina. En investigaciones previas se ha observado que en el caso de impacto humano en vidrios recocidos se llega a una capacidad hasta 3 veces superior, sin explicación clara del comportamiento estructural del conjunto. Para realizar un acercamiento a la resistencia a la rotura del vidrio laminado se ha planificado una campaña de ensayos de rotura con anillos concéntricos de grandes superficies en vidrio recocido, termoendurecido y templado, con dos series adicionales de vidrio recocido y termoendurecido con una capa de butiral adherida justo después del proceso de fabricación. Para realizar la comparación de las distribuciones de Weibull de las distintas tensiones de rotura se utiliza un proceso iterativo basado en la distribución real de tensiones obtenida con un modelo de elementos finitos ajustado con datos experimentales. Las comparaciones finales muestran un aumento apreciable de la resistencia (45%) en el caso de vidrios recocidos, y menor en el de los termoendurecidos (25%).The post-fracture behavior of the laminated glasses is one of the research topics that are being studied to explain the load capacity after the break of the first sheet. Previous experimental work have shown, that in case of human impact in annealed glasses, the capacity of bearing load it can be up to 3 times higher without clear explanation of the structural behavior of the plate. To make an approximation to the post-fracture resistance, a experimental program to test annealed, heat-tempered and toughened glass plates has been prepared. Two additional series of annealed and heattempered, with a layer of polyvinyl butyral adhered just after the manufacturing process, have also been incorporated. Coaxial Double Ring with large test surface areas Coaxial Double Ring with large test surface areas is the standard that has been followed. To make the comparison of Weibull's distributions of the different fracture stress, an iterative process based on the actual stress distribution obtained with a finite elements model updated with experimental results has been used. Final comparisons show a great stress improvement for the annealed glass plates (45 %), and a minor increment for the heat-tempered (25 %).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El hormigón como material de construcción constituye la base fundamental del desarrollo de la infraestructura de nuestras sociedades modernas. Este material compuesto en su forma mas básica de material cementoso, áridos finos, gruesos y agua es muy versátil dada la posibilidad de fabricación en obra, su capacidad de moldeo y sus altas prestaciones mecánicas ante cargas de compresión El uso de fibras dentro de la matriz del hormigón surge como una opción para mejorar las capacidades mecánicas del hormigón, tendiente principalmente a un aumento de su capacidad de absorción de energía (Aumento de ductilidad). El objetivo de este trabajo fue el estudio del comportamiento mecánico de hormigones autocompactantes reforzados con fibras de poliolefina y metálicas sometidos a esfuerzos de cortante puro. Para esto se realizaron ensayos tipo “Push-Off” sobre diferentes dosificaciones de fibras agregadas a hormigones patrón de referencia. La campana experimental se realizo sobre hormigones autocompactantes de campanas experimentales anteriores. La campana abarca hormigones reforzados con fibra de poliolefina desde el umbral inferior de 3kg/m3 hasta un valor máximo de 10kg/m3, así como hormigones reforzados con fibra de acero con 26 y 70 kilogramos de fibra por metro cúbico de hormigón, buscando evaluar su comportamiento mecánico en estado endurecido a ensayos de cortante puro tipo “Push-off”. Dichos ensayos fueron instrumentados mediante la colocación de CMOD (Crack mouth open displacement) en las entallas, así como usando la técnica de la video extensometría (DIC por sus siglas en ingles), la cual permite hacer un análisis mas minucioso de los estados de deformaciones de toda la probeta. Se concluyo que los hormigones con bajos y medios contenidos de fibras de poliolefina aumentan en pequeña magnitud su ductilidad, estando condicionados los ensayos tipo “Push-off” de los mismos a la probabilidad de encontrar fibras en la interfaz de la fisura por cortante. En el caso de los hormigones con contenido medio de fibras de acero, se concluyo que tienen una gran mejoría en su comportamiento frente a cortante puro. Su comportamiento post-pico tiene aumentos considerables con respecto a los hormigones no reforzados, ductilidad y capacidad de conservación de cargas residuales, y la capacidad de disipación de energía de estos es intermedia entre los hormigones de bajo contenido de fibras de poliolefina y los de alto contenido tanto de acero como de poliolefina. Estos hormigones constituyen en general un punto medio entre economía y facilidad de fabricación y desempeño mecánico. En el caso de los hormigones de alto contenido de fibras de poliolefina, se obtuvieron comportamientos post-pico con alta ductilidad, con deformaciones que superan valores de 2mm. Las cargas pico de los mismos fueron levemente superiores a los hormigones no reforzados y un poco inferiores a los de alto contenido de fibras de acero sin ser concluyentes los resultados al respecto. Estos hormigones disipan menos energía en la fractura que los hormigones de acero hasta deformaciones de 2mm pero una vez alcanzada la misma se evidencio que el cortante residual de estos superaba la de los hormigones con fibra de acero. Los hormigones con alto contenido de fibra de acero presentaron los mejores resultados de la campana experimental, con cargas pico mayores, ramas de descarga con pendiente reducida (fallas dúctiles) y mayor cantidad de energía disipada. A pesar de esto es importante tener en cuenta que los resultados obtenidos no estuvieron muy alejados de los hormigones con alto contenido de fibras de poliolefina, los cuales son mas económicos, menos densos, mas durables y mas manejables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El artículo que se presenta a continuación recoge la ampliación de una investigación previa sobre los rebases en los espaldones de los diques verticales y en talud. Para ello se han realizado una serie de ensayos en modelo físico a escala reducida sobre la sección vertical del Dique de Levante de Málaga, cuyo objeto principal fue analizar el efecto del viento en el rebase. Los ensayos se han realizado generando oleaje con y sin viento, comparando los resultados obtenidos en cada una de las dos situaciones y se han llevado a cabo en el Canal de Oleaje y Viento de Gran Escala existente en el Laboratorio de Experimentación Marítima del Centro de Estudios de Puertos y Costas del CEDEX. The purpose of the research work as summarised in this article, resulting from diverse work carried out at the CEDEX, is to make an analysis of the influence of wind effects on the wave overtopping of vertical sea-walls. The results obtained in the Málaga´s Levante breakwater tests are presented here. The test was carried out in large sized facilities where waves and wind are generated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La norma UNE-EN ISO/IEC 17025 establece los requisitos generales para la competencia en la realización de ensayos y sirve de referencia para la acreditación de los laboratorios. Entre los requisitos que establece está el de asegurar que los equipos utilizados en las mediciones cumplen con las especificaciones que determinan las normas de ensayo correspondientes. En este trabajo se analizan los requisitos que se imponen a las fuentes sonoras en los ensayos acústicos más usuales. Se describen las técnicas de verificación habitualmente utilizadas y se discuten los errores más comunes en las verificaciones y en la evaluación de los resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El aislamiento acústico de elementos constructivos obtenido en obra difiere del aislamiento acústico obtenido en laboratorio, tanto para ruido aéreo como para ruido de impactos. Esto se produce porque el aislamiento acústico de cualquier elemento constructivo, como por ejemplo una pared, está influido por los elementos constructivos conectados a ella, como son tabiques, forjados o fachadas, ya que los elementos constructivos, en presencia del campo acústico vibran y transmiten sus vibraciones al elemento de separación produciendo la transmisión indirecta estructural o también denominada transmisión por flancos. El objeto de esta comunicación es cuantificar la pérdida de aislamiento acústico a ruido aéreo, que se produce en la edificación y que es atribuible a las transmisiones indirectas. En el caso de los edificios estudiados, la pérdida de aislamiento acústico puede variar de 4 a 10 dB.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo de investigación se plantea el estudio del fenómeno de la retracción. El fenómeno de la retracción, al igual que otras propiedades del hormigón, ha sido ampliamente divulgado, pero de un tiempo a esta parte, debido a la aparición de nuevos tipos de hormigones (autocompactantes, de altas resistencias, reciclados, etc.) se ha dejado en un segundo plano. Este segundo plano no significa que haya pasado al olvido, pues en los “nuevos hormigones” se toman los modelos de estimación de los hormigones normales como base para estimar sus propiedades, siendo, por este motivo, muy necesario reflexionar sobre si los modelos que estamos empleando son apropiados o no lo son. Este trabajo pretende, mediante la confección de una base de datos que unifica y amplía la del profesor Bazant, realizar un análisis estadístico de los datos que actualmente tenemos a nuestra disposición, y que conforman un total de 802 ensayos que abarcan desde el fenómeno el entumecimiento hasta la retracción total, pasando por la retracción autógena, con un intervalo de tiempo que abarca desde 1958 hasta 2013. Además, este trabajo realiza una revisión de los siete modelos de cálculo más empleados a la hora de estimar la deformación por retracción, analizándolos minuciosamente y superponiéndolos con los datos reales de la base anteriormente nombrada. Como conclusión, se demuestra que los modelos estudiados estiman razonablemente bien el fenómeno de la retracción, si bien no se llegan a discriminar todas las variables con la precisión esperada, siendo alguno de ellos conservador. En este sentido, se abre la puerta a insistir en un estudio más afinado de la retracción del hormigón, por dos motivos: los actuales modelos sirven de base para la estimación de los anteriormente mencionados nuevos hormigones y porque la introducción y desarrollo de aditivos que sean capaces de disminuir este fenómeno deben asentarse ambos sobre una base más sólida y precisa. Por último, deja la puerta abierta para que otros trabajos de investigación puedan realizarse, bien con la retracción, bien con otras propiedades, como el módulo de deformación, la adquisición de resistencias, etc., pues se adjunta como anexo toda la base completa con más de 20.000 datos que pueden ser de gran utilidad. The main objective of this research study is to evaluate the phenomenon of shrinkage in concrete. The phenomenon of shrinkage, as well as other properties of concrete, has been widely studied, but for a time, and due to the emergence of new types of concrete (self-compacting, high strength, recycled, etc.) it has been left in the background. Having moved to second plane did not mean that it have been abandoned, since in the "new concrete" these properties are calculated using the estimation models developed for conventional concrete, and it is for this reason, why it is important and necessary to reflect whether these models we are using are appropriate or are not. This work seeks to unify and bring up-to-date a database of experimental shrinkage results. The database is based on existing databases, especially on the last version of the database created by Professor Bazant. The database includes a total of 802 experimental results, and include results for total shrinkage, autogenous shrinkage and swelling, and over experimental studies for 1958 to 2013. The database serves as a basis for a complex and detailed statistical analysis of the data. In addition, seven commonly used shrinkage estimation models are presented and evaluated. These models are used for a thoroughly comparison analysis between the estimated results obtained using these models and the actual experimental data included in the unified database. In conclusion, it is shown that the models estimate reasonably well the shrinkage strains, although they fail to discriminate adequately some of the influencing variables, resulting in some of them being too conservative in their estimation. In this sense, the results of this work emphasis the importance and the need of addition research on the shrinkage of concrete. This is especially important considering that the existing models provide a basis for estimating the shrinkage in "new concretes", and that the increase use of shrinkage reducing additives should be based and supported by solid research in this field. Finally, this study includes an extensive and updated database that can serve for further research on shrinkage. The full database, developed as part of this work, which includes more than 20,000 data, is included in the annex of the study.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis analiza los criterios con que fueron proyectadas y construidas las estructuras de hormigón hasta 1973, fecha coincidente con la Instrucción EH-73, que en contenido, formato y planteamiento, consagró la utilización de los criterios modernamente utilizados hasta ahora. Es heredera, además, de las CEB 1970. Esos años marcan el cambio de planteamiento desde la Teoría Clásica hacia los Estados Límite. Los objetivos perseguidos son, sintéticamente: 1) Cubrir un vacío patente en el estudio de la evolución del conocimiento. Hay tratados sobre la historia del hormigón que cubren de manera muy completa el relato de personajes y realizaciones, pero no, al menos de manera suficiente, la evolución del conocimiento. 2) Servir de ayuda a los técnicos de hoy para entender configuraciones estructurales, geometrías, disposiciones de armado, formatos de seguridad, etc, utilizados en el pasado, lo que servirá para la redacción más fundada de dictámenes preliminares sobre estructuras existentes. 3) Ser referencia para la realización de estudios de valoración de la capacidad resistente de construcciones existentes, constituyendo la base de un documento pre-normativo orientado en esa dirección. En efecto, esta tesis pretende ser una ayuda para los ingenieros de hoy que se enfrentan a la necesidad de conservar y reparar estructuras de hormigón armado que forman parte del patrimonio heredado. La gran mayoría de las estructuras, fueron construidas hace más de 40 años, por lo que es preciso conocer los criterios que marcaron su diseño, su cálculo y su construcción. Pretende determinar cuáles eran los límites de agotamiento y por tanto de seguridad, de estructuras dimensionadas con criterios de antaño, analizadas por la metodología de cálculo actual. De este modo, se podrá determinar el resguardo existente “real” de las estructuras dimensionadas y calculadas con criterios “distintos” a los actuales. Conocer el comportamiento de las estructuras construidas con criterios de la Teoría Clásica, según los criterios actuales, permitirá al ingeniero de hoy tratar de la forma más adecuada el abanico de necesidades que se puedan presentar en una estructura existente. Este trabajo se centra en la evolución del conocimiento por lo que no se encuentran incluidos los procesos constructivos. En lo relativo a los criterios de proyecto, hasta mediados del siglo XX, éstos se veían muy influidos por los ensayos y trabajos de autor consiguientes, en los que se basaban los reglamentos de algunos países. Era el caso del reglamento prusiano de 1904, de la Orden Circular francesa de 1906, del Congreso de Lieja de 1930. A partir de la segunda mitad del siglo XX, destacan las aportaciones de ingenieros españoles como es el caso de Alfredo Páez Balaca, Eduardo Torroja y Pedro Jiménez Montoya, entre otros, que permitieron el avance de los criterios de cálculo y de seguridad de las estructuras de hormigón, hasta los que se conocen hoy. El criterio rector del proyecto de las estructuras de hormigón se fundó, como es sabido, en los postulados de la Teoría Clásica, en particular en el “momento crítico”, aquel para el que hormigón y acero alcanzan sus tensiones admisibles y, por tanto, asegura el máximo aprovechamiento de los materiales y sin pretenderlo conscientemente, la máxima ductilidad. Si el momento solicitante es mayor que el crítico, se dispone de armadura en compresión. Tras el estudio de muchas de las estructuras existentes de la época por el autor de esta tesis, incluyendo entre ellas las Colecciones Oficiales de Puentes de Juan Manuel de Zafra, Eugenio Ribera y Carlos Fernández Casado, se concluye que la definición geométrica de las mismas no se corresponde exactamente con la resultante del momento crítico, dado que como ahora resultaba necesario armonizar los criterios de armado a nivel sección con la organización de la ferralla a lo largo de los diferentes elementos estructurales. Los parámetros de cálculo, resistencias de los materiales y formatos de seguridad, fueron evolucionando con los años. Se fueron conociendo mejor las prestaciones de los materiales, se fue enriqueciendo la experiencia de los propios procesos constructivos y, en menor medida, de las acciones solicitantes y, consiguientemente, acotándose las incertidumbres asociadas lo cual permitió ir ajustando los coeficientes de seguridad a emplear en el cálculo. Por ejemplo, para el hormigón se empleaba un coeficiente de seguridad igual a 4 a finales del siglo XIX, que evolucionó a 3,57 tras la publicación de la Orden Circular francesa de 1906, y a 3, tras la Instrucción española de 1939. En el caso del acero, al ser un material bastante más conocido por cuanto se había utilizado muchísimo previamente, el coeficiente de seguridad permaneció casi constante a lo largo de los años, con un valor igual a 2. Otra de las causas de la evolución de los parámetros de cálculo fue el mejor conocimiento del comportamiento de las estructuras merced a la vasta tarea de planificación y ejecución de ensayos, con los estudios teóricos consiguientes, realizados por numerosos autores, principalmente austríacos y alemanes, pero también norteamericanos y franceses. En cuanto a los criterios de cálculo, puede sorprender al técnico de hoy el conocimiento que tenían del comportamiento del hormigón desde los primeros años del empleo del mismo. Sabían del comportamiento no lineal del hormigón, pero limitaban su trabajo a un rango de tensióndeformación lineal porque eso aseguraba una previsión del comportamiento estructural conforme a las hipótesis de la Elasticidad Lineal y de la Resistencia de Materiales, muy bien conocidas a principios del s. XX (no así sucedía con la teoría de la Plasticidad, aún sin formular, aunque estaba implícita en los planteamientos algunos ingenieros especializados en estructuras de fábrica (piedra o ladrillo) y metálicas. Además, eso permitía independizar un tanto el proyecto de los valores de las resistencias reales de los materiales, lo que liberaba de la necesidad de llevar a cabo ensayos que, en la práctica, apenas se podían hacer debido a la escasez de los laboratorios. Tampoco disponían de programas informáticos ni de ninguna de las facilidades de las que hoy se tienen, que les permitiera hacer trabajar al hormigón en un rango no lineal. Así, sabia y prudentemente, limitaban las tensiones y deformaciones del material a un rango conocido. El modus operandi seguido para la elaboración de esta tesis, ha sido el siguiente: -Estudio documental: se han estudiado documentos de autor, recomendaciones y normativa generada en este ámbito, tanto en España como con carácter internacional, de manera sistemática con arreglo al índice del documento. En este proceso, se han detectado lagunas del conocimiento (y su afección a la seguridad estructural, en su caso) y se han identificado las diferencias con los procedimientos de hoy. También ha sido necesario adaptar la notación y terminología de la época a los criterios actuales, lo que ha supuesto una dificultad añadida. -Desarrollo del documento: A partir del estudio previo se han ido desarrollando los siguientes documentos, que conforman el contenido de la tesis: o Personajes e instituciones relevantes por sus aportaciones al conocimiento de las estructuras de hormigón (investigación, normativa, docencia). o Caracterización de las propiedades mecánicas de los materiales (hormigón y armaduras), en relación a sus resistencias, diagramas tensión-deformación, módulos de deformación, diagramas momento-curvatura, etc. Se incluye aquí la caracterización clásica de los hormigones, la geometría y naturaleza de las armaduras, etc. o Formatos de seguridad: Se trata de un complejo capítulo del que se pretende extraer la información suficiente que permita a los técnicos de hoy entender los criterios utilizados entonces y compararlos con los actuales. o Estudio de secciones y piezas sometidas a tensiones normales y tangenciales: Se trata de presentar la evolución en el tratamiento de la flexión simple y compuesta, del cortante, del rasante, torsión, etc. Se tratan también en esta parte del estudio aspectos que, no siendo de preocupación directa de los técnicos de antaño (fisuración y deformaciones), tienen hoy mayor importancia frente a cambios de usos y condiciones de durabilidad. o Detalles de armado: Incluye el tratamiento de la adherencia, el anclaje, el solapo de barras, el corte de barras, las disposiciones de armado en función de la geometría de las piezas y sus solicitaciones, etc. Es un capítulo de importancia obvia para los técnicos de hoy. Se incluye un anejo con las referencias más significativas a los estudios experimentales en que se basaron las propuestas que han marcado hito en la evolución del conocimiento. Finalmente, junto a las conclusiones más importantes, se enuncian las propuestas de estudios futuros. This thesis analyzes the criteria with which structures of reinforced concrete have been designed and constructed prior to 1973. Initially, the year 1970 was chosen as starting point, coinciding with the CEB recommendations, but with the development of the thesis it was decided that 1973 was the better option, coinciding with the Spanish regulations of 1973, whose content, format and description introduced the current criteria. The studied period includes the Classic Theory. The intended goals of this thesis are: 1) To cover a clear gap in the study of evolution of knowledge about reinforced concrete. The concept and accomplishments achieved by reinforced concrete itself has been treated in a very complete way by the main researchers in this area, but not the evolution of knowledge in this subject area. 2) To help the engineers understand structural configurations, geometries, dispositions of steel, safety formats etc, that will serve as preliminary judgments by experts on existing structures. To be a reference to the existing studies about the valuation of resistant capacity of existing constructions, constituting a basic study of a pre-regulation document. This thesis intends to be a help for the current generation of engineers who need to preserve and repair reinforced concrete structures that have existed for a significant number of years. Most of these structures in question were constructed more than 40 years ago, and it is necessary to know the criteria that influenced their design, the calculation and the construction. This thesis intends to determine the safety limits of the old structures and analyze them in the context of the current regulations and their methodology. Thus, it will then be possible to determine the safety of these structures, after being measured and calculated with the current criteria. This will allow the engineers to optimize the treatment of such a structure. This work considers the evolution of the knowledge, so constructive methods are not included. Related to the design criteria, there existed until middle of the 20th century a large number of diverse European tests and regulations, such as the Prussian norm of 1904, the Circular French Order of 1906, the Congress of Liège of 1930, as well as individual engineers’ own notes and criteria which incorporated the results of their own tests. From the second half of the 20th century, the contributions of Spanish engineers as Alfredo Páez Balaca, Eduardo Torroja and Pedro Jiménez Montoya, among others, were significant and this allowed the advancement of the criteria of the calculation of safety standards of concrete structures, many of which still exist to the present day. The design and calculation of reinforced concrete structures by the Classic Theory, was based on the ‘Critical Bending Moment’, when concrete and steel achieve their admissible tensions, that allows the best employment of materials and the best ductility. If the bending moment is major than the critical bending moment, will be necessary to introduce compression steel. After the study of the designs of many existing structures of that time by the author of this thesis, including the Historical Collections of Juan Manuel de Zafra, Eugenio Ribera and Carlos Fernandez Casado, the conclusion is that the geometric definition of the structures does not correspond exactly with the critical bending moment inherent in the structures. The parameters of these calculations changed throughout the years. The principal reason that can be outlined is that the materials were improving gradually and the number of calculated uncertainties were decreasing, thus allowing the reduction of the safety coefficients to use in the calculation. For example, concrete used a coefficient of 4 towards the end of the 19th century, which evolved to 3,57 after the publication of the Circular French Order of 1906, and then to 3 after the Spanish Instruction of 1939. In the case of the steel, a much more consistent material, the safety coefficient remained almost constant throughout the years, with a value of 2. Other reasons related to the evolution of the calculation parameters were that the tests and research undertaken by an ever-increasing number of engineers then allowed a more complete knowledge of the behavior of reinforced concrete. What is surprising is the extent of knowledge that existed about the behavior of the concrete from the outset. Engineers from the early years knew that the behavior of the concrete was non-linear, but they limited the work to a linear tension-deformation range. This was due to the difficulties of work in a non-linear range, because they did not have laboratories to test concrete, or facilities such as computers with appropriate software, something unthinkable today. These were the main reasons engineers of previous generations limited the tensions and deformations of a particular material to a known range. The modus operandi followed for the development of this thesis is the following one: -Document study: engineers’ documents, recommendations and regulations generated in this area, both from Spain or overseas, have been studied in a systematic way in accordance with the index of the document. In this process, a lack of knowledge has been detected concerning structural safety, and differences to current procedures have been identified and noted. Also, it has been necessary to adapt the notation and terminology of the Classic Theory to the current criteria, which has imposed an additional difficulty. -Development of the thesis: starting from the basic study, the next chapters of this thesis have been developed and expounded upon: o People and relevant institutions for their contribution to the knowledge about reinforced concrete structures (investigation, regulation, teaching). Determination of the mechanical properties of the materials (concrete and steel), in relation to their resistances, tension-deformation diagrams, modules of deformation, moment-curvature diagrams, etc. Included are the classic characterizations of concrete, the geometry and nature of the steel, etc. Safety formats: this is a very difficult chapter from which it is intended to provide enough information that will then allow the present day engineer to understand the criteria used in the Classic Theory and then to compare them with the current theories. Study of sections and pieces subjected to normal and tangential tensions: it intends to demonstrate the evolution in the treatment of the simple and complex flexion, shear, etc. Other aspects examined include aspects that were not very important in the Classic Theory but currently are, such as deformation and fissures. o Details of reinforcement: it includes the treatment of the adherence, the anchorage, the lapel of bars, the cut of bars, the dispositions of reinforcement depending on the geometry of the pieces and the solicitations, etc. It is a chapter of obvious importance for current engineers. The document will include an annex with the most references to the most significant experimental studies on which were based the proposals that have become a milestone in the evolution of knowledge in this area. Finally, there will be included conclusions and suggestions of future studies. A deep study of the documentation and researchers of that time has been done, juxtaposing their criteria and results with those considered relevant today, and giving a comparison between the resultant safety standards according to the Classic Theory criteria and currently used criteria. This thesis fundamentally intends to be a guide for engineers who have to treat or repair a structure constructed according to the Classic Theory criteria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis se estudia la representación, modelado y comparación de colecciones mediante el uso de ontologías en el ámbito de la Web Semántica. Las colecciones, entendidas como agrupaciones de objetos o elementos con entidad propia, son construcciones que aparecen frecuentemente en prácticamente todos los dominios del mundo real, y por tanto, es imprescindible disponer de conceptualizaciones de estas estructuras abstractas y de representaciones de estas conceptualizaciones en los sistemas informáticos, que definan adecuadamente su semántica. Mientras que en muchos ámbitos de la Informática y la Inteligencia Artificial, como por ejemplo la programación, las bases de datos o la recuperación de información, las colecciones han sido ampliamente estudiadas y se han desarrollado representaciones que responden a multitud de conceptualizaciones, en el ámbito de la Web Semántica, sin embargo, su estudio ha sido bastante limitado. De hecho hasta la fecha existen pocas propuestas de representación de colecciones mediante ontologías, y las que hay sólo cubren algunos tipos de colecciones y presentan importantes limitaciones. Esto impide la representación adecuada de colecciones y dificulta otras tareas comunes como la comparación de colecciones, algo crítico en operaciones habituales como las búsquedas semánticas o el enlazado de datos en la Web Semántica. Para solventar este problema esta tesis hace una propuesta de modelización de colecciones basada en una nueva clasificación de colecciones de acuerdo a sus características estructurales (homogeneidad, unicidad, orden y cardinalidad). Esta clasificación permite definir una taxonomía con hasta 16 tipos de colecciones distintas. Entre otras ventajas, esta nueva clasificación permite aprovechar la semántica de las propiedades estructurales de cada tipo de colección para realizar comparaciones utilizando las funciones de similitud y disimilitud más apropiadas. De este modo, la tesis desarrolla además un nuevo catálogo de funciones de similitud para las distintas colecciones, donde se han recogido las funciones de (di)similitud más conocidas y también algunas nuevas. Esta propuesta se ha implementado mediante dos ontologías paralelas, la ontología E-Collections, que representa los distintos tipos de colecciones de la taxonomía y su axiomática, y la ontología SIMEON (Similarity Measures Ontology) que representa los tipos de funciones de (di)similitud para cada tipo de colección. Gracias a estas ontologías, para comparar dos colecciones, una vez representadas como instancias de la clase más apropiada de la ontología E-Collections, automáticamente se sabe qué funciones de (di)similitud de la ontología SIMEON pueden utilizarse para su comparación. Abstract This thesis studies the representation, modeling and comparison of collections in the Semantic Web using ontologies. Collections, understood as groups of objects or elements with their own identities, are constructions that appear frequently in almost all areas of the real world. Therefore, it is essential to have conceptualizations of these abstract structures and representations of these conceptualizations in computer systems, that define their semantic properly. While in many areas of Computer Science and Artificial Intelligence, such as Programming, Databases or Information Retrieval, the collections have been extensively studied and there are representations that match many conceptualizations, in the field Semantic Web, however, their study has been quite limited. In fact, there are few representations of collections using ontologies so far, and they only cover some types of collections and have important limitations. This hinders a proper representation of collections and other common tasks like comparing collections, something critical in usual operations such as semantic search or linking data on the Semantic Web. To solve this problem this thesis makes a proposal for modelling collections based on a new classification of collections according to their structural characteristics (homogeneity, uniqueness, order and cardinality). This classification allows to define a taxonomy with up to 16 different types of collections. Among other advantages, this new classification can leverage the semantics of the structural properties of each type of collection to make comparisons using the most appropriate (dis)similarity functions. Thus, the thesis also develops a new catalog of similarity functions for the different types of collections. This catalog contains the most common (dis)similarity functions as well as new ones. This proposal is implemented through two parallel ontologies, the E-Collections ontology that represents the different types of collections in the taxonomy and their axiomatic, and the SIMEON ontology (Similarity Measures Ontology) that represents the types of (dis)similarity functions for each type of collection. Thanks to these ontologies, to compare two collections, once represented as instances of the appropriate class of E-Collections ontology, we can know automatically which (dis)similarity functions of the SIMEON ontology are suitable for the comparison. Finally, the feasibility and usefulness of this modeling and comparison of collections proposal is proved in the field of oenology, applying both E-Collections and SIMEON ontologies to the representation and comparison of wines with the E-Baco ontology.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los ensayos de bombeo son, sin lugar a dudas, una de las pruebas más fiables y de mayor interés que se hacen en el medio físico. No son pruebas estrictamente puntuales, dado que el bombeo atrae flujo desde distancias lejanas al pozo, la prueba tiene una excelente representatividad espacial. Los métodos de interpretación mediante ensayos de bombeo se empezaron a plantear en la primera mitad del pasado siglo. Con los ensayos de bombeo se puede calcular la transmisividad y coeficiente de almacenamiento de las formaciones acuíferas y suministran información sobre el tipo de acuífero, la calidad constructiva del pozo de extracción, la existencia de barreras impermeable o bordes de recarga próximos, e incluso en algunas circunstancias permiten el cálculo del área de embalse subterráneo. Desde mediados del siglo 20 existe una eficaz y abundante gama de métodos analítico-interpretativos de ensayos de bombeo, tanto en régimen permanente como transitorio. Estos métodos son ampliamente conocidos y están muy experimentados a lo largo de muchos países, sin embargo, hoy día, podrían utilizarse modelos de flujo para la interpretación, logrando la misma fiabilidad e incluso mejores posibilidades de análisis. Muchos ensayos que no pueden interpretarse porque las configuraciones del medio son demasiado complejas y no están disponibles, o no es posible, el desarrollo de métodos analíticos, tienen buena adaptación y en ocasiones muy fácil solución haciendo uso de los métodos numéricos de simulación del flujo. En esta tesis se ha buscado una vía de interpretar ensayos de bombeo haciendo uso de modelos de simulación del flujo. Se utiliza el modelo universal MODFLOW del United States Geological Survey, en el cual se configura una celda de simulación y mallado particularmente adecuados para el problema a tratar, se valida con los métodos analíticos existentes. Con la célula convenientemente validada se simulan otros casos en los que no existen métodos analíticos desarrollados dada la complejidad del medio físico a tratar y se sacan las oportunas conclusiones. Por último se desarrolla un modelo específico y la correspondiente aplicación de uso general para la interpretación numérica de ensayos de bombeo tanto con las configuraciones normales como con configuraciones complejas del medio físico. ABSTRACT Pumping tests are, without doubt, one of the most reliable and most interesting tests done in the physical environment. They are not strictly anecdotal evidence, since pumping flow attracts from far distances to the well, the test has excellent spatial representation. Methods of interpretation by pumping tests began to arise in the first half of last century. With pumping tests, can be calculated transmissivity and storage coefficient of the aquifer formations, and provide information on the type of aquifer, the construction quality of the well, the existence of waterproof barriers or borders next recharge, and even in some circumstances allow calculating the area of underground reservoir. Since the mid-20th century there is effective and abundant range of analytical interpretative pumping tests, both in steady state and transient methods. These methods are very widely known and experienced over many countries, however, nowadays, may flow models used for interpretation, obtaining equally reliable or even better possibilities for analysis. Many trials cannot be interpreted as environmental settings are too complex and are not available, or not possible, the development of analytical methods, have good adaptation and sometimes very easily solved using numerical flow simulation methods. This thesis has sought a way to interpret pumping tests using flow simulation models. MODFLOW universal model of United States Geological Survey, in which a simulation cell and meshing particularly suitable for the problem to be treated, is validated with existing analytical methods used is set. With suitably validated cell other cases where there are no analytical methods developed given the complexity of the physical environment to try and draw appropriate conclusions are simulated. Finally, a specific model and the corresponding application commonly used for numerical interpretation of pumping tests both with normal settings as complex configurations of the physical environment is developed.