9 resultados para Longitudinal axis

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Los nudos son los defectos que más disminuyen la resistencia de piezas de madera en la escala estructural, al ocasionar no solo una discontinuidad material, sino también la desviación de las fibras que se encuentran a su alrededor. En la década de los 80 se introdujo la teoría de la analogía fluido-fibra, como un método que aproximaba adecuadamente todas estas desviaciones. Sin embargo en su aplicación tridimensional, nunca se consideraron las diferencias geométricas en el sentido perpendicular al eje longitudinal de las piezas estructurales, lo cual imposibilitaba la simulación numérica de algunos de los principales tipos de nudos, y disminuía la precisión obtenida en aquellos nudos en los que la modelización sí era viable. En este trabajo se propone un modelo programado en lenguaje paramétrico de un software de elementos finitos que, bajo una formulación en tres dimensiones más general, permitirá estudiar de forma automatizada el comportamiento estructural de la madera bajo la influencia de los principales tipos de nudos, a partir de la geometría visible de los mismos y la posición de la médula en la pieza, y el cual ha sido contrastado experimentalmente, simulando de forma muy precisa el comportamiento mecánico de vigas sometidas a ensayos de flexión a cuatro puntos. Knots are the defects that most reduce the strength of lumber at the structural level, by causing not only a material discontinuity but also the deviation of the fibers that surround them. In the 80's it was introduced the theory of the flow-grain analogy as a method to approximating adequately these deviations. However, in three-dimensional applications, geometrical differences in the direction perpendicular to the longitudinal axis of the structural specimens were never considered before, which prevented the numerical simulation of some of the main types of knots, and decreased the achieved precision in those kind of knots where modeling itself was possible. This paper purposes a parametric model programmed in a finite element software, in the way that with a more general three-dimensional formulation, an automated study of the structural behavior of timber under the influence of the main types of knots is allowed by only knowing the visible geometry of such defects, and the position of the pith. Furthermore that has been confirmed experimentally obtaining very accurately simulations of the mechanical behavior of beams under four points bending test.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El acero es, junto con el hormigón, el material más ampliamente empleado en la construcción de obra civil y de edificación. Además de su elevada resistencia, su carácter dúctil resulta un aspecto de particular interés desde el punto de vista de la seguridad estructural, ya que permite redistribuir esfuerzos a elementos adyacentes y, por tanto, almacenar una mayor energía antes del colapso final de la estructura. No obstante, a pesar de su extendida utilización, todavía existen aspectos relacionados con su comportamiento en rotura que necesitan una mayor clarificación y que permitirían un mejor aprovechamiento de sus propiedades. Cuando un elemento de acero es ensayado a tracción y alcanza la carga máxima, sufre la aparición de un cuello de estricción que plantea dificultades para conocer el comportamiento del material desde dicho instante hasta la rotura. La norma ISO 6892-1, que define el método a emplear en un ensayo de tracción con materiales metálicos, establece procedimientos para determinar los parámetros relacionados con este tramo último de la curva F − E. No obstante, la definición de dichos parámetros resulta controvertida, ya que éstos presentan una baja reproducibilidad y una baja repetibilidad que resultan difíciles de explicar. En esta Tesis se busca profundizar en el conocimiento del último tramo de la curva F − E de los aceros de construcción. Para ello se ha realizado una amplia campaña experimental sobre dos aceros representativos en el campo de la construcción civil: el alambrón de partida empleado en la fabricación de alambres de pretensado y un acero empleado como refuerzo en hormigón armado. Los dos materiales analizados presentan formas de rotura diferentes: mientras el primero de ellos presenta una superficie de rotura plana con una región oscura claramente apreciable en su interior, el segundo rompe según la clásica superficie en forma de copa y cono. La rotura en forma de copa y cono ha sido ampliamente estudiada en el pasado y existen modelos de rotura que han logrado reproducirla con éxito, en especial el modelo de Gurson- Tvergaard-Needleman (GTN). En cuanto a la rotura exhibida por el primer material, en principio nada impide abordar su reproducción numérica con un modelo GTN, sin embargo, las diferencias observadas entre ambos materiales en los ensayos experimentales permiten pensar en otro criterio de rotura. En la presente Tesis se realiza una amplia campaña experimental con probetas cilíndricas fabricadas con dos aceros representativos de los empleados en construcción con comportamientos en rotura diferentes. Por un lado se analiza el alambrón de partida empleado en la fabricación de alambres de pretensado, cuyo frente de rotura es plano y perpendicular a la dirección de aplicación de la carga con una región oscura en su interior. Por otro lado, se estudian barras de acero empleadas como armadura pasiva tipo B 500 SD, cuyo frente de rotura presenta la clásica superficie en forma de copa y cono. Estos trabajos experimentales han permitido distinguir dos comportamientos en rotura claramente diferenciados entre ambos materiales y, en el caso del primer material, se ha identificado un comportamiento asemejable al exhibido por materiales frágiles. En este trabajo se plantea la hipótesis de que el primer material, cuya rotura provoca un frente de rotura plano y perpendicular a la dirección de aplicación de la carga, rompe de manera cuasifrágil como consecuencia de un proceso de decohesión, de manera que la región oscura que se observa en el centro del frente de rotura se asemeja a una entalla circular perpendicular a la dirección de aplicación de la carga. Para la reproducción numérica de la rotura exhibida por el primer material, se plantea un criterio de rotura basado en un modelo cohesivo que, como aspecto novedoso, se hace depender de la triaxialidad de tensiones, parámetro determinante en el fallo de este tipo de materiales. Este tipo de modelos presenta varias ventajas respecto a los modelos GTN habitualmente empleados. Mientras los modelos GTN precisan de numerosos parámetros para su calibración, los modelos cohesivos precisan fundamentalmente de dos parámetros para definir su curva de ablandamiento: la tensión de decohesión ft y la energía de fractura GF . Además, los parámetros de los modelos GTN no son medibles de manera experimental, mientras que GF sí lo es. En cuanto a ft, aunque no existe un método para su determinación experimental, sí resulta un parámetro más fácilmente interpretable que los empleados por los modelos GTN, que utilizan valores como el porcentaje de huecos presentes en el material para iniciar el fenómeno de coalescencia o el porcentaje de poros que provoca una pérdida total de la capacidad resistente. Para implementar este criterio de rotura se ha desarrollado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones. Se han reproducido con éxito los ensayos de tracción llevados a cabo en la campaña experimental empleando dicho elemento de intercara. Además, en estos modelos la rotura se produce fenomenológicamente de la misma manera observada en los ensayos experimentales: produciéndose una decohesión circular en torno al eje de la probeta. En definitiva, los trabajos desarrollados en esta Tesis, tanto experimentales como numéricos, contribuyen a clarificar el comportamiento de los aceros de construcción en el último tramo de la curva F − E y los mecanismos desencadenantes de la rotura final del material, aspecto que puede contribuir a un mejor aprovechamiento de las propiedades de estos aceros en el futuro y a mejorar la seguridad de las estructuras construidas con ellos. Steel is, together with concrete, the most widely used material in civil engineering works. Not only its high strength, but also its ductility is of special interest from the point of view of the structural safety, since it enables stress distribution with adjacent elements and, therefore, more energy can be stored before reaching the structural failure. However, despite of being extensively used, there are still some aspects related to its fracture behaviour that need to be clarified and that will allow for a better use of its properties. When a steel item is tested under tension and reaches the maximum load point, necking process begins, which makes difficult to define the material behaviour from that moment onward. The ISO standard 6892-1, which defines the tensile testing method for metallic materials, describes the procedures to obtain some parameters related to this last section of the F − E curve. Nevertheless, these parameters have proved to be controversial, since they have low reproducibility and repeatibility rates that are difficult to explain. This Thesis tries to deepen the knowledge of the last section of the F − E curve for construction steels. An extensive experimental campaign has been carried out with two representative steels used in civil engineering works: a steel rod used for manufacturing prestressing steel wires, before the cold-drawing process is applied, and steel bars used in reinforced concrete structures. Both materials have different fracture surfaces: while the first of them shows a flat fracture surface, perpendicular to the loading direction with a dark region in the centre of it, the second one shows the classical cup-cone fracture surface. The cup-cone fracture surface has been deeply studied in the past and different numerical models have been able to reproduce it with success, with a special mention to the Gurson-Tvergaard-Needleman model (GTN). Regarding the failure surface shown by the first material, in principle it can be numerically reproduced by a GTN model, but the differences observed between both materials in the experimental campaign suggest thinking of a different failure criterium. In the present Thesis, an extensive experimental campaign has been carried out using cylindrical specimens made of two representative construction steels with different fracture behaviours. On one hand, the initial eutectoid steel rod used for manufacturing prestressing steel wires is analysed, which presents a flat fracture surface, perpendicular to the loading direction, and with a dark region in the centre of it. On the other hand, B 500 SD steel bars, typically used in reinforced concrete structures and with the typical cup-cone fracture surface, are studied. These experimental works have allowed distinguishing two clearly different fracture behaviours between both materials and, in the case of the first one, a fragile-like behaviour has been identified. For the first material, which shows a flat fracture surface perpendicular to the loading direction, the following hypothesis is proposed in this study: a quasi-brittle fracture is developed as a consequence of a decohesion process, with the dark region acting as a circular crack perpendicular to the loading direction. To reproduce numerically the fracture behaviour shown by the first material, a failure criterium based on a cohesive model is proposed in this Thesis. As an innovative contribution, this failure criterium depends on the stress triaxiality state of the material, which is a key parameter when studying fracture in this kind of materials. This type of models have some advantages when compared to the widely used GTN models. While GTN models need a high number of parameters to be defined, cohesive models need basically two parameters to define the softening curve: the decohesion stress ft and the fracture energy GF . In addition to this, GTN models parameters cannot be measured experimentally, while GF is indeed. Regarding ft, although no experimental procedure is defined for its obtention, it has an easier interpretation than the parameters used by the GTN models like, for instance, the void volume needed for the coalescence process to start or the void volume that leads to a total loss of the bearing capacity. In order to implement this failure criterium, a triaxiality-dependent cohesive interface element has been developed. The experimental results obtained in the experimental campaign have been successfully reproduced by using this interface element. Furthermore, in these models the failure mechanism is developed in the same way as observed experimentally: with a circular decohesive process taking place around the longitudinal axis of the specimen. In summary, the works developed in this Thesis, both experimental and numerical, contribute to clarify the behaviour of construction steels in the last section of the F − E curve and the mechanisms responsible for the eventual material failure, an aspect that can lead to a better use of the properties of these steels in the future and a safety improvement in the structures built with them.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Damage tolerance of high strength cold-drawn ferritic–austenitic stainless steel wires is assessed by means of tensile fracture tests of cracked wires. The fatigue crack is transversally propagated from the wire surface. The damage tolerance curve of the wires results from the empirical failure load when given as a function of crack depth. As a consequence of cold drawing, the wire microstructure is orientated along its longitudinal axis and anisotropic fracture behaviour is found at macrostructural level at the tensile failure of the cracked specimens. An in situ optical technique known as video image correlation VIC-2D is used to get an insight into this failure mechanism by tensile testing transversally fatigue cracked plane specimens extracted from the cold-drawn wires. Finally, the experimentally obtained damage tolerance curve of the cold-drawn ferritic–austenitic stainless steel wires is compared with that of an elementary plastic collapse model and existing data of two types of high strength eutectoid steel currently used as prestressing steel for concrete.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En este trabajo se determina la tolerancia al daño de un acero inoxidable austeno-ferrítico trefilado hasta obtener resistencia propias del acero de pretensado. Para ello se han realizado ensayos de fractura sobre alambres con secciones transversales debilitadas por fisuras de fatiga propagadas desde la superficie exterior. La medida de la tolerancia al daño adoptada es la curva empírica carga de rotura-profundidad de fisura. Para valorar cuantitativamente los resultados, se utilizan las curvas de dos aceros de pretensar eutectoides, respectivamente fabricados por trefilado y por tratamiento térmico de templado y revenido, así como un modelo elemental de colapso plástico por tracción para alambres fisurados. La microestructura austeno-ferrítico de los alambres inoxidables adquiere una marcada orientación en la dirección de trefilado, que induce una fuerte anisotropía de fractura en los alambres y condiciona su mecanismo macroscópico de colapso a tracción cuando están Asurados. Para observar este mecanismo se ha utilizado la técnica VIC-2D de adquisición y análisis computerizado de imágenes digitales en ensayos mecánicos, aplicándola a ensayos de fractura a tracción realizados con probetas planas de alambre inoxidable trefilado Asuradas transversalmente. Damage tolerance of a high strength cold-drawn ferritic-austenitic stainless steel is assessed by means of tensile fracture tests of cracked wires. A fatigue crack was transversally propagated from the wire surface. The damage tolerance curve of the wires results from the empirical failure load when given as a function of crack depth. As a consequence of cold drawing, the wire microstructure is orientated along its longitudinal axis and anisotropic fracture behavior is found at macrostructural level at the tensile failure of the cracked specimens. An in situ optical technique known as video image correlation VIC-2D was used to get an insight into this failure mechanism by tensile testing transversally fatigue cracked plañe specimens extracted from the cold-drawn wires. Additionally, the experimentally obtained damage tolerance curve of the cold-drawn ferritic-austenitic stainless steel wires is compared with that of the two types of high strength eutectoid wires currently used as prestressing steel for concrete. An elementary plástic collapse model for tensile failure of surface cracked wires is used to assess the damage tolerance curves.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta investigación presenta un modelo de material para aleaciones de solidificación direccional que poseen un comportamiento mecánico transversalmente isótropo. Se han realizado una serie de ensayos de tracción sobre probetas cilíndricas a varias velocidades de deformación y a varias temperaturas sobre la superaleación de base níquel de solidificación direccional MAR-M 247 con objeto de conocer su comportamiento mecánico. Los ensayos se realizaron sobre probetas cilíndricas cuya dirección longitudinal forma 0º y 90º con la de la orientación de crecimiento de los granos. Para representar el comportamiento plástico anisótropo se ha formulado una función de plastificación de forma no cuadrática basada en la transformación lineal de tensores. Con el propósito de simplificar en todo lo posible el modelo se ha considerado un endurecimiento isótropo. Para probar la validez del modelo propuesto se ha implementado el mismo como modelo de material definido por el usuario en el código no lineal de elementos finitos LS-DYNA. In this research a material model for directionally solidified alloys with transversely isotropic mechanic behavior is presented. In order to characterize the mechanical behavior of the Mar-M 247 directionally solidified nickel based superalloy, tensile tests of axisymmetric smooth specimens were performed at various strain rates and temperatures. The specimens were machined making sure that the longitudinal axis of them was forming 0º and 90º with the grain growth orientation. To represent the plastic flow, a non-quadratic anisotropic function based on linear transformation of tensors has been formulated. For the sake of simplicity isotropic strain hardening of the material has been considered. To prove the validity of the model, a material subroutine has been implemented in LS-DYNA non-linear finite element code as a user defined material model.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

An experimental system designed to measure very low optical powers, of the order of a few picowatts, is presented. Its main aid is to detect the polarisation state of scattered light from a fluid flow, in different angular directions with respect to the longitudinal axis of the flow. A laser beam incident linearly polarized crosses the fluid flow orthogonally. The scattered light is detected by means of a photodetector situated behind a lineal polarizer whose orientation can be rotated. The outgoing electrical signal is amplified by means of a Mode-lockin amplifier and is digitally processed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En la actualidad muchas estructuras de hormigón armado necesitan ser reforzadas debido a diversas razones: errores en el proyecto o construcción, deterioro debido a efectos ambientales, cambios de uso o mayores requerimientos en los códigos. Los materiales compuestos, también conocidos como polímeros reforzados con fibras (FRP), están constituidos por fibras continuas de gran resistencia y rigidez embebidas en un material polimérico. Los FRP se utilizan cada vez más en aplicaciones estructurales debido a sus excelentes propiedades (elevadas resistencia y rigidez específicas y resistencia a la corrosión). Una de las aplicaciones más atractivas es el refuerzo de pilares mediante confinamiento para incrementar su resistencia y ductilidad. El confinamiento puede conseguirse pegando capas de FRP envolviendo el pilar en la dirección de los cercos (con las fibras orientadas en dirección perpendicular al eje del elemento). Se han realizado numerosos estudios experimentales en probetas cilíndricas pequeñas confinadas con encamisados de FRP y sometidas a compresión axial, y se han propuesto varios modelos sobre el hormigón confinado con FRP. Es sabido que el confinamiento de pilares de sección no circular es menos eficiente. En una sección circular, el FRP ejerce una presión de confinamiento uniforme sobre todo el perímetro, mientras que en una sección rectangular la acción de confinamiento se concentra en las esquinas. Esta tesis presenta los resultados de una investigación experimental sobre el comportamiento de probetas de hormigón de sección cuadrada confinadas con FRP y sometidas a compresión centrada. Se realizaron un total de 42 ensayos investigándose el comportamiento en las direcciones axial y transversal. Las variables del estudio incluyen: la resistencia del hormigón, el tipo de fibras (vidrio o carbono), la cuantía de refuerzo y el radio de curvatura de las esquinas. Los resultados de los ensayos realizados muestran que el confinamiento con FRP puede mejorar considerablemente la resistencia y ductilidad de pilares de hormigón armado de sección cuadrada con las esquinas redondeadas. La mejora conseguida es mayor en los hormigones de baja resistencia que en los de resistencia media. La deformación de rotura de la camisa de FRP es menor que la que se obtiene en ensayos de tracción normalizados del laminado, y la eficiencia del confinamiento depende en gran medida del radio de redondeo de las esquinas. Los resultados se han comparado con los obtenidos según los modelos teóricos más aceptados. Hay dos parámetros críticos en el ajuste de los modelos: el factor de eficiencia de la deformación y el efecto de confinamiento en secciones no circulares. Nowadays, many existing RC structures are in need of repair and strengthening for several reasons: design or construction errors, deterioration caused by environmental effects, change in use of the structures or revisions of code requirements. Composite materials, also known as fibre reinforced polymers (FRP), are composed of high strength and stiffness continuous fibres embedded in a polymer material. FRP materials are being increasingly used in many structural applications due to their excellent properties (high strength- and stiffness-toweight ratio, good corrosion behaviour). One of the most attractive applications of FRP is the confinement of concrete columns to enhance both strength and ductility. Concrete confinement can be achieved by bonding layers of hoop FRP around the column (fibres oriented perpendicular to the longitudinal axis). Many experimental studies have been conducted on small-scale plain concrete specimens of circular cross-sections confined with FRP and subjected to pure axial compressive loading, and several design models have been proposed to describe the behaviour of FRP-confined concrete. It is widely accepted that the confinement of non-circular columns is less efficient than the confinement of circular columns. In a circular cross section, the jacket exerts a uniform confining pressure over the entire perimeter. In the case of a rectangular cross section, the confining action is mostly concentrated at the corners. This thesis presents the results of a comprehensive experimental investigation on the behaviour of axially loaded square concrete specimens confined with FRP. A total of 42 compression tests were conducted, and the behaviour of the specimens in the axial and transverse directions were investigated. The parameters considered in this study are: concrete strength, type of fibres (glass or carbon), amount of FRP reinforcement and corner radius of the cross section. The tests results indicate that FRP confinement can enhance considerably the compressive strength and ductility of RC square columns with rounded corners. The enhancement is more pronounced for low- than for normal-strength concrete. The rupture strain of the FRP jacket is lower than the ultimate strain obtained by standard tensile testing of the FRP material, and the confinement efficiency significantly depends on the corner radius. The confined concrete behaviour was predicted according to the more accepted theoretical models and compared with experimental results. There are two key parameters which critically influence the fitting of the models: the strain efficiency factor and the effect of confinement in non-circular sections.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper an analytical static approach to analyse buried tunnels under seismic surface waves (Rayleigh and Love waves), propagating parallel to the tunnels axis, is provided. In the proposed method, the tunnel is considered as a beam on elastic foundation by using a Winkler model to represent the subgrade reaction and the soil-structure interaction. The seismic load is imposed by giving at the base of the soil springs a determined configuration corresponding to the free-field motion. From the solution of the differential governing equations of the problem, results are obtained in form of relative displacements between points of tunnel, and therefore the seismic bending moments and shearing forces, acting on the tunnel cross section, can be computed.