83 resultados para ELEMENTOS VERBALES Y NO VERBALES

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En un programa de elementos finitos se implementa un modelo matemático para la consolidación elastoplástica con deformaciones finitas en un medio representativo de un suelo totalmente saturado. El tratamiento algorítmico de la elasticidad en deformaciones finitas para la fase sólida está basado en una descomposición multiplicativa y acoplado con el algoritmo de flujo del fluido mediante la presión intersticial de Kirchho. Se utiliza una formulación mixta de elementos finitos con dos campos en que los desplazamientos nodales del sólido y las presiones nodales de agua en los poros están acoplados mediante las ecuaciones de equilibrio de masa y cantidad de movimiento. La ley de comportamiento de la fase sólida se representa mediante una teoría de tipo Cam-Clay modificada, formulada en el espacio de las tensiones principales de Kirchho, y se utiliza una aplicación de retorno que se lleva a cabo en el espacio de deformaciones definido por los invariantes de los alargamientos elásticos logarítmicos principales. El comportamiento de la fase fluida se representa mediante una ley de Darcy generalizada formulada respecto a la configuración actual. El modelo de elementos finitos es completamente linealizable con exactitud. Se presentan varios ejemplos numéricos con y sin efectos de deformaciones finitas para demostrar el impacto de la no linealidad geométrica en las correspondientes respuestas. El artículo finaliza con un estudio del comportamiento del modelo de elementos finitos en relación con la precisión y la estabilidad numérica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo discute la bondad de las técnicas numéricas p-autoadaptables, comparando el Método de los Elementos Finitos (MEF) y el Método de los Elementos de Contorno(MEC). Se presenta un breve resumen de las herramientas matemáticas necesarias para gobernar el proceso de refinamiento en ambos métodos. Finalmente, se presenta un ejemplo ilustrativo de relevancia práctica en ingeniería, el cual pone de manifiesto la potencia y versatilidad de las técnicas p-adaptables frente a situaciones reales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto trata de realizar una comparativa de dos metodologías mediante la realización de un inventario, una metodología clásica como es la metodología GNSS y la metodología Mobile Mapping. El inventario se realiza en tres escenarios distintos, un escenario es una zona verde, una zona urbana y una zona interurbana. La zona verde es el Parque Central de Tres Cantos, la zona urbano es una zona de viviendas unifamiliares deTres Cantos y la zona interurbana es tramo de la carretera M-618 que une los municipios de Colmenar Viejo y Hoyo de manzanares. Para la metodología GNSS se ha utilizado un receptor GRS-1 y para la metodología Mobile Mapping se ha utilizado el sistema IP-S2 Compact+. Con la realización de este inventario se pretende poder comparar los posibles casos que hay en tres escenarios distintos, estudiando los tiempos que se tarda en realizar un inventario con cada metodología, así como los costes que suponen. Los datos obtenidos por cada equipo se exportan en fichero Shapfile para poder abrirlos en ArcGIS y así poder realizar la comparativa. Para finalizar el proyecto y con los conocimientos adquiridos en esta materia se obtienen una conclusiones referidas al trabajo realizado con cada equipo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Para el proyecto y cálculo de estructuras metálicas, fundamentalmente pórticos y celosías de cubierta, la herramienta más comúnmente utilizada son los programas informáticos de nudos y barras. En estos programas se define la geometría y sección de las barras, cuyas características mecánicas son perfectamente conocidas, y sobre las cuales obtenemos unos resultados de cálculo concretos en cuanto a estados tensionales y de deformación. Sin embargo el otro componente del modelo, los nudos, presenta mucha mayor complejidad a la hora de establecer sus propiedades mecánicas, fundamentalmente su rigidez al giro, así como de obtener unos resultados de estados tensionales y de deformación en los mismos. Esta “ignorancia” sobre el comportamiento real de los nudos, se salva generalmente asimilando a los nudos del modelo la condición de rígidos o articulados. Si bien los programas de cálculo ofrecen la posibilidad de introducir nudos con una rigidez intermedia (nudos semirrígidos), la rigidez de cada nudo dependerá de la geometría real de la unión, lo cual, dada la gran variedad de geometrías de uniones que en cualquier proyecto se nos presentan, hace prácticamente inviable introducir los coeficientes correspondientes a cada nudo en los modelos de nudos y barras. Tanto el Eurocódigo como el CTE, establecen que cada unión tendrá asociada una curva momento-rotación característica, que deberá ser determinada por los proyectistas mediante herramientas de cálculo o procedimientos experimentales. No obstante, este es un planteamiento difícil de llevar a cabo para cada proyecto. La consecuencia de esto es, que en la práctica, se realizan extensas comprobaciones y justificaciones de cálculo para las barras de las estructuras, dejando en manos de la práctica común la solución y puesta en obra de las uniones, quedando sin justificar ni comprobar la seguridad y el comportamiento real de estas. Otro aspecto que conlleva la falta de caracterización de las uniones, es que desconocemos como afecta el comportamiento real de éstas en los estados tensionales y de deformación de las barras que acometen a ellas, dudas que con frecuencia nos asaltan, no sólo en la fase de proyecto, sino también a la hora de resolver los problemas de ejecución que inevitablemente se nos presentan en el desarrollo de las obras. El cálculo mediante el método de los elementos finitos, es una herramienta que nos permite introducir la geometría real de perfiles y uniones, y nos permite por tanto abordar el comportamiento real de las uniones, y que está condicionado por su geometría. Por ejemplo, un caso típico es el de la unión de una viga a una placa o a un soporte soldando sólo el alma. Es habitual asimilar esta unión a una articulación. Sin embargo, el modelo por elementos finitos nos ofrece su comportamiento real, que es intermedio entre articulado y empotrado, ya que se transmite un momento y el giro es menor que el del apoyo simple. No obstante, la aplicación del modelo de elementos finitos, introduciendo la geometría de todos los elementos estructurales de un entramado metálico, tampoco resulta en general viable desde un punto de vista práctico, dado que requiere invertir mucho tiempo en comparación con el aumento de precisión que obtenemos respecto a los programas de nudos y barras, mucho más rápidos en la fase de modelización de la estructura. En esta tesis se ha abordado, mediante la modelización por elementos finitos, la resolución de una serie de casos tipo representativos de las uniones más comúnmente ejecutadas en obras de edificación, como son las uniones viga-pilar, estableciendo el comportamiento de estas uniones en función de las variables que comúnmente se presentan, y que son: •Ejecución de uniones viga-pilar soldando solo por el alma (unión por el alma), o bien soldando la viga al pilar por todo su perímetro (unión total). •Disposición o no de rigidizadores en los pilares •Uso de pilares de sección 2UPN en cajón o de tipo HEB, que son los tipos de soporte utilizados en casi el 100% de los casos en edificación. Para establecer la influencia de estas variables en el comportamiento de las uniones, y su repercusión en las vigas, se ha realizado un análisis comparativo entre las variables de resultado de los casos estudiados:•Estados tensionales en vigas y uniones. •Momentos en extremo de vigas •Giros totales y relativos en nudos. •Flechas. Otro de los aspectos que nos permite analizar la casuística planteada, es la valoración, desde un punto de vista de costos de ejecución, de la realización de uniones por todo el perímetro frente a las uniones por el alma, o de la disposición o no de rigidizadores en las uniones por todo el perímetro. Los resultados a este respecto, son estrictamente desde un punto de vista económico, sin perjuicio de que la seguridad o las preferencias de los proyectistas aconsejen una solución determinada. Finalmente, un tercer aspecto que nos ha permitido abordar el estudio planteado, es la comparación de resultados que se obtienen por el método de los elementos finitos, más próximos a la realidad, ya que se tiene en cuenta los giros relativos en las uniones, frente a los resultados obtenidos con programas de nudos y barras. De esta forma, podemos seguir usando el modelo de nudos y barras, más versátil y rápido, pero conociendo cuáles son sus limitaciones, y en qué aspectos y en qué medida, debemos ponderar sus resultados. En el último apartado de la tesis se apuntan una serie de temas sobre los que sería interesante profundizar en posteriores estudios, mediante modelos de elementos finitos, con el objeto de conocer mejor el comportamiento de las uniones estructurales metálicas, en aspectos que no se pueden abordar con los programas de nudos y barras. For the project and calculation of steel structures, mainly building frames and cover lattices, the tool more commonly used are the node and bars model computer programs. In these programs we define the geometry and section of the bars, whose mechanical characteristics are perfectly known, and from which we obtain the all calculation results of stresses and displacements. Nevertheless, the other component of the model, the nodes, are much more difficulty for establishing their mechanical properties, mainly the rotation fixity coefficients, as well as the stresses and displacements. This "ignorance" about the real performance of the nodes, is commonly saved by assimilating to them the condition of fixed or articulated. Though the calculation programs offer the possibility to introducing nodes with an intermediate fixity (half-fixed nodes), the fixity of every node will depend on the real connection’s geometry, which, given the great variety of connections geometries that in a project exist, makes practically unviable to introduce the coefficients corresponding to every node in the models of nodes and bars. Both Eurocode and the CTE, establish that every connection will have a typical moment-rotation associated curve, which will have to be determined for the designers by calculation tools or experimental procedures. Nevertheless, this one is an exposition difficult to carry out for each project. The consequence of this, is that in the practice, in projects are extensive checking and calculation reports about the bars of the structures, trusting in hands of the common practice the solution and execution of the connections, resulting without justification and verification their safety and their real behaviour. Another aspect that carries the lack of the connections characterization, is that we don´t know how affects the connections real behaviour in the stresses and displacements of the bars that attack them, doubts that often assault us, not only in the project phase, but also at the moment of solving the execution problems that inevitably happen in the development of the construction works. The calculation by finite element model is a tool that allows us to introduce the real profiles and connections geometry, and allows us to know about the real behaviour of the connections, which is determined by their geometry. Typical example is a beam-plate or beam-support connection welding only by the web. It is usual to assimilate this connection to an articulation or simple support. Nevertheless, the finite element model determines its real performance, which is between articulated and fixed, since a moment is transmitted and the relative rotation is less than the articulation’s rotation. Nevertheless, the application of the finite element model, introducing the geometry of all the structural elements of a metallic structure, does not also turn out to be viable from a practical point of view, provided that it needs to invest a lot of time in comparison with the precision increase that we obtain opposite the node and bars programs, which are much more faster in the structure modelling phase. In this thesis it has been approached, by finite element modelling, the resolution of a representative type cases of the connections commonly used in works of building, since are the beam-support connections, establishing the performance of these connections depending on the variables that commonly are present, which are: •Execution of beam-support connections welding only the web, or welding the beam to the support for the whole perimeter. •Disposition of stiffeners in the supports •Use 2UPN in box section or HEB section, which are the support types used in almost 100% building cases. To establish the influence of these variables in the connections performance, and the repercussion in the beams, a comparative analyse has been made with the resulting variables of the studied cases: •Stresses states in beams and connections. •Bending moments in beam ends. •Total and relative rotations in nodes. •Deflections in beams. Another aspect that the study allows us to analyze, is the valuation, from a costs point of view, of the execution of connections for the whole perimeter opposite to the web connections, or the execution of stiffeners. The results of this analyse, are strictly from an economic point of view, without prejudice that the safety or the preferences of the designers advise a certain solution. Finally, the third aspect that the study has allowed us to approach, is the comparison of the results that are obtained by the finite element model, nearer to the real behaviour, since the relative rotations in the connections are known, opposite to the results obtained with nodes and bars programs. So that, we can use the nodes and bars models, more versatile and quick, but knowing which are its limitations, and in which aspects and measures, we must weight the results. In the last part of the tesis, are relationated some of the topics on which it would be interesting to approach in later studies, with finite elements models, in order to know better the behaviour of the structural steel connections, in aspects that cannot be approached by the nodes and bars programs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los robots submarinos han revolucionado la exploración del fondo marino. Por otro lado, estos robots han permitido realizar operaciones en aguas profundas sin la necesidad de enviar un vehículo tripulado por humanos. El futuro de esta tecnología es prometedor. El propósito de este documento es servir de primer contacto con este tema y va dirigido a estudiantes de postgrado, ingenieros e investigadores con interés en la robótica submarina. Además, se reporta el estado actual de los diferentes aspectos que giran alrededor de esta área de la robótica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un caso paradigmático de la transferencia cultural entre España y el Nuevo Mundo lo protagonizan los balcones de madera que, de origen peninsular, adquieren una impronta vernácula y una entidad propia en las Islas Canarias. El trasiego comercial y cultural a través del Atlántico entre la metrópolis y las colonias y virreinos llevó aparejado una propagación de los tipos y elementos arquitectónicos y, entre ellos, el balcón de madera. De esta manera, desde las primeras construcciones de los españoles en América se encuentran balcones de madera volados sobre canes, con pies derechos y balaustres torneados, antepecho opaco y tejaroz. Con el tiempo, el elemento se asienta y adquiere características propias de ese nuevo emplazamiento, debido a la adaptación a las nuevas maderas y de una nueva manera de hacer por parte de los artesanos —en los primeros momentos, andaluces y canarios—, dando lugar a una variación del tipo originario.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los fenómenos de impacto y explosión sobre estructuras de hormigón tienen efectos en muchos casos catastróficos a pesar de su reducida probabilidad. Las estructuras de hormigón no suelen estar diseñadas para resistir este tipo de solicitaciones dinámicas. El análisis numérico mediante elementos finitos con integración explícita permite una aproximación suficiente a los efectos de la onda explosiva sobre pilares y forjados de estructuras reticuladas de hormigón. Los materiales recientemente implementados en LS-Dyna para hormigón como el CSCM [1], para elementos de continuo 3D, y la formulación que proporciona la debida compatibilidad con los elementos viga de acero dispuestos de forma segregada, permite estudiar de forma realista modelos detallados de pilares y forjados. Pero las limitaciones computacionales hacen inviable emplear estos métodos en estructuras completas. Como alternativa es posible usar modelos de elementos estructurales de vigas y láminas para el análisis de estas estructuras. Sin embargo es necesario un adecuado ajuste de parámetros y propiedades en estos modelos. Este trabajo muestra un método con en el que obtener modelos de elementos estructurales, elementos viga y lámina, usando modelos de material [2] adecuados para ellos, junto a un procedimiento para incluir la armadura de forma adecuada. Utilizando este método es posible representar con suficiente aproximación el comportamiento de modelos detallados realistas de forjados y pilares de estructuras reticuladas de hormigón frente a acciones explosivas, posibilitando el análisis de una estructura completa frente a explosión.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objeto de esta tesis es analizar la calidad del paisaje litoral como realidad espacial captada e interpretada por el hombre, a partir de la elección de elementos descriptibles y valorables, que ayudan a encuadrar y relacionar los principales aspectos, componentes, variables y parámetros asociados a la apreciación visual del territorio costero. Resumo Este trabalho tem como objecto de estudo a análise da qualidade da paisagem litoral, enquanto realidade espacial percepcionada e interpretada pelo homem a partir de elementos descritíveis e valoráveis, enquadrando, relacionando e caracterizando os principais aspectos, componentes, variáveis e parâmetros relacionados com a apreciação visual do território costeiro. Résumé Cette thèse a pour objet l'analyse du paysage littoral en tant que réalité spatiale perçue et traduite à partir d'éléments qui peuvent être décrits et mesurés pour servir ensuite à interpréter, caractériser et mettre en relation les principaux aspects, composants, variables et paramètres liés à l'interprétation visuelle du territoire côtier. Abstract The object of this project is to analyse the littoral landscape as a spatial reality perceived and interpreted by mankind, with reference to those elements that can be described and measured, thereby categorizing, connecting and characterizing the principal aspects, components, variables and parameters which relate to the visual interpretation of the coastal territory. Riassunto Questo lavoro ha come obbiettivo di studio l'analisi della qualità del paesaggio litoraneo, inteso come realtà particolare percepita ed interpretata dall'uomo a partire da elementi descrittivi e di valutazione, inquadrando, mettendo in relazione e distinguendo i principali aspetti, componenti, variabili e parametri relativi all'interpretazione visiva del territorio costiero. Zusammenfassung Ziel dieses Projekts ist es, die Eigenschaften der Küstenlandschaft, wie sie vom Menschen als räumliche Wirklichkeit wahrgenommen und gedeutet wird, unter Verwendung der beschreibbaren und messbaren Elemente zu analysieren, und die Hauptaspekte, Bestandteile, Variablen und Parameter der visuellen Interpretation des Küstengebiets einzubeziehen und zu charakterisieren. Samenvatting Het doel van dit project is het analyseren van de kwaliteit van het kustlandschap, zoals dit landschap door mensen als realiteit waargenomen en geïnterpreteerd, geinterpreteerd wordt, daarbij gebruik makende van beschrijfbare en meetbare elementen en tegelijkertijd daarbij in te passen, te verbinden en te karakteriseren de hoofdaspecten, componenten, variabelen en parameters die betrekking hebben op op visuele interpretatie van het kustlandschap.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años, podemos darnos cuenta de la importancia que tienen las nuevas aplicaciones de vidrio especialmente en edificios turísticos donde el vértigo juega un papel importante en la visita. Sin embargo los sistemas constructivos no tienen un especial interés porque el vidrio laminado está siempre soportado por otro elemento de acero o incluso vidrio en forma de retícula. En la presente tesis voy a desarrollar una nueva solución de elemento autoportante de vidrio de gran tamaño haciendo seguro el uso del elemento para andar en el aire. El sueño de muchos arquitectos ha sido diseñar un edificio completamente transparente y a mí me gustaría contribuir a este sueño empezando a estudiar un forjado de vidrio como elemento estructural horizontal y para ello debemos cumplir requerimientos de seguridad. Uno de los objetivos es lograr un elemento lo más transparente y esbelto posible para el uso de pasarelas en vestíbulos de edificios. Las referencias construidas son bien conocidas, pero por otro lado Universidades europeas estudian continua estudiando el comportamiento del vidrio con diferentes láminas, adhesivos, apilados, insertos, sistemas de laminado, pretensado, pandeo lateral, seguridad post-rotura y muchos más aspectos necesarios. La metodología llevada a cabo en esta tesis ha sido primeramente diseñar un elemento industrial prefabricado horizontal de vidrio teniendo en cuenta todos los conceptos aprendidos en el estado del arte y la investigación para poder predimensionar el elemento. El siguiente paso será verificar el modelo por medio de cálculo analítico, simulación de elementos finitos y ensayos físicos. Para realizar los ensayos hay un paso intermedio teniendo que cambiar la hipótesis de carga uniforme a carga puntal para realizar el ensayo de flexión a 4 puntos normalizado y además cambiar a escala 1:2 para adaptarse al espacio de ensayo y ser viable económicamente. Finalmente compararé los resultados de tensión y deformación obtenidos por los tres métodos para extraer conclusiones. Sin embargo el problema de la seguridad no ha concluido, tendré que demostrar que el sistema es seguro después de que se produzca la rotura y para ello sólo dispongo de los ensayos como medio de demostración. El diseño es el resultado de la evolución de una viga tipo “I”; cuando es pretensada para obtener más resistencia, aparece el problema de pandeo lateral y éste es solucionado con una viga con sección en “T” cuya unión es resuelta con un cajeado longitudinal en la parte inferior del elemento horizontal. Las alas de éste crecen para recoger las cargas superficiales creando a su vez un punto débil en la unión que a su vez se soluciona duplicando la sección “TT” y haciendo trabajar dicho tablero de forma tan óptima como una viga continua. Dicha sección en vidrio como un único elemento pretensado es algo inédito. Además he diseñado unas escuadras metálicas en los extremos de los nervios como apoyo y placa de pretensión, así como una hendidura curva en el centro de los nervios para alojar los tirantes de acero de modo que al pretensar el tirante la placa corrija al menos la deformación por peso propio. Realizados los cambios geométricos de escala y las simplificaciones en el laminado y el adhesivo se programan la extracción de resultados desde 3 estadios diferentes: Sin pretensión y con pretensión de 750 Kg y de 1000Kg en cada nervio. Por cada estadio y por cada uno de los métodos, cálculo, simulación y ensayos, se extraen los datos de deformación y tensión en el punto medio de un nervio con el objetivo de hacer una comparación de resultados para obtener unas conclusiones, siempre en el campo de la elasticidad. Posteriormente incrementaré la carga hasta el momento de la rotura de la placa y después hasta el colapso teniendo en cuenta el tiempo y demostrando una rotura segura. El vidrio no tendrá un comportamiento plástico pero habrá sido controlado su comportamiento frágil manteniendo una carga y una deformación aceptable. ABSTRACT Over the past few years we have realized the importance of the new technologies regarding the application of glass in new buildings, especially those touristic places were the views and the heights are the reason of the visit. However, the construction systems of these glass platforms are not usually as interesting, because the laminated glass is always held by another steel substructure or even a grid-formed glass element. Throughout this thesis I am going to develop a new solution of a self-bearing element with big dimensions made out of glass, ensuring a safe solution to use as an element to walk on the air. The dream of many architects has been to create a building completely transparent, and I would like to contribute to this idea by making a glass slab as a horizontal structural element, for which we have to meet the security requirements. One of the goals is to achieve an element as transparent and slim as possible for the use in walkways of building lobbies. The glass buildings references are well known, but on the other hand the European Universities study the behaviour of the glass with different interlayers, adhesives, laminating systems, stacking, prestressed, buckling, safety, breakage and post-breakage capacity; and many other necessary aspects. The methodology followed in this thesis has been to first create a horizontal industrial prefabricated horizontal element of glass, taking into account all the concepts learned in the state of art and the investigation to be able to predimension this element. The next step will be to verify this model with an analytic calculus, a finite element modelling simulation and physical tests. To fulfil these tests there is an intermediate step, having to change the load hypothesis from a punctual one to make the test with a four points normalized deflexion, and also the scale of the sample was changed to 1:2 to adapt to the space of the test and make it economically possible. Finally, the results of tension and deformation obtained from the three methods have been compared to make the conclusions. However, the problem with safety has not concluded yet, for I will have to demonstrate that this system is safe even after its breakage, for which I can only use physical tests as a way of demonstration. The design is the result of the evolution of a typical “I” beam, which when it is prestressed to achieve more resistance, the effect of buckling overcomes, and this is solved with a “T” shaped beam, where the union is solved with a longitudinal groove on the inferior part of the horizontal element. The boards of this beam grow to cover the superficial loads, creating at the same time a weak point, which is solved by duplicating the section “TT” and therefore making this board work as optimal as a continuous beam. This glass section as a single prestressed element is unique. After the final design of the “π” glass plate was obtained and the composition of the laminated glass and interlayers has been predimensioned, the last connection elements must be contemplated. I have also designed a square steel shoe at the end of the beams, which will be the base and the prestressed board, as well as a curved slot in the centre of the nerves to accommodate the steel braces so that when this brace prestresses the board, at least the deformation due to its self-weight will be amended. Once I made the geometric changes of the scale and the simplifications on the laminating and the adhesive, the extraction on results overcomes from three different stages: without any pretension, with a pretension of 750 kg and with a pretension of 1000 kg on each rib. For each stage and for each one of the methods, calculus, simulation and tests, the deformation datum were extracted to obtain the conclusions, always in the field of the elasticity. Afterwards, I will increase the load until the moment of breakage of this board, and then until the collapse of the element, taking into account the time spent and demonstrating a safe breakage. The glass will not have a plastic behaviour, but its brittle behaviour has been controlled, keeping an acceptable load and deflection.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La gestión del conocimiento y el capital intelectual son conceptos complejos de difícil implantación en las organizaciones y desde nuestra perspectiva, sólo es posible entenderlos desde un punto de vista socio-técnico, es decir, donde el componente humano establece una relación de sinergia con elementos tecnológicos y culturales para ampliar sus capacidades. El modelo exploratorio propuesto está basado en una relación causa-efecto, como resultado de la vinculación entre las TI/SI, la cultura y el capital humano con la gestión del conocimiento organizacional, en el marco de un modelo de madurez. La investigación fue desarrollada sobre un grupo de pymes latinoamericanas del sector industrial y manufacturero. Se usaron ecuaciones estructuradas (PLS) como herramientas de análisis estadístico. Estructuralmente se pudo demostrar la validez del modelo, quedando comprobada su fiabilidad, consistencia, estabilidad, calidad y poder de predicción. Mientras que funcionalmente, éste sirvió como apoyo para demostrar que las Pymes aun no han encontrado el equilibrio que les permita aprovechar eficientemente la tecnología instalada y la capacidad de su recurso humano para explotar su capital intelectual. Su desempeño sigue basado fundamentalmente en su cultura organizacional.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objeto del presente trabajo es la determinación de la distribución de tensiones en la unión carpintera de empalme de llave mediante el método de los elementos finitos y su comparación con los valores obtenidos mediante la teoría de Resistencia de Materiales. Se analizan las zonas donde se produce concentración de tensiones y se estudia la influencia del refino de la malla sobre los resultados con el fin de determinar el tamaño que proporciona los valores de tensión más ajustados a la teoría. En las zonas donde la concentración de tensiones es menor, distintos tamaños de la malla muestran valores de tensión similares. Los resultados muestran una simetría central de la distribución de isotensiones donde el centro de simetría se corresponde con el centro geométrico de la unión. En las zonas donde se produce concentración de tensiones, los valores de las mismas aumentan considerablemente con el refino de la malla. La comparación de los niveles de tensiones normales obtenidos por el MEF y la teoría clásica muestran diferencias reducidas, excepto en los puntos de concentración de tensiones. The purpose of this study is to determine the stress distribution in the joint carpenter of halved and tabled joint with the finite element method and its comparison with the values obtained using the theory of Strength of Materials. The stress concentration areas where analyzed and the influence of mesh refinement was studied on the results in order to determine the mesh size that provides the stress values more consistent with the theory. In areas where stress concentration is lower, different mesh sizes show similar stress values. The results show a central symmetry of the isobar lines distribution where the centre of symmetry corresponds to the geometric centre of the joint. In areas where stress concentration occurs, the same values increase considerably with the refinement of the mesh. Comparison of normal stress levels obtained by the FEM and the classical theory shows small differences, except at points of stress concentration.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cuando un automóvil o un tren circula sobre un viaducto se producen efectos dinámicos que, además de aumentar los esfuerzos que ha de soportar el puente, afectan a los propios vehículos. Los fenómenos de vibración lateral en los viaductos de ferrocarril están contemplados de manera muy sucinta en la normativa y pueden afectar a la seguridad y comodidad del tráfico. En el caso de las carreteras, esa dinámica también puede contribuir al riesgo de accidente y al aumento de la sensación de incomodidad, sobre todo si se considera la presencia de vientos laterales. La preocupación por estos fenómenos queda reflejada en el número de artículos publicados en revistas científicas en los últimos años. Para este trabajo se han desarrollado modelos de interacción dinámica que representan el comportamiento de las estructuras, mediante el método de los elementos finitos, y el de los vehículos, mediante sistemas multicuerpo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El acero es, junto con el hormigón, el material más ampliamente empleado en la construcción de obra civil y de edificación. Además de su elevada resistencia, su carácter dúctil resulta un aspecto de particular interés desde el punto de vista de la seguridad estructural, ya que permite redistribuir esfuerzos a elementos adyacentes y, por tanto, almacenar una mayor energía antes del colapso final de la estructura. No obstante, a pesar de su extendida utilización, todavía existen aspectos relacionados con su comportamiento en rotura que necesitan una mayor clarificación y que permitirían un mejor aprovechamiento de sus propiedades. Cuando un elemento de acero es ensayado a tracción y alcanza la carga máxima, sufre la aparición de un cuello de estricción que plantea dificultades para conocer el comportamiento del material desde dicho instante hasta la rotura. La norma ISO 6892-1, que define el método a emplear en un ensayo de tracción con materiales metálicos, establece procedimientos para determinar los parámetros relacionados con este tramo último de la curva F − E. No obstante, la definición de dichos parámetros resulta controvertida, ya que éstos presentan una baja reproducibilidad y una baja repetibilidad que resultan difíciles de explicar. En esta Tesis se busca profundizar en el conocimiento del último tramo de la curva F − E de los aceros de construcción. Para ello se ha realizado una amplia campaña experimental sobre dos aceros representativos en el campo de la construcción civil: el alambrón de partida empleado en la fabricación de alambres de pretensado y un acero empleado como refuerzo en hormigón armado. Los dos materiales analizados presentan formas de rotura diferentes: mientras el primero de ellos presenta una superficie de rotura plana con una región oscura claramente apreciable en su interior, el segundo rompe según la clásica superficie en forma de copa y cono. La rotura en forma de copa y cono ha sido ampliamente estudiada en el pasado y existen modelos de rotura que han logrado reproducirla con éxito, en especial el modelo de Gurson- Tvergaard-Needleman (GTN). En cuanto a la rotura exhibida por el primer material, en principio nada impide abordar su reproducción numérica con un modelo GTN, sin embargo, las diferencias observadas entre ambos materiales en los ensayos experimentales permiten pensar en otro criterio de rotura. En la presente Tesis se realiza una amplia campaña experimental con probetas cilíndricas fabricadas con dos aceros representativos de los empleados en construcción con comportamientos en rotura diferentes. Por un lado se analiza el alambrón de partida empleado en la fabricación de alambres de pretensado, cuyo frente de rotura es plano y perpendicular a la dirección de aplicación de la carga con una región oscura en su interior. Por otro lado, se estudian barras de acero empleadas como armadura pasiva tipo B 500 SD, cuyo frente de rotura presenta la clásica superficie en forma de copa y cono. Estos trabajos experimentales han permitido distinguir dos comportamientos en rotura claramente diferenciados entre ambos materiales y, en el caso del primer material, se ha identificado un comportamiento asemejable al exhibido por materiales frágiles. En este trabajo se plantea la hipótesis de que el primer material, cuya rotura provoca un frente de rotura plano y perpendicular a la dirección de aplicación de la carga, rompe de manera cuasifrágil como consecuencia de un proceso de decohesión, de manera que la región oscura que se observa en el centro del frente de rotura se asemeja a una entalla circular perpendicular a la dirección de aplicación de la carga. Para la reproducción numérica de la rotura exhibida por el primer material, se plantea un criterio de rotura basado en un modelo cohesivo que, como aspecto novedoso, se hace depender de la triaxialidad de tensiones, parámetro determinante en el fallo de este tipo de materiales. Este tipo de modelos presenta varias ventajas respecto a los modelos GTN habitualmente empleados. Mientras los modelos GTN precisan de numerosos parámetros para su calibración, los modelos cohesivos precisan fundamentalmente de dos parámetros para definir su curva de ablandamiento: la tensión de decohesión ft y la energía de fractura GF . Además, los parámetros de los modelos GTN no son medibles de manera experimental, mientras que GF sí lo es. En cuanto a ft, aunque no existe un método para su determinación experimental, sí resulta un parámetro más fácilmente interpretable que los empleados por los modelos GTN, que utilizan valores como el porcentaje de huecos presentes en el material para iniciar el fenómeno de coalescencia o el porcentaje de poros que provoca una pérdida total de la capacidad resistente. Para implementar este criterio de rotura se ha desarrollado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones. Se han reproducido con éxito los ensayos de tracción llevados a cabo en la campaña experimental empleando dicho elemento de intercara. Además, en estos modelos la rotura se produce fenomenológicamente de la misma manera observada en los ensayos experimentales: produciéndose una decohesión circular en torno al eje de la probeta. En definitiva, los trabajos desarrollados en esta Tesis, tanto experimentales como numéricos, contribuyen a clarificar el comportamiento de los aceros de construcción en el último tramo de la curva F − E y los mecanismos desencadenantes de la rotura final del material, aspecto que puede contribuir a un mejor aprovechamiento de las propiedades de estos aceros en el futuro y a mejorar la seguridad de las estructuras construidas con ellos. Steel is, together with concrete, the most widely used material in civil engineering works. Not only its high strength, but also its ductility is of special interest from the point of view of the structural safety, since it enables stress distribution with adjacent elements and, therefore, more energy can be stored before reaching the structural failure. However, despite of being extensively used, there are still some aspects related to its fracture behaviour that need to be clarified and that will allow for a better use of its properties. When a steel item is tested under tension and reaches the maximum load point, necking process begins, which makes difficult to define the material behaviour from that moment onward. The ISO standard 6892-1, which defines the tensile testing method for metallic materials, describes the procedures to obtain some parameters related to this last section of the F − E curve. Nevertheless, these parameters have proved to be controversial, since they have low reproducibility and repeatibility rates that are difficult to explain. This Thesis tries to deepen the knowledge of the last section of the F − E curve for construction steels. An extensive experimental campaign has been carried out with two representative steels used in civil engineering works: a steel rod used for manufacturing prestressing steel wires, before the cold-drawing process is applied, and steel bars used in reinforced concrete structures. Both materials have different fracture surfaces: while the first of them shows a flat fracture surface, perpendicular to the loading direction with a dark region in the centre of it, the second one shows the classical cup-cone fracture surface. The cup-cone fracture surface has been deeply studied in the past and different numerical models have been able to reproduce it with success, with a special mention to the Gurson-Tvergaard-Needleman model (GTN). Regarding the failure surface shown by the first material, in principle it can be numerically reproduced by a GTN model, but the differences observed between both materials in the experimental campaign suggest thinking of a different failure criterium. In the present Thesis, an extensive experimental campaign has been carried out using cylindrical specimens made of two representative construction steels with different fracture behaviours. On one hand, the initial eutectoid steel rod used for manufacturing prestressing steel wires is analysed, which presents a flat fracture surface, perpendicular to the loading direction, and with a dark region in the centre of it. On the other hand, B 500 SD steel bars, typically used in reinforced concrete structures and with the typical cup-cone fracture surface, are studied. These experimental works have allowed distinguishing two clearly different fracture behaviours between both materials and, in the case of the first one, a fragile-like behaviour has been identified. For the first material, which shows a flat fracture surface perpendicular to the loading direction, the following hypothesis is proposed in this study: a quasi-brittle fracture is developed as a consequence of a decohesion process, with the dark region acting as a circular crack perpendicular to the loading direction. To reproduce numerically the fracture behaviour shown by the first material, a failure criterium based on a cohesive model is proposed in this Thesis. As an innovative contribution, this failure criterium depends on the stress triaxiality state of the material, which is a key parameter when studying fracture in this kind of materials. This type of models have some advantages when compared to the widely used GTN models. While GTN models need a high number of parameters to be defined, cohesive models need basically two parameters to define the softening curve: the decohesion stress ft and the fracture energy GF . In addition to this, GTN models parameters cannot be measured experimentally, while GF is indeed. Regarding ft, although no experimental procedure is defined for its obtention, it has an easier interpretation than the parameters used by the GTN models like, for instance, the void volume needed for the coalescence process to start or the void volume that leads to a total loss of the bearing capacity. In order to implement this failure criterium, a triaxiality-dependent cohesive interface element has been developed. The experimental results obtained in the experimental campaign have been successfully reproduced by using this interface element. Furthermore, in these models the failure mechanism is developed in the same way as observed experimentally: with a circular decohesive process taking place around the longitudinal axis of the specimen. In summary, the works developed in this Thesis, both experimental and numerical, contribute to clarify the behaviour of construction steels in the last section of the F − E curve and the mechanisms responsible for the eventual material failure, an aspect that can lead to a better use of the properties of these steels in the future and a safety improvement in the structures built with them.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta memoria está basada en el crecimiento y caracterización de heteroestructuras Al(Ga)N/GaN y nanocolumnas ordenadas de GaN, y su aplicación en sensores químicos. El método de crecimiento ha sido la epitaxia de haces moleculares asistida por plasma (PAMBE). En el caso de las heteroestructuras Al(Ga)N/GaN, se han crecido barreras de distinto espesor y composición, desde AlN de 5 nm, hasta AlGaN de 35 nm. Además de una caracterización morfológica, estructural y eléctrica básica de las capas, también se han fabricado a partir de ellas dispositivos tipo HEMTs. La caracterización eléctrica de dichos dispositivos (carga y movilidad de en el canal bidimensional) indica que las mejores heteroestructuras son aquellas con un espesor de barrera intermedio (alrededor de 20 nm). Sin embargo, un objetivo importante de esta Tesis ha sido verificar las ventajas que podían tener los sensores basados en heteroestructuras AlN/GaN (frente a los típicos basados en AlGaN/GaN), con espesores de barrera muy finos (alrededor de 5 nm), ya que el canal de conducción que se modula por efecto de cambios químicos está más cerca de la superficie en donde ocurren dichos cambios químicos. De esta manera, se han utilizado los dispositivos tipo HEMTs como sensores químicos de pH (ISFETs), y se ha comprobado la mayor sensibilidad (variación de corriente frente a cambios de pH, Ids/pH) en los sensores basados en AlN/GaN frente a los basados en AlGaN/GaN. La mayor sensibilidad es incluso más patente en aplicaciones en las que no se utiliza un electrodo de referencia. Se han fabricado y caracterizado dispositivos ISFET similares utilizando capas compactas de InN. Estos sensores presentan peor estabilidad que los basados en Al(Ga)N/GaN, aunque la sensibilidad superficial al pH era la misma (Vgs/pH), y su sensibilidad en terminos de corriente de canal (Ids/pH) arroja valores intermedios entre los ISFET basados en AlN/GaN y los valores de los basados en AlGaN/GaN. Para continuar con la comparación entre dispositivos basados en Al(Ga)N/GaN, se fabricaron ISFETs con el área sensible más pequeña (35 x 35 m2), de tamaño similar a los dispositivos destinados a las medidas de actividad celular. Sometiendo los dispositivos a pulsos de voltaje en su área sensible, la respuesta de los dispositivos de AlN presentaron menor ruido que los basados en AlGaN. El ruido en la corriente para dispositivos de AlN, donde el encapsulado no ha sido optimizado, fue tan bajo como 8.9 nA (valor rms), y el ruido equivalente en el potencial superficial 38.7 V. Estos valores son más bajos que los encontrados en los dispositivos típicos para la detección de actividad celular (basados en Si), y del orden de los mejores resultados encontrados en la literatura sobre AlGaN/GaN. Desde el punto de vista de la caracterización electro-química de las superficies de GaN e InN, se ha determinado su punto isoeléctrico. Dicho valor no había sido reportado en la literatura hasta el momento. El valor, determinado por medidas de “streaming potential”, es de 4.4 y 4 respectivamente. Este valor es una importante característica a tener en cuenta en sensores, en inmovilización electrostática o en la litografía coloidal. Esta última técnica se discute en esta memoria, y se aplica en el último bloque de investigación de esta Tesis (i.e. crecimiento ordenado). El último apartado de resultados experimentales de esta Tesis analiza el crecimiento selectivo de nanocolumnas ordenadas de GaN por MBE, utilizando mascaras de Ti con nanoagujeros. Se ha estudiado como los distintos parámetros de crecimiento (i.e. flujos de los elementos Ga y N, temperatura de crecimiento y diseño de la máscara) afectan a la selectividad y a la morfología de las nanocolumnas. Se ha conseguido con éxito el crecimiento selectivo sobre pseudosustratos de GaN con distinta orientación cristalina o polaridad; templates de GaN(0001)/zafiro, GaN(0001)/AlN/Si, GaN(000-1)/Si y GaN(11-20)/zafiro. Se ha verificado experimentalmente la alta calidad cristalina de las nanocolumnas ordenadas, y su mayor estabilidad térmica comparada con las capas compactas del mismo material. Las nanocolumnas ordenadas de nitruros del grupo III tienen una clara aplicación en el campo de la optoelectrónica, principalmente para nanoemisores de luz blanca. Sin embargo, en esta Tesis se proponen como alternativa a la utilización de capas compactas o nanocolumnas auto-ensambladas en sensores. Las nanocolumnas auto-ensambladas de GaN, debido a su alta razón superficie/volumen, son muy prometedoras en el campo de los sensores, pero su amplia dispersión en dimensiones (altura y diámetro) supone un problema para el procesado y funcionamiento de dispositivos reales. En ese aspecto, las nanocolumnas ordenadas son más robustas y homogéneas, manteniendo una alta relación superficie/volumen. Como primer experimento en el ámbito de los sensores, se ha estudiado como se ve afectada la emisión de fotoluminiscencia de las NCs ordenadas al estar expuestas al aire o al vacio. Se observa una fuerte caída en la intensidad de la fotoluminiscencia cuando las nanocolumnas están expuestas al aire (probablemente por la foto-adsorción de oxigeno en la superficie), como ya había sido documentado anteriormente en nanocolumnas auto-ensambladas. Este experimento abre el camino para futuros sensores basados en nanocolumnas ordenadas. Abstract This manuscript deals with the growth and characterization of Al(Ga)N/GaN heterostructures and GaN ordered nanocolumns, and their application in chemical sensors. The growth technique has been the plasma-assisted molecular beam epitaxy (PAMBE). In the case of Al(Ga)N/GaN heterostructures, barriers of different thickness and composition, from AlN (5 nm) to AlGaN (35 nm) have been grown. Besides the basic morphological, structural and electrical characterization of the layers, HEMT devices have been fabricated based on these layers. The best electrical characteristics (larger carriers concentration and mobility in the two dimensional electron gas) are those in AlGaN/GaN heterostructures with a medium thickness (around 20 nm). However, one of the goals of this Thesis has been to verify the advantages that sensors based on AlN/GaN (thickness around 7 nm) have compared to standard AlGaN/GaN, because the conduction channel to be modulated by chemical changes is closer to the sensitive area. In this way, HEMT devices have been used as chemical pH sensors (ISFETs), and the higher sensitivity (conductance change related to pH changes, Ids/pH) of AlN/GaN based sensors has been proved. The higher sensibility is even more obvious in application without reference electrode. Similar ISFETs devices have been fabricated based on InN compact layers. These devices show a poor stability, but its surface sensitivity to pH (Vgs/pH) and its sensibility (Ids/pH) yield values between the corresponding ones of AlN/GaN and AlGaN/GaN heterostructures. In order to a further comparison between Al(Ga)N/GaN based devices, ISFETs with smaller sensitive area (35 x 35 m2), similar to the ones used in cellular activity record, were fabricated and characterized. When the devices are subjected to a voltage pulse through the sensitive area, the response of AlN based devices shows lower noise than the ones based on AlGaN. The noise in the current of such a AlN based device, where the encapsulation has not been optimized, is as low as 8.9 nA (rms value), and the equivalent noise to the surface potential is 38.7 V. These values are lower than the found in typical devices used for cellular activity recording (based on Si), and in the range of the best published results on AlGaN/GaN. From the point of view of the electrochemical characterization of GaN and InN surfaces, their isoelectric point has been experimentally determined. Such a value is the first time reported for GaN and InN surfaces. These values are determined by “streaming potential”, being pH 4.4 and 4, respectively. Isoelectric point value is an important characteristic in sensors, electrostatic immobilization or in colloidal lithography. In particular, colloidal lithography has been optimized in this Thesis for GaN surfaces, and applied in the last part of experimental results (i.e. ordered growth). The last block of this Thesis is focused on the selective area growth of GaN nanocolumns by MBE, using Ti masks decorated with nanoholes. The effect of the different growth parameters (Ga and N fluxes, growth temperature and mask design) is studied, in particular their impact in the selectivity and in the morphology of the nanocolumns. Selective area growth has been successful performed on GaN templates with different orientation or polarity; GaN(0001)/sapphire, GaN(0001)/AlN/Si, GaN(000- 1)/Si and GaN(11-20)/sapphire. Ordered nanocolumns exhibit a high crystal quality, and a higher thermal stability (lower thermal decomposition) than the compact layers of the same material. Ordered nanocolumns based on III nitrides have a clear application in optoelectronics, mainly for white light nanoemitters. However, this Thesis proposes them as an alternative to compact layers and self-assembled nanocolumns in sensor applications. Self-assembled GaN nanocolumns are very appealing for sensor applications, due to their large surface/volume ratio. However, their large dispersion in heights and diameters are a problem in terms of processing and operation of real devices. In this aspect, ordered nanocolumns are more robust and homogeneous, keeping the large surface/volume ratio. As first experimental evidence of their sensor capabilities, ordered nanocolumns have been studied regarding their photoluminiscence on air and vacuum ambient. A big drop in the intensity is observed when the nanocolumns are exposed to air (probably because of the oxygen photo-adsortion), as was already reported in the case of self-assembled nanocolumns. This opens the way to future sensors based on ordered III nitrides nanocolumns.