340 resultados para Alívio de sobrecargas
Resumo:
Objectives: to use the toy as a therapeutic resource in the preparation of children undergoing surgical repair of cleft lip and palate preoperatively; to describe quali-quantitativelly the behavioral reactions of the child during the two periods, pre-and postoperatively. Method: quali-quantitative study, developed in a specialized hospital, with 40 children aged between 7 and 12 years old who underwent surgery for correction of cleft lip and palate. Data collection was by means of an instrument with 21 behavioral variables preoperatively and postoperatively. Content analysis was used in the speech of mothers and children. This study was the research project approved by the Ethics Committee, CAAE No. 050/2011. Results: the variable is a presented questioner p> 0.0265 and four categories emerged after content analysis. Conclusion: therapeutic toy is a feature that makes children relieve stress, and facilitates the implementation of nursing care.
Resumo:
O panorama da produção científica no que concerne à família e estomas é carente de estudos sobre o tema, em especial sobre a experiência no período neonatal da criança. O presente estudo teve como objetivo geral compreender a experiência da mãe que tem um filho estomizado durante o período neonatal ou durante o tempo de internação em Unidade de Terapia Intensiva Neonatal (UTIN). Utilizando a História Oral como referencial metodológico, foram realizadas entrevistas com nove mães. O resgate das memórias individuais possibilitou a construção da memória coletiva, organizada em quatro temas: sonhos versus realidade, proteção perdida, na companhia do medo e é preciso exercer a maternidade. Os resultados permitem uma reflexão sobre a importância de medidas mais eficazes que contribuam para autonomia e alívio do sofrimento da mãe na UTIN, em que a assistência de enfermagem possa ser orientada pelos princípios do Cuidado Centrado na Família.
Resumo:
JUSTIFICATIVA E OBJETIVOS: A disfunção temporomandibular (DTM) é um termo que descreve um grupo de doenças que afetam funcionalmente o aparelho mastigatório, particularmente a musculatura mastigatória e a articulação temporomandibular (ATM). Tem etiologias múltiplas e tratamentos específicos, entre os quais a estimulação elétrica nervosa transcutânea (TENS). O objetivo deste artigo é o de revisar a literatura científica sobre o uso da TENS em pacientes com DTM. CONTEÚDO: Estudos epidemiológicos mostram que aproximadamente 75% da população apresentam algum sinal de DTM, enquanto 33% possuem ao menos um sintoma. Sempre que possível deve-se tratar a causa da dor, caso não se consiga estabelecer a sua etiologia, inicia-se com procedimentos menos invasivos e reversíveis, especialmente nos casos de dor e disfunção muscular. A terapia com TENS consiste na administração de corrente elétrica na superfície cutânea, de modo a relaxar os músculos hiperativos e promover o alívio da dor. CONCLUSÃO: Embora existam controvérsias quanto ao uso de TENS para o controle da dor crônica, seu uso na dor muscular mastigatória continua relevante. Entretanto, é fundamental o diagnóstico preciso para evitar uso inadequado. São necessários ainda estudos randomizados controlados que incluam amostras selecionadas para homogeneizar o uso de TENS em pacientes com DTM.
Resumo:
O trabalho a ser apresentado neste evento é fruto da pesquisa de doutorado da participante, que analisa os oito livros de terror mais vendidos no Brasil, no período de 1980 a 2007. O suporte teórico metodológico que sustenta as análises do corpus é a semiótica greimasiana. Seu objetivo é expor como o discurso se configura, provocando o efeito de sentido do medo nos textos. Para definir o terror, utiliza-se a teoria de Lovecraft (2008), segundo a qual o gênero se manifesta quando um elemento sobrenatural aparece no mundo real, causando medo. Nao há convivência de dois mundos, mas apenas existe o mundo real, com o sobrenatural inserido nele. Nesta vertente da literatura do medo, os textos sao configurados seguindo uma linha discursiva semelhante, conforme analisa a teoria semiótica, com temas, figuras e estruturas que confluem para o seguinte foco: provocar o medo no leitor. Atualmente, a literatura de terror tem conquistado um espaço cada vez maior no mercado editorial brasileiro. Entre tantos conceitos que a permeiam, é preciso considerar que, na medida em que o texto literário se apodera destes temores, demonstra o alerta, a denúncia, proporcionando o alívio da tensao cotidiana do ser humano que, ao pegar uma obra, coloca-se na funçao social de leitor. Esta é uma das hipóteses que justificam a grande vendagem atual de obras de terror. Segundo Bordini (1987), as histórias de terror definem-se pelo efeito irracional que produzem sobre o leitor. E incumbência da semiótica mostrar como este efeito irracional é transformado em discurso. Para este evento, propoe-se definir o terror, situando-o numa linha em que atuaram escritores como Edgar Allan Poe (1840) e Hawthorne (1851), e explicitar como o discurso deste tipo de literatura se configura, fazendo com que o efeito de sentido do medo saia das folhas do livro e atinja seu leitor
Resumo:
O trabalho a ser apresentado neste evento é fruto da pesquisa de doutorado da participante, que analisa os oito livros de terror mais vendidos no Brasil, no período de 1980 a 2007. O suporte teórico metodológico que sustenta as análises do corpus é a semiótica greimasiana. Seu objetivo é expor como o discurso se configura, provocando o efeito de sentido do medo nos textos. Para definir o terror, utiliza-se a teoria de Lovecraft (2008), segundo a qual o gênero se manifesta quando um elemento sobrenatural aparece no mundo real, causando medo. Nao há convivência de dois mundos, mas apenas existe o mundo real, com o sobrenatural inserido nele. Nesta vertente da literatura do medo, os textos sao configurados seguindo uma linha discursiva semelhante, conforme analisa a teoria semiótica, com temas, figuras e estruturas que confluem para o seguinte foco: provocar o medo no leitor. Atualmente, a literatura de terror tem conquistado um espaço cada vez maior no mercado editorial brasileiro. Entre tantos conceitos que a permeiam, é preciso considerar que, na medida em que o texto literário se apodera destes temores, demonstra o alerta, a denúncia, proporcionando o alívio da tensao cotidiana do ser humano que, ao pegar uma obra, coloca-se na funçao social de leitor. Esta é uma das hipóteses que justificam a grande vendagem atual de obras de terror. Segundo Bordini (1987), as histórias de terror definem-se pelo efeito irracional que produzem sobre o leitor. E incumbência da semiótica mostrar como este efeito irracional é transformado em discurso. Para este evento, propoe-se definir o terror, situando-o numa linha em que atuaram escritores como Edgar Allan Poe (1840) e Hawthorne (1851), e explicitar como o discurso deste tipo de literatura se configura, fazendo com que o efeito de sentido do medo saia das folhas do livro e atinja seu leitor
Resumo:
O trabalho a ser apresentado neste evento é fruto da pesquisa de doutorado da participante, que analisa os oito livros de terror mais vendidos no Brasil, no período de 1980 a 2007. O suporte teórico metodológico que sustenta as análises do corpus é a semiótica greimasiana. Seu objetivo é expor como o discurso se configura, provocando o efeito de sentido do medo nos textos. Para definir o terror, utiliza-se a teoria de Lovecraft (2008), segundo a qual o gênero se manifesta quando um elemento sobrenatural aparece no mundo real, causando medo. Nao há convivência de dois mundos, mas apenas existe o mundo real, com o sobrenatural inserido nele. Nesta vertente da literatura do medo, os textos sao configurados seguindo uma linha discursiva semelhante, conforme analisa a teoria semiótica, com temas, figuras e estruturas que confluem para o seguinte foco: provocar o medo no leitor. Atualmente, a literatura de terror tem conquistado um espaço cada vez maior no mercado editorial brasileiro. Entre tantos conceitos que a permeiam, é preciso considerar que, na medida em que o texto literário se apodera destes temores, demonstra o alerta, a denúncia, proporcionando o alívio da tensao cotidiana do ser humano que, ao pegar uma obra, coloca-se na funçao social de leitor. Esta é uma das hipóteses que justificam a grande vendagem atual de obras de terror. Segundo Bordini (1987), as histórias de terror definem-se pelo efeito irracional que produzem sobre o leitor. E incumbência da semiótica mostrar como este efeito irracional é transformado em discurso. Para este evento, propoe-se definir o terror, situando-o numa linha em que atuaram escritores como Edgar Allan Poe (1840) e Hawthorne (1851), e explicitar como o discurso deste tipo de literatura se configura, fazendo com que o efeito de sentido do medo saia das folhas do livro e atinja seu leitor
Resumo:
En el presente trabajo se desarrolla un método de cálculo del empuje que produce sobre un muro una carga situada sobre un terreno adyacente a dicho muro. Por medio de hipótesis físicas sencillas, se llega a resultados que parecen diferir de los obtenidos experimentalmente en márgenes tolerables, dentro de la aproximación normalmente usada en los cálculos. Se incluye una generalización para dos muros iguales y paralelos, fundada en un artificio análogo al empleado en Aerodinamica, para estudiar la interferencia entre las paredes y el modelo en los ensayos en tunel aerodinámico. Finalmente se presenta una familia de curvas adimensionales que dan el empuje para sobrecargas geométricamente semejantes, situadas a diferentes distancias del muro. Familias de este tipo pueden ser de gran utilidad, ya que se ha comprobado que, para los pesos y presiones de inflado usuales, las huellas de las ruedas de diferentes aviones son geometricamente semejantes. Estas familias podrian servir para un ulterior intento de obtención de fórmulas aproximadas de más fácil aplicación.
Resumo:
Se tiene una red eléctrica compuesta por tres centrales térmicas convencionales y dos núcleos de consumo diferenciados, uno industrial y otro residencial, a la que se le va a conectar un parque eólico. El objetivo es dimensionar la línea de conexión y conocer el comportamiento de la red ante este cambio. Se han calculado las características de la línea eléctrica de conexión para satisfacer la potencia instalada del parque. También se ha estimado la demanda horaria de electricidad en las zonas residencial e industrial y se han tomado los valores horarios significativos de la potencia generada por el parque eólico, ambos, para las distintas estaciones del año. Como programa para la simulación de la red eléctrica se utilizó el PSS/E (Power System Simulator for Engineering) en el que, ayudándose del lenguaje de programación Python, se creó un código que cambiaba los datos horarios del consumo y la generación del parque, resolvía el flujo de cargas y exportaba los resultados que mostraban el comportamiento de la red para las distintas casuísticas. Finalmente, se analizaron los resultados de las potencias activa y reactiva generadas por las centrales convencionales, la tensión en los buses y las posibles sobrecargas.
Resumo:
La fatiga superficial es uno de los principales problemas en las transmisiones mecánicas y es uno de los focos de atención de las investigaciones de los últimos anos en Tribología. La disminución de viscosidad de los lubricantes para la mejora de la eficiencia, el aumento de las potencias a transmitir, el aumento de la vida de los componentes o la mejora de su fiabilidad han supuesto que los fenómenos de fatiga superficial hayan cobrado especial relevancia, especialmente los fenómenos de pitting y micropitting en cajas multiplicadoras/reductoras de grandes potencias de aplicación, por ejemplo, en el sector eólico. Como todo fenómeno de fatiga, el pitting y micropitting son debidos a la aplicación de cargas ciclicas. Su aparición depende de las presiones y tensiones cortantes en el contacto entre dos superficies que al encontrarse en rodadura y deslizamiento varian con el tiempo. La principal consecuencia de la fatiga superficial es la aparición de hoyuelos de diferente magnitud segun la escala del fenómeno (pitting o micropitting) en la superficie del material. La aparición de estos hoyuelos provoca la perdida de material, induce vibraciones y sobrecargas en el elemento que finalmente acaba fallando. Debido a la influencia de la presión y tensión cortante en el contacto, la aparición de fatiga depende fuertemente del lubricante que se encuentre entre las dos superficies y de las condiciones de funcionamiento en las cuales este trabajando. Cuando el contacto trabaja en condiciones de lubricacion mixta-elastohidrodinamica tiende a aparecer micropitting debido a las altas tensiones localizadas en las proximidades de las asperezas, mientras que si el régimen es de lubricación completa el tipo de fatiga superficial suele ser pitting debido a las tensiones mas suavizadas y menos concentradas. En esta Tesis Doctoral se han analizado todos estos factores de influencia que controlan el pitting y el micropitting prestando especial atención al efecto del lubricante. Para ello, se ha dado un enfoque conjunto a ambos fenómenos resolviendo las ecuaciones involucradas en el contacto elastohidrodinamico no-Newtoniano (la ecuación de Reynolds, la deformación elástica de los sólidos y la reologia del lubricante) para conocer la presión y la tensión cortante en el contacto. Conocidas estas, se resuelve el campo de tensiones en el interior del material y, finalmente, se aplican criterios de fatiga multiaxial (Crossland, Dang Van y Liu-Mahadevan) para conocer si el material falla o no falla. Con la metodología desarrollada se ha analizado el efecto sobre las tensiones y la aparición de la fatiga superficial del coeficiente viscosidad-presion, de la compresibilidad, del espesor especifico de película y de la fricción así como de la influencia de las propiedades a fatiga del material y de las condiciones de funcionamiento (radios de contacto, velocidad, deslizamiento, carga y temperatura). Para la validación de los resultados se han utilizado resultados teóricos y experimentales de otros autores junto con normas internacionales de amplia utilización en el mundo industrial, entre otras, para el diseño y calculo de engranajes. A parte del trabajo realizado por simulación y cálculo de los diferentes modelos desarrollados, se ha realizado un importante trabajo experimental que ha servido no solo para validar la herramienta desarrollada sino que además ha permitido incorporar al estudio factores no considerados en los modelos, como los aditivos del lubricante. Se han realizado ensayos de medida del coeficiente de fricción en una maquina de ensayo puntual con la que se ha validado el cálculo del coeficiente de fricción y se ha desarrollado un proceso de mejora del coeficiente de fricción mediante texturizado superficial en contactos puntuales elastohidrodinamicos mediante fotolitografia y ataque quimico. Junto con los ensayos de medida de fricción en contacto puntual se han realizado ensayos de fricción y fatiga superficial en contacto lineal mediante una maquina de discos que ha permitido evaluar la influencia de diferentes aditivos (modificadores de fricción, antidesgaste y extrema-presion) en la aparición de fatiga superficial (pitting y micropitting) y la fricción en el contacto. Abstract Surface fatigue is one of the most important problems of mechanical transmissions and therefore has been one of the main research topics on Tribology during the last years. On the one hand, industrial demand on fuel economy has led to reduce lubricant viscosity in order to improve efficiency. On the other hand, the requirements of power and life of machine elements are continuously increasing, together with the improvements in reliability. As a consequence, surface fatigue phenomena have become critical in machinery, in particular pitting and micropitting in high power gearboxes of every kind of machines, e.g., wind turbines or cranes. In line with every fatigue phenomena, pitting and micropitting are caused by cyclic loads. Their appearance depends on the evolution of pressures and shear stresses with time, throughout the contact between surfaces under rolling and sliding conditions. The main consequence of surface fatigue is the appearance of pits on the surface. The size of the pits is related to the scale of the fatigue: pitting or micropitting. These pits cause material loss, vibrations and overloads until the final failure is reached. Due to the great influence of the pressures and shear stresses in surface fatigue, the appearance of pits depends directly on the lubricant and the operating conditions. When the contact works under mixed regime (or under elastohydrodynamic but close to mixed regime) the main fatigue failure is micropitting because of the high pressures located near the asperities. In contrast, when the contact works under elastohydrodynamic fully flooded conditions the typical fatigue failure is pitting. In this Ph.D. Thesis, the main factors with influence on pitting and micropitting phenomena are analyzed, with special attention to the effect of the lubricant. For this purpose, pitting and micropitting are studied together by solving the equations involved in the non-Newtonian elastohydrodynamic contact. Thus, pressure and shear stress distributions are found by taking into account Reynolds equation, elastic deflection of the solids and lubricant rheology. Subsequently, the stress field inside the material can be calculated and different multiaxial fatigue criteria (Crossland, Dang Van and Liu- Mahadevan) can be applied to predict whether fatigue failure is reached. The influences of the main parameters on pressure and surface fatigue have been studied, taking into account the lubricant compressibility and its viscosity-pressure coefficient, the specific film thickness, the friction coefficient and the fatigue properties of the contacting materials, together with the operating conditions (contact radius, mean velocity, sliding velocity, load and temperature). Several theoretical and experimental studies of different authors have been used to validate all the results obtained, together with international standards used worldwide in gear design industry. Moreover, an experimental stage has been carried out in order to validate the calculation methods and introduce additional influences not included previously, e.g., lubricant additives. The experimentation includes different friction tests in point contacts performed with a tribological equipment in order to validate the results given by the calculations. Furthermore, the reduction and optimization of the friction coefficient is analyzed by means of textured surfaces, obtained combining photolithography and chemical etching techniques. Besides the friction tests with point contact, friction and surface fatigue tests have also been performed with line contact in a tribological test rig. This equipment is also used to study the influence of different types of additives (friction modifiers, anti-wear and extreme-pressure additives) on surface fatigue (pitting and micropitting).
Resumo:
El fenómeno de fatiga es uno de los condicionantes más importantes en el diseño de puentes metálicos y mixtos bajo la acción cíclica de fuertes sobrecargas reales. Hoy en día, ha tomado mayor relevancia en el ámbito de puentes de carretera debido al aumento sustancial de la intensidad de tráfico y el peso de los vehículos. La evolución de las normativas actuales, que recogen su cálculo a partir del ELU de seguridad a fatiga, debe ir dirigida, hacia una mayor simplicidad de aplicación y un mayor rigor técnico. A partir del análisis de seis puentes mixtos de carretera proyectados recientemente (2007-2011) se pretende establecer una comparación, tanto cualitativa como cuantitativa, entre los métodos simplificados de la normativa española (antigua RPM/RPX 95 y actual EAE) y el Eurocódigo frente al Método del Daño Acumulado, caracterizado por ser más complicado de aplicar pero más riguroso. A través del análisis efectuado, se obtienen reglas prácticas sencillas y fiables para el dimensionamiento o verificación de elementos estructurales a fatiga según características principales como la tipología de la sección o la longitud de vano, entre otros. En conclusión, el trabajo que se propone desarrollar combina el análisis crítico de la base teórica con el estudio aplicado de casos reales y pretende sentar las bases para profundizar en esta área de gran interés para proyectistas. Fatigue is one of the most determining factors in the design of steel and composite bridges with dynamic loads subject to cyclic live loads. Nowadays, it has taken relevance in the field of roadway bridges due to considerable increase in the intensity of traffic and the weight of vehicles. The evolution of the current design codes, which include an analysis of the ultimate limit state of fatigue, should aim for greater ease of application and technical rigour. Based on the analysis of six composite road bridges designed recently (2007-2011), a comparison has been made, both qualitative and quantitative, between the simplified methods of the Spanish codes (current EAE and old RPM/RPX95) and Eurocode with regard to the Cumulative Damage Method, characterised for being more difficult to apply but more rigorous. Through an exhaustive analysis, a set of practical and reliable rules have been obtained for the sizing or verification of structural elements according to main characteristics such as the tipology of the cross section or the length of span, among others. In conclusion, the work developed combines the critical analysis of the theory with the applied study of real cases and sets out to lay the foundations for deepening into this area of great interest to designers.
Resumo:
Se ha demostrado que un estilo de vida sedentario es un factor de riesgo para el desarrollo de muchas enfermedades, siendo la obesidad un problema de salud pública prioritario, por sus graves consecuencias sobre la salud, de tal magnitud que tiene la consideración de pandemia. La estimación de la cantidad de grasa corporal total y su distribución son buenos indicadores del estado de salud. En los adultos mayores, la ausencia de ocupación, la soledad social y, sobre todo, el sedentarismo son las causas del sobrepeso. Además, el mantenimiento de la masa muscular y del sistema osteoarticular son determinantes para poder mantener una vida sana e independiente. Hacer ejercicio físico, con regularidad y en compañía, contribuye al bienestar general del organismo, siendo el mejor medio disponible actualmente para retrasar y prevenir las consecuencias del envejecimiento. Los ejercicios físicos que se desarrollan en el medio acuático se hacen bajo condiciones que permiten realizar movimientos que no se podrían hacer en el medio terrestre, limitando los riesgos de lesiones y sobrecargas en las articulaciones. Después de realizar una valoración de la condición física de cada participante, mediante test debidamente validados, se propone un programa de intervención para la disminución parcial de peso graso y acondicionamiento físico en adultos mayores mediante actividades en el medio acuático.
Resumo:
Una técnica de refuerzo de elementos flectados en general y, en particular, de vigas y forjados de hormigón armado, consiste en la disposición de perfiles metálicos por debajo de los elementos a reforzar y retacados a ellos. En muchos casos este refuerzo se diseña con un planteamiento pasivo, es decir, los perfiles no entran en carga hasta que no se incrementan las acciones sobre el elemento reforzado, o lo hacen sólo ligeramente y de forma cuantitativamente no controlada efectuando el retacado mediante cuñas metálicas. En el presente trabajo se estudia la alternativa del refuerzo de vigas de hormigón armado frente a momentos flectores con un planteamiento activo, introduciendo unas fuerzas (por ejemplo, mediante gatos o barras roscadas) entre el perfil y el elemento a reforzar, y retacando posteriormente el perfil a la viga en los puntos de introducción de las fuerzas, mediante cuñas metálicas, mortero, etc. La propuesta que formulamos en el presente trabajo de investigación para el control de las fuerzas introducidas consiste en la medida de las flechas que se producen en el perfil metálico al hacerlo reaccionar contra la viga. Esto permite el empleo de procedimientos sencillos para la predeformación del perfil que no dispongan de dispositivos de medida de la carga introducida, o bien controlar la veracidad de las medidas de las fuerzas que dan tales dispositivos. La gran fiabilidad que tiene el cálculo de flechas en jácenas metálicas hace que con este procedimiento se puedan conocer con gran precisión las fuerzas introducidas. Las medidas de las flechas se pueden llevar a cabo mediante los procedimientos de instrumentación habituales en pruebas de carga, con una precisión más que suficiente para conocer y controlar con fiabilidad el valor de las fuerzas que el perfil ejerce sobre la viga. Los perfiles necesarios para el refuerzo con esta técnica son netamente inferiores a los que se precisarían con el planteamiento pasivo antes indicado. En el trabajo de investigación se recoge un estudio sobre el número, posición y valor de las fuerzas de refuerzo a introducir, en función de la carga para la que se diseña el refuerzo y la capacidad resistente del elemento a reforzar, y se analizan los valores máximos que pueden tener dichas fuerzas, en función de la capacidad de la pieza frente a momentos de signo contrario a los debidos a las cargas gravitatorias. A continuación se analiza la interacción viga-perfil al incrementarse las cargas sobre la viga desde el instante de la ejecución del refuerzo, interacción que hace variar el valor de las fuerzas que el perfil ejerce sobre la viga. Esta variación permite contar con un incremento en las fuerzas de refuerzo si, con las cargas permanentes presentes al reforzar, no podemos introducirlas inicialmente con el valor necesario, o si se producen pérdidas en las propias fuerzas. Este es uno de los criterios a la hora de seleccionar las características del perfil. Por el contrario, dicha variación puede suponer que en algunos puntos a lo largo del vano se supere la capacidad a flexión frente a momentos de signo contrario a los debidos a las cargas gravitatorias, lo que también debe ser tenido en cuenta. Seguidamente se analizan diferentes aspectos que producen una variación en el valor de las fuerzas de refuerzo, como son las deformaciones diferidas del hormigón (fluencia y retracción), los gradientes de temperatura en la pieza, o la actuación de sobrecargas en los vanos adyacentes. Se concluye los efectos de estos fenómenos, que en ocasiones tienen gran influencia, pueden ser cuantificados por el proyectista, recogiéndose propuestas sencillas para su consideración en casos habituales. Posteriormente recogemos una propuesta de metodología de comprobación del refuerzo, en cuanto a cómo considerar la fisuración y evolución del módulo de deformación de la viga, la introducción de la seguridad, la influencia de las tolerancias de laminación en el perfil sobre el valor calculado de las flechas necesarias en el perfil para introducir las fuerzas iniciales proyectadas, o la situación accidental de fuego, entre otros aspectos. Por último, se exponen las conclusiones más relevantes de la investigación realizada, y se proponen futuras líneas de investigación. One technique for strengthening flexural members in general, and reinforced concrete beams and slabs in particular, entails caulking the underside of these members with steel shapes. This sort of strengthening is often designed from a passive approach; i.e., until the load is increased, the shapes are either not loaded or are only slightly loaded to some unquantified extent by caulking with steel shims. The present study explored the possibility of actively strengthening the capacity of reinforced concrete beams to resist bending moments by applying forces (with jacks or threaded bars, for instance) between the shape and the member to be strengthened. The shape is subsequently caulked under the beam at the points where the forces are applied with steel shims, mortar or similar. The proposal put forward in the present study to monitor the forces applied consists in measuring the deflection on the steel shape as it reacts against the beam. With this technique, the shape can be pre-strained using simple procedures that do not call for devices to measure the force applied, or the accurancy of the respective measurements can be verified. As deflection calculations in steel girders are extremely reliable, the forces applied with this procedure can be very precisely determined. Standard instrumental procedures for load testing can be used to measure deflection with more than sufficient precision to reliably determine and monitor the value of the forces exerted on the beam by the shape. Moreover, the shapes required to strengthen members with this technique are substantially smaller than the ones needed in the aforementioned passive approach. This study addressed the number, position and value of the strengthening forces to be applied in terms of the load for which strengthening was designed and the bearing capacity of the member to be strengthened. The maximum value of such forces was also analysed as a function of the capacity of the member to resist counter-gravity moments. An analysis was then conducted of beam-shape interaction when the load on the beam raises since the instant that strengthening is applied, interaction that alters the forces applied to the beam by the shape. This variation can provide an increment in the forces if we cannot introduce them initially with the value calculated as necessary because they were limited by the permanent loads existing when strengthening, or if losses occur in the forces themselves. This is one of the criteria for defining shape specifications. Conversely, such variation may cause the forces to exceed beam counter-gravity bending strength at some points in the span, a development that must also be taken into consideration. Other factors inducing variations in the strengthening force values were then analysed, including deferred concrete strain (creep and shrinkage), temperature gradients in the member and the live loads acting on adjacent spans. The inference drawn was that these developments, which may on occasion have a heavy impact, can be quantified by the design engineer, particularly in ordinary situations, for which simple procedures are proposed. Methodology is likewise proposed for verifying strength in terms of how to appraise beam's cracking and variations in modulus of deformation; safety concerns; the effect of shape lamination tolerance on the calculated deflection necessary for the shape to apply the design forces; and fire-induced situations, among others. Lastly, the most prominent conclusions are discussed and future lines of research are suggested.
Resumo:
El refuerzo de forjados existentes de madera incrementando su capacidad resistente y/o su rigidez es una intervención estructural muy extendida. El refuerzo mediante recrecidos de hormigón unidos solidariamente a las viguetas de madera mediante conexiones metálicas presenta las siguientes ventajas: Incremento de la resistencia y rigidez del forjado inicial; el forjado se transforma en un diafragma rígido frente a las acciones horizontales y, cuando es posible ejecutar el refuerzo sin necesidad de apuntalar, puede mantenerse el uso de la zona inferior al forjado que se está reforzando. El principal inconveniente de la técnica radica en la carga añadida por el peso del hormigón. El empleo de hormigones ligeros estructurales (HLE) constituye una alternativa atractiva frente a los hormigones convencionales (HC), al aunar todas las ventajas de la técnica y disminuir considerablemente los inconvenientes debido al menor peso del hormigón ligero. Se han comparado los resultados obtenidos en la evaluación de forjados de madera de distintas luces, secciones y sobrecargas, reforzados con recrecidos de HC y de HLE. En concreto se han estudiado 3 luces (4.0, 4.5 y 5.0m) y 2 sobrecargas de uso (2kN/m2 y 3kN/m2). En todos los casos la sección de la madera se ha obtenido con criterios antiguos de dimensionamiento, utilizando las luces y acciones de los forjados a evaluar.
Resumo:
La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.
Resumo:
Este estudo possui duas partes distintas: 1. in vivo (randomizado e longitudinal) que teve como objetivo avaliar protocolos de tratamento para hipersensibilidade dentinária com laser de baixa potência (com diferentes dosagens), laser de alta potência e agente dessensibilizante, por um período de 12 e 18 meses; e 2. in vitro que teve como objetivo analisar a perda de estrutura de dois dentifrícios distintos (Colgate Total 12 e Colgate Pró Alívio) e analisar a permeabilidade dentinária dos tratamentos da etapa 01, associados aos dentifrícios, após diferentes ciclos de abrasão. Na parte in vivo, as lesões cervicais não cariosas de 32 voluntários, previamente submetidos aos critérios de elegibilidade ou exclusão, foram divididas em nove grupos (n=10): G1: Gluma Desensitizer (Heraeus Kulzer), G2: Laser de baixa potência com baixa dosagem (Photon Lase, DMC) (três pontos de irradiação vestibulares e um ponto apical: 30 mW, 10 J/cm2, 9 seg por ponto com o comprimento de onda de 810nm). Foram realizadas três sessões com um intervalo de 72 horas), G3: Laser de baixa potência com alta dosagem (um ponto cervical e um ponto apical: 100 mW, 90 J/cm2, 11 seg por ponto com o comprimento de onda de 810nm. Foram realizadas três sessões com um intervalo de 72 horas), G4: Laser de baixa potência com baixa dosagem + Gluma Desensitizer, G5: Laser de baixa potência com alta dosagem + Gluma Desensitizer, G6: Laser de Nd:YAG (Power LaserTM ST6, Lares Research®), em contato com a superfície dental: 1,0W, 10 Hz e 100 mJ, ? 85 J/cm2, com o comprimento de onda de 1064nm, G7: Laser de Nd:YAG + Gluma Desensitizer, G8: Laser de Nd:YAG + Laser de baixa potência com baixa dosagem, G9: Laser de Nd:YAG + Laser de baixa potência com alta dosagem. O nível de sensibilidade de cada voluntário foi avaliado através da escala visual analógica de dor (VAS) com auxílio do ar da seringa tríplice e exploração com sonda após 12 e 18 meses do tratamento. Na parte 02, in vitro, foram utilizados terceiros molares humanos não irrompidos e recém-extraídos. Todos foram limpos e tiveram suas raízes separadas das coroas. As raízes foram seccionadas em quadrados de dentina com dimensões de 4x4x2 mm, os quais foram embutidos em resina Epoxi e devidamente polidos até uma curvatura de 0,3 ?m, analisados em perfilometria ótica. Estes foram imersos em solução de EDTA 17% por 2min para abertura dos túbulos e armazenados em uma solução de Soro Fetal Bovino diluído em salina tamponada com fosfato. Os espécimes foram divididos aleatoriamente em 12 grupos (n=10) G1: Sem tratamento de superfície, sem dentifrício; G2: Nd:YAG/sem dentifrício; G3: Gluma/sem dentifrício; G4: Nd:YAG + Gluma/sem dentifrício; G5: Sem tratamento de superfície/Colgate Total 12; G6: Nd:YAG/Colgate Total 12; G7: Gluma/Colgate Total 12; G8: Nd:YAG + Gluma/Colgate Total 12; G9: Sem tratamento de superfície/Colgate Pró Alívio; G10: Nd:YAG/Colgate Pró Alívio; G11: Gluma/Colgate Pró Alívio; G12: Nd:YAG + Gluma/Colgate Pró Alívio. Em seguida, as superfícies receberam a aplicação de fitas adesivas nas duas margens, mantendo uma área central de teste exposta de 4 x 1 mm, onde foram realizados os tratamentos de superfície e os ciclos de abrasão correspondentes a 1, 7, 30 e 90 dias de escovação (52 ciclos, 210 segundos de contato com o slurry; 361 ciclos, 1470 segundos de contato com o slurry; 1545 ciclos, 6300 segundos de contato com o slurry; 4635 ciclos, 18900 segundos de contato com o slurry, respectivamente). A cada etapa de abrasão, foi realizada análise em Perfilometria Ótica. Para as analises de permeabilidade e Microscopia Eletrônica de Varredura, foram utilizadas amostras circulares de 6 mm de diâmetro e 1 mm de espessura de dentina obtidas das coroas dentais. Estas foram divididas aleatoriamente nos mesmos grupos já descritos anteriormente, sendo que 120 espécimes foram utilizados para permeabilidade (n=10) e 36 para MEV (n=3). Ambas as análises foram realizadas após imersão no EDTA; após tratamentos para a sensibilidade; pós 1 dia, 7 dias, 30 dias e 90 dias de escovação. Após análise estatística pode-se concluir que, in vivo, todos os tratamentos foram eficazes para a redução da hipersensibilidade dentinária. Ainda que o nível da sensibilidade dos pacientes aumentou numericamente, estes não são considerados estatisticamente diferentes a partir de 12 meses. Portanto, até a avaliação de 18 meses, podemos concluir que não houve um aumento na sensibilidade dentinária desde a sua diminuição pós-tratamento. In vitro, pode-se concluir que todos os tratamentos foram capazes de diminuir a permeabilidade dentinária. O dentifrício Total 12 apresentou-se como o mais abrasivo em comparação com o dentifrício Pro Alivio, pois este último promoveu uma perda de estrutura menor, porém ambos não apresentaram aumento na permeabilidade nos tempos de escovação. As microscopias eletrônicas de varredura mostram a formação da smear layer, obliterando os túbulos para ambos os dentifricios. Como conclusão, pode-se afirmar que todos os agentes dessensibilizantes foram efetivos, mesmo apresentando estratégias de ação diferentes. Os dentifrícios são igualmente interessantes para o uso caseiro por ocasionarem oclusão tubular e a associação de tratamentos (caseiro e de consultório) parece ser uma alternativa eficaz no tratamento da hipersensibilidade dentinária.