859 resultados para análisis de casos
Resumo:
El presente trabajo se centra en el desarrollo de los modelos matemáticos precisos para simular las excitaciones y respuestas de carácter dinámico, que se introducen en los ensayos no destructivos de detección de imperfecciones. Las estructuras que se consideran se suponen constituidas por chapas de espesor delgado. Las fisuras, en estos casos, pueden ser penetrantes o de una profundidad significativa respecto de su espesor, o no penetrantes o superficiales, que afectan a la zona superficial de chapa. El primer tipo de fisura está relacionado con la seguridad de la estructura y el segundo más con su protección ambiental, al deteriorarse las pinturas de protección. Se han considerado dos tipos de modelos: uno, que intenta localizar la posición y magnitud de las imperfecciones en la estructura, en particular las fisuras, de carácter penetrante total. Para ello se utilizan en el estudio modelos de vibraciones elásticas de estructuras delgadas como placas a flexión. El otro tipo de modelos analiza las vibraciones en lajas y en él se consideran vibraciones superficiales, como las ondas de Rayleigh. Se ha comprobado, en los modelos de estructuras pasantes, que las diferencias entre las frecuencias propias de las estructuras sanas y las fisuradas no son, en general, significativas. Por otra parte, la detección de posición de las fisuras e incluso su mera presencia, mediante distintas normas de comparación entre los vectores modos propios no constituye un procedimiento fiable, ya que puede depender de la posición de la fisura (por ejemplo, cercana a un borde) y del modo de vibración que la excita. El método que parece más prometedor está basado en la medida de las rotaciones (o derivadas de los modos respecto a dos ejes ortogonales) en distintos puntos de la estructura y su representación mediante curvas de nivel.
Resumo:
La consideración de los efectos producidos por la colisión de un barco con una pila de un puente sobre el Estrecho de Gibraltar constituye una exigencia en un diseño adecuado de la estructura. En efecto, la existencia de un tráfico marítimo interno - con barcos que pueden alcanzar las 500.000 toneladas - las importantes corrientes que se generan en la zona, representan factores que, incluso con un estricta regulación y control de la navegación en el Estrecho, elevan la probabilidad de ocurrencia de este suceso. Sin embargo, una comprobación adecuada de la integridad estructural del puente bajo la acción del choque de un barco debería llevarse a cabo únicamente en estados avanzados del proyecto. Un cálculo de este tipo precisa un esfuerzo computacional muy importante y, por otra parte, las consecuencias del choque, raras veces modifican los parámetros significativos del diseño y su concepción general, y sólo en algunos casos exige la modificación de detalles constructivos y la disposición del pertinente sistema de defensa alrededor de las pilas. En este artículo, se presenta de un modo sucinto la formulación general de la dinámica del impacto, cuya aplicación al caso particular del choque del barco con las defensas de las pilas corresponde a una simple aplicación. Alternativamente, se expone un método aproximado para el estudio estructural de los efectos del impacto. Finalmente, se comentan las posibilidades de aplicación de los procedimientos anteriores a un puente sobre el Estrecho y se dan indicaciones de los programas de computador más importantes que permiten un análisis de este tipo.
Resumo:
Hasta fecha relativamente reciente, el cálculo estructural de placas con geometría y condiciones de borde arbitrarias ha constituido un problema complejo, frecuentemente inabordable sin el recurso de importantes y drásticas simplificaciones. Los métodos entonces existentes, -analíticos, semianalíticos (desarrollos en series) o numéricos (diferencias finitas)- eran incapaces o exigían un elevado grado de laboriosidad en su resolución. Con la aparición del método de los elementos finitos (l), (MEF), la situación se modificó de un modo considerable, al existir la posibilidad de un tratamiento unificado dentro de la teoría general del análisis matricial de estructuras -del cálculo de placas- con un mínimo de aproximaciones. No obstante se comprobó que la versión en movimientos del MEF encontraba mayores dificultades en su aplicación a problemas de la clase C1 –como son los de la flexión de placas delgadas- en comparación con los problemas C0- correspondientes a casos de elasticidad (tensión y deformación plana, por ejemplo).
Resumo:
El presente documento pretende ofrecer una visión general del estado del conjunto de herramientas disponibles para el análisis y explotación de vulnerabilidades en sistemas informáticos y más concretamente en redes de ordenadores. Por un lado se ha procedido a describir analíticamente el conjunto de herramientas de software libre que se ofrecen en la actualidad para analizar y detectar vulnerabilidades en sistemas informáticos. Se ha descrito el funcionamiento, las opciones, y la motivación de uso para dichas herramientas, comparándolas con otras en algunos casos, describiendo sus diferencias en otros, y justificando su elección en todos ellos. Por otro lado se ha procedido a utilizar dichas herramientas analizadas con el objetivo de desarrollar ejemplos concretos de uso con sus diferentes parámetros seleccionados observando su comportamiento y tratando de discernir qué datos son útiles para obtener información acerca de las vulnerabilidades existentes en el sistema. Además, se ha desarrollado un caso práctico en el que se pone en práctica el conocimiento teórico presentado de forma que el lector sea capaz de asentar lo aprendido comprobando mediante un caso real la utilidad de las herramientas descritas. Los resultados obtenidos han demostrado que el análisis y detección de vulnerabilidades por parte de un administrador de sistemas competente permite ofrecer a la organización en cuestión un conjunto de técnicas para mejorar su seguridad informática y así evitar problemas con potenciales atacantes. ABSTRACT. This paper tries to provide an overview of the features of the set of tools available for the analysis and exploitation of vulnerabilities in computer systems and more specifically in computer networks. On the one hand we pretend analytically describe the set of free software tools that are offered today to analyze and detect vulnerabilities in computer systems. We have described the operation, options, and motivation to use these tools in comparison with other in some case, describing their differences in others, and justifying them in all cases. On the other hand we proceeded to use these analyzed tools in order to develop concrete examples of use with different parameters selected by observing their behavior and trying to discern what data are useful for obtaining information on existing vulnerabilities in the system. In addition, we have developed a practical case in which we put in practice the theoretical knowledge presented so that the reader is able to settle what has been learned through a real case verifying the usefulness of the tools previously described. The results have shown that vulnerabilities analysis and detection made by a competent system administrator can provide to an organization a set of techniques to improve its systems and avoid any potential attacker.
Resumo:
La empresa social es un modelo organizativo que presenta un interesante potencial para resolver problemáticas sociales. La empresa social ha despertado interés tanto en países industrializados como en economías en vías de desarrollo porque representa un modelo dentro del capitalismo que persigue objetivos sociales mediante la realización de actividades de mercado (compra y venta de productos y/o servicios principalmente). A pesar de sus raíces lejanas en el tiempo se trata de un campo de conocimiento relativamente joven, donde la literatura académica presenta escasez de estudios empíricos. El desarrollo teórico para buscar claridad conceptual ha sido el principal caballo de batalla de los últimos años, y por tanto, se ha prestado poca atención a generar evidencias sobre cómo funcionan las empresas sociales y sobre sus claves de su éxito. Se considera que la mejora en la comprensión de este modelo organizativo pasa por la construcción de herramientas para que académicos y practicantes mejoren su conocimiento sobre los mecanismos internos de las empresas sociales. En este contexto nace la presente tesis doctoral sobre empresa social, que tiene por objetivo la creación de un marco de análisis que permita el estudio de las empresas sociales desde una dimensión organizativa, es decir, que aborde los elementos clave que describen el funcionamiento de este tipo de organizaciones. Para ello, en este trabajo se aborda la construcción del modelo para el análisis organizativo de las empresas sociales a partir del análisis semántico de las 45 principales definiciones de empresa social. A partir de este análisis se identifican dos dimensiones de análisis de la empresa social: -Cuatro principios, comunes a todas las manifestaciones del fenómeno, que recogen la esencia del concepto. -Ocho elementos organizativos específicos de la empresa social que describen la forma en la que cada iniciativa se implementa en un contexto determinado. Es decir, elementos de diseño presentes en diferente medida que dan lugar a tipologías de empresa social diferentes. Estos elementos son: la proposición de valor social, la búsqueda de impacto a largo plazo, la cultura organizativa, la conexión con los beneficiarios, el liderazgo emprendedor y los mecanismos de gobernanza, el ecosistema colaborativo, la estrategia empresarial y la orientación a la autosuficiencia económica. A partir de este marco de análisis, se construyen dos herramientas de diagnóstico que permiten su aplicación al estudio de empresas sociales: una tabla de indicadores para el análisis externo (por parte de un investigador ajeno a la organización) y un cuestionario de diagnóstico para el análisis interno (a través del personal de la empresa social objeto de estudio). Las herramientas intentan dar respuesta a la necesidad de desarrollar constructos para el estudio empírico de las empresas sociales. Para analizar la utilidad del modelo y de las herramientas se llevaron a cabo tres estudios de caso: -La empresa social ACCIONA Microenergía Perú que proporciona energía eléctrica a comunidades rurales aisladas en la región peruana de Cajamarca. -La empresa social Integra-e que propone un mecanismo de inserción socio-laboral en Madrid para jóvenes en riesgo de exclusión a través de la formación en Tecnologías de la Información y la Comunicación (TIC). -Un conjunto de redes de telecentros pertenecientes a la red LAC de la fundación Telecentres.org que proporcionan acceso a servicios de información (Internet entre otros) en diferentes países de Latinoamérica. La aplicación de las herramientas mostró ser útil en los tres estudios de caso para obtener una relación de evidencias con las que analizar la proximidad de una organización al ideal de empresa social. El ejercicio de análisis también resultó interesante como ejercicio reflexivo para las entidades participantes. Los resultados del cuestionario fueron especialmente interesantes en los telecentros de la Fundación Telecentre.org ya que al ser un estudio multicaso se pudo realizar un rico análisis estadístico sobre el funcionamiento de los telecentros y su desempeño. El estudio permitió identificar relaciones interesantes entre los ocho elementos de diseño del modelo propuesto y el desempeño de la organización. En particular, se detectó que para todos los casos estudiados: -La dimensión económica es la componente del desempeño que mayor desafíos plantea. -La existencia de una alta correlación entre el desempeño y siete de los ocho elementos organizativos del modelo. -La importancia de la cultura organizativa como elemento que explica el desempeño global de la organización y la satisfacción de los empleados. El campo de la empresa social presenta importantes retos de futuro, como la claridad conceptual, el desarrollo de estudios empíricos y la medida de su impacto social. El conocimiento de las claves organizativas puede ayudar a diseñar empresas sociales más robustas o a que organizaciones con fines sociales que no se basan en mecanismos de mercado consideren la posibilidad de incorporar éstos en su estrategia. ABSTRACT Social enterprise is an organizational model with a strong potential to help solving social problems. Recently, interest for the model has risen in both industrialized and developing countries because it is organized to achieve altruistic or social goals through market activities (mainly sales of products and services). Despite its historic roots, it is a relatively young field of research, where academic literature has little empirical data to accompany the theoretical development of social enterprise. Conceptual clarification has been the main challenge during the recent years, and there has been little attention given to generate evidence on how social enterprises operate and their keys to success. Progress in empirical study involves the construction of tools for researchers, in order to increase understanding of the internal mechanisms of social enterprises. This thesis aims to create a conceptual framework to study social enterprises from an organizational point of view, by analyzing the key elements that explain the operation and organization of this organizational model. The framework for the organizational analysis of social enterprises was built supported by the semantic analysis of 45 main definitions of social enterprise. The framework is divided into two dimensions: -There are four principles which capture the essence of the social enterprise concept, and are present in the manifestations of cases. -There are eight design elements which help analyze the characteristics of each particular social enterprise initiative: the social value proposition, social impact orientation, organizational culture, links to beneficiaries, entrepreneurial leadership, collaborative ecosystem, entrepreneurial strategy and orientation to economic self-sufficiency. Two diagnostic tools were developed to apply the framework to case studies: a scoreboard of indicators (to be used by the researcher during external analysis of the organization) and a questionnaire (to be answered by the social enterprise staff). The dissertation undertakes the study of three case studies: -ACCIONA Microenergia Peru, a social enterprise that provides electricity to isolated rural communities in the Peruvian region of Cajamarca. -Integra-e, a social enterprise located in Madrid that promotes socioprofessional integration of young people through training in ICT. -A sample of telecenters of the LAC network that provide access to information services (such as Internet) in Latin America. Applying the tools proved to be useful in all three cases, because it helped to obtain evidence to compare the proximity of an organization to an ideal type of social enterprise. In all the cases studied, the economic sustainability proved to be the biggest challenge for the organizations. The application of the questionnaire to the telecenters was especially informative because it was a multicase study which provided a rich statistical analysis on the performance of call centers. The study identified unique relationships between the model elements and the organziation performance. A statistical analysis shows a high correlation between performance and seven organizational elements described in the model. The organizational culture seems to be an important factor in explaining the overall organizational performance and employee satisfaction. The field of social enterprise has significant future challenges -such as conceptual clarity, the development of empirical studies and social impact assessment. A deep understanding of key organizational aspects of social enterprises can help in the design of more robust organizations and to bring success to social-purpose organizations.
Resumo:
La globalización, en las últimas décadas, ha tenido una amplia repercusión e influencia sobre la evolución de los procesos que intervienen en la gestión y la ordenación urbano-territorial. Esta influencia ha sido especialmente destacable en los procesos de conformación de las Ciudades Globales (CG). No obstante, dentro de los procesos actuales, y de los ya iniciados décadas atrás, se encuentran discordancias tanto con respecto a los modelos de gestión urbanoterritoriales como con relación a los procesos de conformación de las CG. Esto es debido a que cada territorio o CG no ha seguido un proceso homogéneo; sino que, a través del modelo empresarial de la “Planificación Estratégica” (PE) cada proceso ha sido adaptado para poder atender y potenciar las características más singulares de cada territorio, y de esta forma, poder alcanzar las ambiciosas posiciones de liderazgo. Por este motivo, el éxito de la PE se ha basado en simplificar la complejidad de los modelos y agentes que participan en los procesos de conformación de los territorios y ciudades globales. En esta investigación se propone analizar el valor de la PE como proceso de gestión y ordenación urbano-territorial; al igual que se pretende esclarecer tanto los modelos como los elementos de los que se compone. Para, poder así, identificar las relaciones que se producen entre los modelos y elementos principales de los que se compone una PE. Por motivos relacionados con la necesaria acotación de toda investigación, y mediante el apoyo de tanto el tutor de esta investigación como de expertos externos consultados, se ha acordado analizar los aspectos más característicos del proceso estratégico, como son: los territoriales, los económicos y los de gobernanza. Esta investigación se ha llevado a cabo a través del uso del método estudio de casos, mediante un proceso de recogida de información compuesto por dos estudios de campo, Singapur y Dubái, con similitudes tanto en el proceso como en los resultados. También se han realizado consultas a expertos multidisciplinares, cuya información y aportaciones se han articulado y procesado mediante la utilización del sistema de análisis de realidades complejas, presentado en el marco conceptual. Los resultados del estudio de los casos de Singapur y de Dubái muestran como las acciones urbano-territoriales que se han llevado a cabo en ambas ciudades y en sus territorios circundantes son consecuencia del uso de la planificación estratégica en beneficio de un mejor posicionamiento dentro del contexto global. De esta forma, mediante el análisis de las asimetrías y de las relaciones existentes entre el proceso, los casos de estudio y el contexto global, se identifica y se esclarece los términos relacionados con las ciudades globales referentes, consolidadas y emergentes. A su vez, a lo largo del marco conceptual se correlaciona y esclarece los procesos territoriales, económicos y de gobernanza, identificando las responsabilidades entre las instituciones, los organismos, los agentes y los actores (tanto públicos como privados) que inician y gestionan tanto el plan estratégico como los procesos derivados de él. Para finalizar, el análisis cruzado de los resultados demuestra la relación existente entre la planificación estratégica, la ordenación urbano-territorial, la gestión económica y la gobernanza. Pudiéndose identifican las asimetrías producidas durante la implantación de un plan estratégico, de forma que, tras un análisis del sistema de realidades complejas, estas asimetrías puedan ser solventadas. RESUMO Nas últimas décadas, a globalização tem tido um grande impacto sobre a evolução dos processos de gestão e planejamento urbano-territorial. Essa influência foi particularmente notável nos processos de formação das cidades globais (CG). No entanto, comparando os processos atuais e aqueles iniciados há décadas, as discrepâncias são encontradas tanto no que diz respeito aos modelos de uso do solo urbano, como em relação aos processos de formação e gestão das CG. Isso ocorre porque cada território ou CG não tem seguido um processo uniforme; mas, por meio do modelo de negócios de "Planejamento Estratégico" (PE) cada processo foi adaptado para servir e melhorar as características mais singulares de cada território para alcançar posições de liderança global. Portanto, o sucesso do PE é baseado na simplificação da complexidade dos modelos e atores envolvidos nos processos de formação dos territórios e das cidades globais. Esta pesquisa tem como objetivo analisar o valor do PE como um processo de gestão territorial e urbana; como também esclarecer os modelos e elementos do PE estudados. Para, então, poder identificar as relações que ocorrem entre os modelos e os principais elementos integrantes de um PE. Como recorte de pesquisa, após consultas com o tutor da pesquisa e com outros pesquisadores especialistas, decidiu-se analisar os aspectos mais característicos do processo estratégico, sendo eles: os territoriais, os econômicos e os de governabilidade. Esta pesquisa ’e um estudo de casos. Para realizá-lo, foram escolhidos dois estudos de campo (Dubai e Cingapura) e além de consultas com especialistas multidisciplinares, cujas informações e colaborações foram analisadas por um sistema de analise de realidades complexas, explicado na parte conceitual dessa tese. Os resultados do estudo dos casos de Dubai e Cingapura mostra como as ações urbanoterritoriais que foram realizadas em ambas cidades e em seus territórios circundantes são resultado do uso do planejamento estratégico em prol de uma melhor localização no contexto global. Assim, através da análise das assimetrias e da relação entre o processo, os estudos de caso e o contexto global, identifica-se e esclarece os termos relacionados com as cidades globais referentes, consolidadas e emergentes. Também, no arcabouço conceitual correlacionase e esclarecem-se os processos econômicos, territoriais e de governabilidade, identificando as responsabilidades das instituições, agências, agentes e atores (públicos e privados), que iniciam e gerenciam tanto o plano estratégico, como os processos derivados. A análise cruzada dos resultados demonstra a relação entre o planejamento estratégico, o planejamento urbano-territorial, a gestão econômica e a governabilidade. A pesquisa é capaz de identificar as assimetrias produzidas durante a implementação de um plano estratégico, para que depois da análise do sistema de realidades complexas, essas assimetrias possam ser resolvidas. ABSTRACT Globalization, in recent decades, has had a wide impact and influence on the evolution of the processes involved in the urban planning management. This influence has been particularly notable in the formation processes for the Global Cities (GC). However, within the current processes, even in those started decades ago, discrepancies are found between the urbanterritorial models and their relation to the processes of formation for the CG. This is because each territory, or CG, has not followed a uniform process; although, each process has been adapted through the business model of the "Strategic Planning" (SP) to serve and enhance the most unique characteristics of each urban territory, until reaching the ambitious global leadership positions. Therefore, the success of SP is based on simplifying the complexity of the models and actors involved in the processes of formation of the GCs and territories. This research aims to analyze the value of SP as a process for the urban and territorial management; intended to clarify both models and elements of which it is composed. And, for so, identify the relationships that occur between them. For reasons related to the required limits of all research, and through the support of this research by both the tutor and the consulted outside experts, has agreed to analyze the most characteristic aspects of the strategic process, which are: territory, economy and governance. This research was conducted through the use of the case study methodology; by a process of information collection of two field studies, Singapore and Dubai, with similarities in both the process and the results; and through consultation with a variety of multidisciplinary experts. Whose information and input has been articulated and processed by the use of a system prepared for the complex analysis of realities presented in the research’s conceptual framework. Thus, analyzing the asymmetries and relationship between the results of the study cases of Singapore and Dubai, have shown how the urban-territorial actions, which have been carried out in both cities and in their surrounding territories, are the result of the use of the strategic planning process for the benefit of a better position with respect to the global context. Meanwhile, along the conceptual framework correlates and clarifies the territorial, economic and governance processes, identifying responsibilities between the institutions, agencies, agents and actors (public and private) that initiate and manage both strategic planning and processes derived from it. Finally, the cross-analysis of the results shows the relationship between strategic planning, urban and territorial planning, economic management and governance. Being able to identify and eliminate the asymmetries produced during the implementation of a strategic planning for the formation of a Global City.
Resumo:
RESUMEN Su objetivo esencial: Regular el proceso de la edificación, está basado en 3 grandes pilares: 1.- Completar la configuración legal de los agentes que intervienen en el mismo, fijando sus obligaciones para así establecer las responsabilidades. 2.- Fomentar la calidad de los edificios. 3.- Fijar las garantías a los usuarios frente a los posibles daños. Estos tres fundamentos están intensamente relacionados, ya que, las obligaciones y responsabilidades de los agentes son la base de la constitución de las garantías a los usuarios, definidas mediante los requisitos básicos que deben satisfacer los edificios. Partiendo del análisis cualitativo y cuantitativo del grado de cumplimiento del objetivo de la nueva Ley, elaborado a través del estudio de sus tres pilares fundamentales, proponemos medidas tendentes a la plena entrada en vigor de la misma. Para ello se deberá desarrollar el Real Decreto previsto en la Disposición Adicional 2ª, una vez conseguido el grado de madurez de los sectores de la edificación y del seguro. En todo este proceso de estudio hemos podido apreciar que la objetiva identificación de los daños y en especial los que afectan la estabilidad del edificio, constituye una herramienta fundamental para la correcta atribución de responsabilidades a los agentes, basada en la aplicación de los tres grados de responsabilidad “ex lege” por daños materiales y sus plazos de prescripción surgidos del nuevo régimen impuesto por el art. 17 LOE Para avalar esta propuesta hemos analizado: 1.- El entorno económico, general y pormenorizado al sector de la edificación, en Europa y España durante el período comprendido entre los años 1990 y 2013, años previos y posteriores a la entrada en vigor de la Ley, dada la influencia de los ciclos de actividad producidos en la regulación del sector, las responsabilidades atribuidas a los agentes, el fomento de la calidad y las garantías ofrecidas a los adquirentes. 2.- Las diversas legislaciones sobre responsabilidades y garantías de los agentes de la edificación en los países de nuestro entorno económico. 3.- La gestación de la LOE, incidiendo en la evolución de los últimos borradores y su tramitación parlamentaria. 4.- El desarrollo doctrinal de la Transición desde el régimen de responsabilidades, fijado por el art. 1591 de Código Civil, y su Jurisprudencia, hacia el nuevo régimen de responsabilidades establecido por el art. 17 LOE. En esta tarea además de apreciar la asimilación, por parte de los Jueces y Magistrados, de los principios doctrinales de la LOE, hemos observado la labor de los peritos, de cuya experta identificación de las causas de los daños depende la justa y eficaz atribución de responsabilidades. 5 -. El grado de eficacia de la LOE a la vista de la estadística siniestral, de la que ya hay datos consolidados, tras la cancelación de casi 15.000 expedientes de reclamación a Arquitectos. 6 -. También hemos estudiado el grado de cumplimiento con el usuario y propietario de las garantías previstas en el art. 19 de la Ley y en la D.A. 1ª, los efectos reales alcanzados y las tareas pendientes por delante. Analizando la atribución de responsabilidades a los agentes de la edificación, dentro del primer pilar fundamental de la LOE, hemos estudiado las actuaciones de los peritos expertos y su incidencia en este objetivo, previa selección de casos de gran interés y dificultad. Fruto de ello se han formulado propuestas tendentes a la especialización de este colectivo, evitando conductas “irregulares” que tanto daño provocan a los agentes reclamados como a los propietarios afectados. Este daño es evidente pudiendo ocasionar condenas injustas, enriquecimientos ilícitos o bien falsas expectativas de satisfacción de daños mal dictaminados y costosas e ineficaces reparaciones. De cara a la consecución del pilar de la calidad de la edificación, mediante los requisitos básicos planteados por la LOE y desarrollados por el Código Técnico de la Edificación (Real Decreto 314/2006, de 17 de marzo), hemos procesado datos de expedientes de reclamaciones por daños que afectan a edificios ejecutados bajo el nuevo régimen LOE. Con esta base se han analizado las causas generadoras de las diversas lesiones y su frecuencia para que de este análisis puedan establecerse pautas de actuación para su prevención. Finalmente, tras demostrar que las garantías obligatorias impuestas por la LOE sólo abarcan un pequeño porcentaje de los posibles daños a la edificación, insistimos en la necesidad de la plena eficacia de la Ley mediante la aprobación de todas las garantías previstas y para todo tipo de edificaciones. En suma, se ha diseñado la tesis como una matriz abierta en la que podremos continuar incorporando datos de la evolución de la doctrina, la jurisprudencia y la estadística de los daños en la edificación. ABSTRACT The approval of Law 38/1999 on November 5, 1999, (Official Gazette BOE 266/1999 of 11.6.1999, p. 38925), was the culmination of a long period of over 20 years of gestation for which deep agreements were needed between all stakeholders affected. Although several parliamentary groups denounced its incomplete approval, regarding mandatory guarantees to the purchaser, its enactment caused general satisfaction among most of the the building agents. This assessment remains after fourteen years since its partial enactment. Its essential purpose, “to regulate the building process”, is based on 3 pillars: 1.- To complete the legal configuration of the agents involved in it, setting their obligations in order to establish their responsibilities. 2.- To promote the buildings quality. 3.- To specify users´guarantees against possible buildings damage. These three issues are strongly related, since the obligations and responsibilities of the actors are the basis of the users’guarantees constitution, defined by the basic performance required by buildings. Based on the qualitative and quantitative analysis of the fulfillment of the new law’s objectives, made by monitoring the three pillars, we propose measures to the full enactment of this Directive, by the development of the Royal Decree, provided in its Second Additional Provision, once maturity in the sectors of the building and insurance is achieved. Throughout this process of study we have seen that the skill identification of damage, particularly those affecting the stability of the building, is an essential tool for the proper allocation of responsibilities of the new regime installed by the art. 17 LOE, based on the application of the three degrees of responsibility "ex lege" for property damage and limitation periods. To support this proposal, we have analyzed: 1.- The evolution of the building sector in Europe and Spain during the years before and after the enactment of the Law, due to the influence of cycles of activity produced in industry regulation, the responsibilities attributed to agents, promotion of the quality and the assurances given to acquirers. 2.- The scope of various laws on liability and building agents warranties in the countries of our economic environment. 3.- The long period of LOE generation, focusing on the developments in recent drafts and parliamentary procedure. 4.- The doctrinal development in the Transition from the regime of responsibilities, set by art. 1591 of the Civil Code, and its Jurisprudence, to the new liability regime established by art. 17 LOE. In this task, while we have noted assimilation by the Judges and Magistrates of the doctrinal principles of the LOE, we have also analyzed the work of experts, whose skilled identification of the damage causes helps the fair and efficient allocation of responsibilities. 5 - The effectiveness of the LOE based on knowledge of the siniestral statistics, which are already consolidated data, after the cancellation of nearly 15,000 claims to Architects. 6.- We have also studied the degree of compliance with the user and owner guarantees, established in art. 19 and the D.A. 1th of the LOE, exposing the real effects achieved and the pending tasks ahead. Analyzing the allocation of the building agents´ responsibilities, within the first cornerstone of the LOE, we have studied the expert witnesses actions and their impact on this duty, selecting cases of great interest and difficulty in this aim. The result of this enterprise has been to propose the specialization of this group, avoiding "irregular" behaviors that create as much damage as the agents claimed to affected owners. This damage is evident and can cause wrong convictions, illicit enrichment, false expectations and inefficient and costly damage repairs. In order to achieve the pillar of building quality through the basic requirements set by the LOE and developed by the Technical Building Code (Royal Decree 314/ 2006 of 17 March), we have analyzed records of damage claims involving buildings executed under the new regime LOE. On this basis we have analyzed the root causes of various damages and their frequency, from these data it will be easy to propose lines of action for prevention. Finally, after demonstrating that mandatory warranties imposed by LOE cover only a small percentage of the potential building damage, we emphasize the need for the full effectiveness of the Law by the obligation all the guarantees provided in the art. 19 LOE, and for all types of buildings. In conclusion, this thesis is designed as an open matrix in which we will continue including data on the evolution of the doctrine, jurisprudence and the statistics of the damage to the building.
Resumo:
Se presenta en este trabajo una investigación sobre el comportamiento de losas de hormigón armado sometidas a explosiones y la simulación numérica de dicho fenómeno mediante el método de los elementos finitos. El trabajo aborda el estudio de la respuesta de dichos elementos estructurales por comparación entre los resultados obtenidos en ensayos reales a escala 1:1 y los cálculos realizados mediante modelos de ordenador. Este procedimiento permite verificar la idoneidad, o no, de estos últimos. Se expone en primer lugar el comportamiento mecánico de los modelos de material que son susceptibles de emplearse en la simulación de estructuras mediante el software empleado en la presente investigación, así como las diferentes formas de aplicar cargas explosivas en estructuras modeladas mediante el método de los Elementos Finitos, razonándose en ambos casos la elección llevada a cabo. Posteriormente, se describen los ensayos experimentales disponibles, que tuvieron lugar en las instalaciones del Laboratorio de Balística de Efectos, perteneciente al Instituto Tecnológico de la Marañosa (ITM), de Madrid, para estudiar el comportamiento de losas de hormigón armado a escala 1:1 sometidas a explosiones reales. Se ha propuesto un método de interpretación del nivel de daño en las losas mediante el martillo de Schmidt, que posteriormente permitirá comparar resultados con los modelos de ordenador realizados. Asimismo, se propone un método analítico para la determinación del tamaño óptimo de la malla en las simulaciones realizadas, basado en la distribución de la energía interna del sistema. Es conocido que el comportamiento de los modelos pueden verse fuertemente influenciados por el mallado empleado. Según el mallado sea “grosero” o “fino” el fallo puede no alcanzarse o hacerlo de forma prematura, o excesiva, respectivamente. Es más, algunos modelos de material contemplan una “regularización” del tamaño de la malla, pero en la presente investigación se evidencia que dicho procedimiento tiene un rango de validez limitado, incluso se determina un entorno óptimo de valores. Finalmente, se han elaborado los modelos numéricos con el software comercial LS-DYNA, contemplando todos los aspectos reseñados en los párrafos anteriores, procediendo a realizar una comparación de los resultados obtenidos en las simulaciones con los procedidos en los ensayos reales a escala 1:1, observando que existe una muy buena correlación entre ambas situaciones que evidencian que el procedimiento propuesto en la investigación es de todo punto adecuado para la simulación de losas de hormigón armado sometidas a explosiones. ABSTRACT This doctoral thesis presents an investigation on the behavior of reinforced concrete slabs subjected to explosions along with the numerical simulation of this phenomenon by the finite elements method. The work involves the study of the response of these structural elements by comparing the results of field tests at full scale and the calculations performed by the computer model. This procedure allows to verify the appropriateness or not of the latter. Firstly, the mechanical behavior of the material models that are likely to be used in the modelling of structures is explained. In addition, different ways of choosing explosive charges when conducting finite element methods are analyzed and discussed. Secondly, several experimental tests, which took place at the Laboratorio de Balística de Efectos at the Instituto Tecnológico de la Marañosa (ITM), in Madrid, are described in order to study the behavior of these reinforced concrete slabs. A method for the description of the slab damage level by the Schmidt hammer is proposed, which will make possible to compare the modelling results extracted from the computation experiments. Furthermore, an analytical method for determining the optimal mesh size to be used in the simulations is proposed. It is well known that the behavior of the models can be strongly influenced by the mesh size used. According to this, when modifiying the meshing density the damaged cannot be reached or do it prematurely, or excessive, respectively. Moreover, some material models include a regularization of the mesh size, but the present investigation evidenced that this procedure has a limited range of validity, even an optimal environment values are determined. The method proposed is based on the distribution of the internal energy of the system. Finally, several expecific numerical models have been performed by using LS-DYNA commercial software, considering all the aspects listed in the preceding paragraphs. Comparisons of the results extracted from the simulations and full scale experiments were carried out, noting that there exists a very good correlation between both of them. This fact demonstrates that the proposed research procedure is highly suitable for the modelling of reinforced concrete slabs subjected to blast loading.
Resumo:
La tesis se acerca a la cuestión del método en arquitectura focalizando su análisis principalmente en 5 obras concretas del panorama contemporáneo, tratando de desvelar las motivaciones últimas que las constituyen. El objeto y la obra arquitectónica se consideran así los elementos susceptibles de ofrecer el conocimiento material que permite desentrañar el modo y la metodología por el que éstos han sido concebidos. Con esta particular aproximación se desafían los tradicionales estudios que han comprendido al método como una sistemática universal o reglada, ya que en este caso el propósito consiste más bien en esclarecer los fundamentos y principios que subyacen a cada objeto arquitectónico más específico. Este hecho ha llevado al índice de la tesis a ordenarse según una lista de arquitectos y obras que no presentan otra particularidad que la de ser recientes y muy diferentes entre sí. Esta aparente arbitrariedad con la que las obras se eligen cobra sentido a lo largo del propio análisis y recorrido, ya que éste apuesta por recabar el suficiente contenido que diversifique y singularice cada elección, de tal modo que ya en sí, ésta obtenga rango paradigmático. El hecho de que la tesis evite los planteamientos totalitarios no quiere decir que trate de promover el relativismo de las diferentes opciones, dado que más bien pretende analizar hasta el fondo las cuestiones últimas y lo más valioso que cada opción representa. Por su parte, la conclusión de la tesis muestra una complementariedad al carácter específico de los capítulos previos, ya que ésta se atreve a avanzar con cierta voluntad conclusiva hacia la definición de los principios más sustanciales del método en arquitectura hoy. Y precisamente, una de las claves esenciales que ha mostrado la arquitectura del hoy que nos toca vivir consiste en la condición más específica de la obra arquitectónica misma por encima de cualquier connotación genérica o transcendente que ésta pueda sugerir. De tal modo que los arquitectos elegidos, por muy diferentes que aparentan ser, han tomado como punto de partida la condición objetual de la obra más allá de cualquier contenido ideal que a ésta pueda adscribírsele. En todos los casos, si bien de diferente manera, la obra arquitectónica en sí misma se ha constituido en una nueva clave en la que tratan de dirimirse las eternas dialécticas entre el objeto y su significado, entre la estructura conceptual y su connotación simbólica. De este modo, las dialécticas relativas a la unidad de la diversidad, la identidad de la multiplicidad, la síntesis que pretende la integración de lo complejo, o en su caso, la indispensable sostenibilidad de lo inconsistente, se han convertido en la temática principal de este análisis que ha comprendido al método a partir la misma paradoja por la que la arquitectura actual se ve afectada. La misma dialéctica imposible de resolver que ha conducido a la arquitectura más reciente a decantarse a favor de la consustancialidad intrínseca a la misma obra. La tesis por su parte también se ha focalizado en la obra y en el hecho arquitectónico puntual, siguiendo la tendencia de la misma arquitectura que se analizaba. Sin embargo, sus extensos análisis nos han llevado a desentrañar el sentido y la posición estratégica personal que se encuentra más allá de la exacerbación inmanente de la arquitectura de estos últimos años. Es decir, tal y como se ha insistido, el análisis de la obra nos ha llevado, a través de la pregunta por su método, al arquitecto que la ha proyectado. Y así se ha creado este triángulo trinitario, ‘Arquitecto, obra y método’, tratando de preguntarse hasta el final por la singularidad más específica del método de cada arquitecto, en el convencimiento de que método y obra se vinculan precisamente ahí, en las experiencias personales singulares que han posibilitado las mayores creaciones y más sustantivas novedades. ABSTRACT This thesis approaches the question of Method in architecture by focusing its analysis on 5 specific contemporary projects, trying to unveil their underlying constitutive motivations. Thus, architectonical object and work are considered the susceptible elements that provide the material knowledge that unravels the manner and the methodology by which they were conceived. With this particular approach, this thesis challenges other traditional studies, those that regard the Method in architecture as a regulated or universal systematic procedure. On the contrary, the purpose of this thesis is to clarify the foundations and principles that underlie each specific architectonical object. This has led to the ordering of the thesis index according to a list of architects and projects that do not present any other distinctiveness except that they are recent and very different to each other. However, this apparent arbitrariness of the choice of each architect becomes meaningful during its analytical development. This analysis attempts to seek out the content which diversifies each choice enough, and makes it singular enough, so that each selected candidate acquires paradigmatic range by itself. Therefore, the fact that the thesis avoids totalitarian approaches does not lead it to promote the relativism of different choices, but rather the thesis tries to thoroughly analyze the most valuable achievements of each option. Nonetheless, the conclusion of the thesis shows a position that complements the specific character of the previous chapters, since it dares to move forward conclusively towards the definition of the essential principles of the Method in architecture today. Indeed, the thesis shows one of the basic keys of today’s architecture, which is the specific condition of the architectural work itself above any generic or transcendental connotation. Thus, the selected architects, however different they appear to be, take the objectual condition of the work (thingness) as their starting point beyond any ideal content that might be ascribed to their architecture. Although differently, in each case the architectonical work itself has become the new indispensable key to deal with the eternal dialectics between the object and its meaning, between conceptual structure and its symbolic connotation. Thus, the dialectics between unity and diversity, the identity of multiplicity, the synthesis that aims at the integration of complexity, or even, the indispensable consistency of the unavoidable inconsistency, have all become the main themes of this analysis, an analysis that understands the issue of Method from the same paradoxical situation of today’s architecture. This is the same paradox which has led the latest architecture to align itself with the intrinsic consubstantiality of the architectonical work itself. Therefore, the thesis is also focused on the Work, on the specific architectonical fact, following the course of the same architecture that it analyses. However, extensive analyses of the thesis have led us to clarify the sense and personal strategic position that is beyond the immanent exacerbation of architecture in recent years. Therefore, as stressed throughout the text, the analysis, that has explored the Method of architectonical Work, has led us to the architect who conceived it. Thus, this trinitarian triangle, ‘Architect, Work and Method’, has been created, attempting to explore in depth the specific uniqueness of each architect’s method, convinced that Method and Work do actually connect in the singular experiences that have achieved the greatest and most substantial creations.
Resumo:
La presente tesis es un estudio analítico y numérico del electrospray. En la configuración más sencilla, un caudal constante del líquido a atomizar, que debe tener una cierta conductividad eléctrica, se inyecta en un medio dieléctrico (un gas u otro líquido inmiscible con el primero) a través de un tubo capilar metálico. Entre este tubo y un electrodo lejano se aplica un voltaje continuo que origina un campo eléctrico en el líquido conductor y en el espacio que lo rodea. El campo eléctrico induce una corriente eléctrica en el líquido, que acumula carga en su superficie, y da lugar a un esfuerzo eléctrico sobre la superficie, que tiende a alargarla en la dirección del campo eléctrico. El líquido forma un menisco en el extremo del tubo capilar cuando el campo eléctrico es suficientemente intenso y el caudal suficientemente pequeño. Las variaciones de presión y los esfuerzos viscosos asociados al movimiento del líquido son despreciables en la mayor parte de este menisco, siendo dominantes los esfuerzos eléctrico y de tensión superficial que actúan sobre la superficie del líquido. En el modo de funcionamiento llamado de conochorro, el balance de estos esfuerzos hace que el menisco adopte una forma cónica (el cono de Taylor) en una región intermedia entre el extremo del tubo y la punta del menisco. La velocidad del líquido aumenta al acercarse al vértice del cono, lo cual propicia que las variaciones de la presión en el líquido generadas por la inercia o por la viscosidad entren en juego, desequilibrando el balance de esfuerzos mencionado antes. Como consecuencia, del vértice del cono sale un delgado chorro de líquido, que transporta la carga eléctrica que se acumula en la superficie. La acción del campo eléctrico tangente a la superficie sobre esta carga origina una tracción eléctrica que tiende a alargar el chorro. Esta tracción no es relevante en el menisco, donde el campo eléctrico tangente a la superficie es muy pequeño, pero se hace importante en el chorro, donde es la causa del movimiento del líquido. Lejos del cono, el chorro puede o bien desarrollar una inestabilidad asimétrica que lo transforma en una espiral (whipping) o bien romperse en un spray de gotas prácticamente monodispersas cargadas eléctricamente. La corriente eléctrica transportada por el líquido es la suma de la corriente de conducción en el interior del líquido y la corriente debida a la convección de la carga acumulada en su superficie. La primera domina en el menisco y la segunda en el chorro lejano, mientras que las dos son comparables en una región intermedia de transferencia de corriente situada al comienzo del chorro aunque aguas abajo de la región de transición cono-chorro, en la que el menisco deja de ser un cono de Taylor. Para un campo exterior dado, la acumulación de carga eléctrica en la superficie del líquido reduce el campo eléctrico en el interior del mismo, que llega a anularse cuando la carga alcanza un estado final de equilibrio. El tiempo característico de este proceso es el tiempo de relajación dieléctrica, que es una propiedad del líquido. Cuando el tiempo de residencia del líquido en la región de transición cono-chorro (o en otra región del campo fluido) es grande frente al tiempo de relajación dieléctrica, la carga superficial sigue una sucesión de estados de equilibrio y apantalla al líquido del campo exterior. Cuando esta condición deja de cumplirse, aparecen efectos de relajación de carga, que se traducen en que el campo exterior penetra en el líquido, a no ser que su constante dieléctrica sea muy alta, en cuyo caso el campo inducido por la carga de polarización evita la entrada del campo exterior en el menisco y en una cierta región del chorro. La carga eléctrica en equilibrio en la superficie de un menisco cónico intensifica el campo eléctrico y determina su variación espacial hasta distancias aguas abajo del menisco del orden de su tamaño. Este campo, calculado por Taylor, es independiente del voltaje aplicado, por lo que las condiciones locales del flujo y el valor de la corriente eléctrica son también independientes del voltaje en tanto los tamaños de las regiones que determinan estas propiedades sean pequeños frente al tamaño del menisco. Los resultados experimentales publicados en la literatura muestran que existe un caudal mínimo para el que el modo cono-chorro que acabamos de describir deja de existir. El valor medio y la desviación típica de la distribución de tamaños de las gotas generadas por un electrospray son mínimos cuando se opera cerca del caudal mínimo. A pesar de que los mecanismos responsables del caudal mínimo han sido muy estudiados, no hay aún una teoría completa del mismo, si bien su existencia parece estar ligada a la aparición de efectos de relajación de carga en la región de transición cono-chorro. En esta tesis, se presentan estimaciones de orden de magnitud, algunas existentes y otras nuevas, que muestran los balances dominantes responsables de las distintas regiones de la estructura asintótica de la solución en varios casos de interés. Cuando la inercia del líquido juega un papel en la transición cono-chorro, los resultados muestran que la región de transferencia de corriente, donde la mayor parte de la corriente pasa a la superficie, está en el chorro aguas abajo de la región de transición cono-chorro. Los efectos de relajación de carga aparecen de forma simultánea en el chorro y la región de transición cuando el caudal se disminuye hasta valores de un cierto orden. Para caudales aún menores, los efectos de relajación de carga se notan en el menisco, en una región grande comparada con la de transición cono-chorro. Cuando el efecto de las fuerzas de viscosidad es dominante en la región de transición, la región de transferencia de corriente está en el chorro pero muy próxima a la región de transición cono-chorro. Al ir disminuyendo el caudal, los efectos de relajación de carga aparecen progresivamente en el chorro, en la región de transición y por último en el menisco. Cuando el caudal es mucho mayor que el mínimo del modo cono-chorro, el menisco deja de ser cónico. El campo eléctrico debido al voltaje aplicado domina en la región de transferencia de corriente, y tanto la corriente eléctrica como el tamaño de las diferentes regiones del problema pasan a depender del voltaje aplicado. Como resultado de esta dependencia, el plano caudal-voltaje se divide en diferentes regiones que se analizan separadamente. Para caudales suficientemente grandes, la inercia del líquido termina dominando frente a las fuerzas de la viscosidad. Estos resultados teóricos se han validado con simulaciones numéricas. Para ello se ha formulado un modelo simplificado del flujo, el campo eléctrico y el transporte de carga en el menisco y el chorro del electrospray. El movimiento del líquido se supone casi unidireccional y se describe usando la aproximación de Cosserat para un chorro esbelto. Esta aproximación, ampliamente usada en la literatura, permite simular con relativa facilidad múltiples casos y cubrir amplios rangos de valores de los parámetros reteniendo los efectos de la viscosidad y la inercia del líquido. Los campos eléctricos dentro y fuera del liquido están acoplados y se calculan sin simplificación alguna usando un método de elementos de contorno. La solución estacionaria del problema se calcula mediante un método iterativo. Para explorar el espacio de los parámetros, se comienza calculando una solución para valores fijos de las propiedades del líquido, el voltaje aplicado y el caudal. A continuación, se usa un método de continuación que permite delinear la frontera del dominio de existencia del modo cono-chorro, donde el método iterativo deja de converger. Cuando el efecto de la inercia del líquido domina en la región de transición cono-chorro, el caudal mínimo para el cual el método iterativo deja de converger es del orden del valor estimado del caudal para el que comienza a haber efectos de relajación de carga en el chorro y el cono. Aunque las simulaciones no convergen por debajo de dicho caudal, el valor de la corriente eléctrica para valores del caudal ligeramente mayores parece ajustarse a las estimaciones para caudales menores, reflejando un posible cambio en los balances aplicables. Por el contrario, cuando las fuerzas viscosas dominan en la región de transición, se pueden obtener soluciones estacionarias para caudales bastante menores que aquel para el que aparecen efectos de relajación de carga en la región de transición cono-chorro. Los resultados numéricos obtenidos para estos pequeños caudales se ajustan perfectamente a las estimaciones de orden de magnitud que se describen en la memoria. Por último, se incluyen como anexos dos estudios teóricos que han surgido de forma natural durante el desarrollo de la tesis. El primero hace referencia a la singularidad en el campo eléctrico que aparece en la línea de contacto entre el líquido y el tubo capilar en la mayoría de las simulaciones. Primero se estudia en qué situaciones el campo eléctrico tiende a infinito en la línea de contacto. Después, se comprueba que dicha singularidad no supone un fallo en la descripción del problema y que además no afecta a la solución lejos de la línea de contacto. También se analiza si los esfuerzos eléctricos infinitamente grandes a los que da lugar dicha singularidad pueden ser compensados por el resto de esfuerzos que actúan en la superficie del líquido. El segundo estudio busca determinar el tamaño de la región de apantallamiento en un chorro de líquido dieléctrico sin carga superficial. En esta región, el campo exterior es compensado parcialmente por el campo que induce la carga de polarización en la superficie del líquido, de forma que en el interior del líquido el campo eléctrico es mucho menor que en el exterior. Una región como ésta aparece en las estimaciones cuando los efectos de relajación de carga son importantes en la región de transferencia de corriente en el chorro. ABSTRACT This aim of this dissertation is a theoretical and numerical analysis of an electrospray. In its most simple configuration, a constant flow rate of the liquid to be atomized, which has to be an electrical conductor, is injected into a dielectric medium (a gas or another inmiscible fluid) through a metallic capillary tube. A constant voltage is applied between this tube and a distant electrode that produces an electric field in the liquid and the surrounding medium. This electric field induces an electric current in the liquid that accumulates charge at its surface and leads to electric stresses that stretch the surface in the direction of the electric field. A meniscus appears on the end of the capillary tube when the electric field is sufficiently high and the flow rate is small. Pressure variations and viscous stresses due to the motion of the liquid are negligible in most of the meniscus, where normal electric and surface tension stresses acting on the surface are dominant. In the so-called cone-jet mode, the balance of these stresses forces the surface to adopt a conical shape -Taylor cone- in a intermediate region between the end of the tube and the tip of the meniscus. When approaching the cone apex, the velocity of the liquid increases and leads to pressure variations that eventually disturb the balance of surfaces tension and electric stresses. A thin jet emerges then from the tip of the meniscus that transports the charge accumulated at its surface. The electric field tangent to the surface of the jet acts on this charge and continuously stretches the jet. This electric force is negligible in the meniscus, where the component of the electric field tangent to the surface is small, but becomes very important in the jet. Far from the cone, the jet can either develop an asymmetrical instability named “whipping”, whereby the jet winds into a spiral, or break into a spray of small, nearly monodisperse, charged droplets. The electric current transported by the liquid has two components, the conduction current in the bulk of the liquid and the convection current due to the transport of the surface charge by the flow. The first component dominates in the meniscus, the second one in the far jet, and both are comparable in a current transfer region located in the jet downstream of the cone-jet transition region where the meniscus ceases to be a Taylor cone. Given an external electric field, the charge that accumulates at the surface of the liquid reduces the electric field inside the liquid, until an equilibrium is reached in which the electric field induced by the surface charge counters the external electric field and shields the liquid from this field. The characteristic time of this process is the electric relaxation time, which is a property of the liquid. When the residence time of the liquid in the cone-jet transition region (or in other region of the flow) is greater than the electric relaxation time, the surface charge follows a succession of equilibrium states and continuously shield the liquid from the external field. When this condition is not satisfied, charge relaxation effects appear and the external field penetrates into the liquid unless the liquid permittivity is large. For very polar liquids, the field due to the polarization charge at the surface prevents the external field from entering the liquid in the cone and in certain region of the jet. The charge at the surface of a conical meniscus intensifies the electric field around the cone, determining its spatial variation up to distances downstream of the apex of the order of the size of the meniscus. This electric field, first computed by Taylor, is independent of the applied voltage. Therefore local flow characteristics and the electric current carried by the jet are also independent of the applied voltage provided the size of the regions that determine these magnitudes are small compared with the size of the meniscus. Many experiments in the literature show the existence of a minimum flow rate below which the cone-jet mode cannot be established. The mean value and the standard deviation of the electrospray droplet size distribution are minimum when the device is operated near the minimum flow rate. There is no complete explanation of the minimum flow rate, even though possible mechanisms have been extensively studied. The existence of a minimum flow rate seems to be connected with the appearance of charge relaxation effects in the transition region. In this dissertation, order of magnitude estimations are worked out that show the dominant balances in the different regions of the asymptotic structure of the solution for different conditions of interest. When the inertia of the liquid plays a role in the cone-jet transition region, the region where most of the electric current is transfered to the surface lies in the jet downstream the cone-jet transition region. When the flow rate decreases to a certain value, charge relaxation effects appear simultaneously in the jet and in the transition region. For smaller values of the flow rate, charge relaxation effects are important in a region of the meniscus larger than the transition region. When viscous forces dominate in the flow in the cone-jet transition region, the current transfer region is located in the jet immediately after the transition region. When flow rate is decreased, charge relaxation effects appears gradually, first in the jet, then in the transition region, and finally in the meniscus. When flow rate is much larger than the cone-jet mode minimum, the meniscus ceases to be a cone. The electric current and the structure of the solution begin to depend on the applied voltage. The flow rate-voltage plane splits into different regions that are analyzed separately. For sufficiently large flow rates, the effect of the inertia of the liquid always becomes greater than the effect of the viscous forces. A set of numerical simulations have been carried out in order to validate the theoretical results. A simplified model of the problem has been devised to compute the flow, the electric field and the surface charge in the meniscus and the jet of an electrospray. The motion of the liquid is assumed to be quasi-unidirectional and described by Cosserat’s approximation for a slender jet. This widely used approximation allows to easily compute multiple configurations and to explore wide ranges of values of the governing parameters, retaining the effects of the viscosity and the inertia of the liquid. Electric fields inside and outside the liquid are coupled and are computed without any simplification using a boundary elements method. The stationary solution of the problem is obtained by means of an iterative method. To explore the parameter space, a solution is first computed for a set of values of the liquid properties, the flow rate and the applied voltage, an then a continuation method is used to find the boundaries of the cone-jet mode domain of existence, where the iterative method ceases to converge. When the inertia of the liquid dominates in the cone-jet transition region, the iterative method ceases to converge for values of the flow rate for which order-of-magnitude estimates first predict charge relaxation effects to be important in the cone and the jet. The electric current computed for values of the flow rate slightly above the minimum for which convergence is obtained seems to agree with estimates worked out for lower flow rates. When viscous forces dominate in the transition region, stationary solutions can be obtained for flow rates significantly smaller than the one for which charge relaxation effects first appear in the transition region. Numerical results obtained for those small values of the flow rate agree with our order of magnitude estimates. Theoretical analyses of two issues that have arisen naturally during the thesis are summarized in two appendices. The first appendix contains a study of the singularity of the electric field that most of the simulations show at the contact line between the liquid and the capillary tube. The electric field near the contact line is analyzed to determine the ranges of geometrical configurations and liquid permittivity where a singularity appears. Further estimates show that this singularity does not entail a failure in the description of the problem and does not affect the solution far from the contact line. The infinite electric stresses that appear at the contact line can be effectively balanced by surface tension. The second appendix contains an analysis of the size and slenderness of the shielded region of a dielectric liquid in the absence of free surface charge. In this region, the external electric field is partially offset by the polarization charge so that the inner electric field is much lower than the outer one. A similar region appears in the estimates when charge relaxation effects are important in the current transfer region.
Resumo:
El presente trabajo busca llenar un vacío existente en cuanto a una metodología general en los estudios Arqueoacústicos para la zona Mesoamericana. El resultado mas importante de ésta tesis es la propuesta de un procedimiento y método para los cuales se detalla el conjunto de operaciones utilizadas en las mediciones particulares involucradas, parámetros y análisis relevantes (de los cuales destacan el decaimiento de energía, tiempos de reverberación, intensidades de sonido directo y total, claridad e inteligibilidad), tipos de simulaciones e incertidumbres y actividades técnicas propias de la Ingeniería Acústica que se proponen para la efectiva y útil integración de la dimensión sonora en el quehacer arqueológico. Una importante consideración de la propuesta metodológica aquí presentada, es la consideración, por un lado, de los resultados obtenidos experimentalmente del trabajo in situ en cada uno de los sitios arqueológicos de interés, y por otro los resultados obtenidos de las simulaciones y modelaciones por computadora de los mismos para su comparación y contraste. La propuesta de sistematización está dividida en tres momentos investigativos, como son la coordinación y trabajo logístico en sitios arqueológicos, su reconocimiento y prospección acústica; el trabajo de campo; y el análisis de los resultados obtenidos. Asimismo, dicha propuesta metodológica, se presenta dividida en tres objetos de estudio fundamentales en el quehacer arqueoacústico: los Fenómenos Sonoros encontrados en sitios arqueológicos; los objetos de generación de sonido, tengan éstos aplicaciones musicales o de otra índole; y finalmente los espacios y recintos arquitectónicos, ya sean cerrados o abiertos, y el estudio de su funcionalidad. El acercamiento a la descripción de cada una de dichas ramas, se realiza mediante la presentación de casos de estudio, para los que se contrastan dos áreas culturales representativas e interrelacionadas de Mesoamérica, la zona del Bajío y la zona Maya. Dicho contraste es llevado a cabo mediante el análisis acústico de 4 zonas arqueológicas que son Plazuelas, Peralta y Cañada de la Virgen, pertenecientes a la zona del Bajio, y Chichen Itzá perteneciente a la zona Maya. De particular importancia para el presente trabajo, es la funcionalidad de los espacios estudiados, específicamente de la de los patios hundidos, característicos de la arquitectura del Bajío, y las plazas públicas que constituyen una estructura integral en muchos sitios arqueológicos, centrales para la comprensión de las conexiones entre el fenómeno sonoro y el comportamiento de una cultura en particular. Asimismo, el análisis de los instrumentos de generación sonora ha permitido realizar inferencias sobre papel del sonido en el comportamiento humano de las culturas en cuestión, completando los modelos acústicos y posibilitando el situar las características de las fuentes sonoras en los espacios resonantes. Los resultados particulares de ésta tesis, han permitido establecer las características acústicas de dichos espacios e instrumentos, así como formular y validar las hipótesis sobre su usos y funciones como espacios para eventos públicos y sociales, así como para representaciones culturales multitudinarios. ABSTRACT The present work, aims to fill a void existing in terms of a general methodology in Archaeoacoustic studies for the Mesoamerican region. The most important result of this thesis is the proposal of a procedure and method for archaeoacoustical studies and its relevant analysis and parameters (of which stand out the energy decay, reverberation times, intensities, clarity and intelligibility), simulations and uncertainty considerations for the effective and useful integration of the sound dimension in the archaeological realm. An important methodological consideration in the present work is the comparison and contrast of the results obtained experimentally on site, and the results of simulations and computer modeling. The proposed systematization is divided into three distinct moments: logistics; fieldwork; and result analysis. Likewise, the presented methodological proposal is divided into three fundamental objects of study: Sound phenomena found in archaeological sites; sound generation objects and instruments; and architectural enclosures and the study of their functionality. Presenting case studies is the approach to the description of each of these branches. Two interrelated Mesoamerican cultural areas are considered, the Bajío and the Mayan. Their contrast is carried out by the acoustic analysis of four archaeological sites: Plazuelas, Peralta and Cañada de la Virgen, belonging to the area of the Bajío, and Chichen Itza belonging to the Maya area. Of particular relevance to this paper, is the acoustic functionality of the public spaces present in many archaeological sites, specifically that of the sunken patios, characteristic of the architecture of the Bajío. The analysis of the sound generation instruments has allowed certain inferences about the role of sound in human behavior of the cultures in question, thus completing the acoustic models. It has also enable the contrast of the characteristics of the sound sources and those of the resonant spaces. The results of this thesis have made it possible to develop and validate certain hypotheses about the uses and functions of certain spaces for public and social events as well as for mass cultural representations.
Resumo:
habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.
Resumo:
En este trabajo doctoral se evaluó la bioaccesibilidad in vitro para As, Co, Cr, Cu, Ni, Pb y Zn (en la fracción menor de 100μm) por tres procedimientos distintos en 32 muestras de suelo superficial, recogidas en 16 parques infantiles de la ciudad de Madrid.. Dos de los métodos de extracción (SBET y extracción con HCl a pH=1.5) reproducen únicamente la fase gástrica, mientras que otro (RIVM) tiene en cuenta un proceso completo de digestión (gástrico+intestinal). La bioaccesibilidad (%) se definió frente a las concentraciones pseudototales de los elementos traza estudiados (agua regia), utilizando un modelo de regresión lineal pasando por el origen. Los dos métodos gástricos ofrecieron resultados similares y consistentes con datos de otros estudios, siendo el orden de bioaccesibilidad As ≈ Cu ≈ Pb ≈ Zn > Co > Ni > Cr, con rangos entre el 63 y el 7%. Para el procedimiento RIVM (gástrico + intestinal) se obtuvieron valores de un orden similar a los obtenidos en fase gástrica para los elementos As, Cu, Pb y Zn (muy similares para el Zn, algo superiores para Cu y Pb, y algo inferiores para As). Por el contrario, la bioaccesibilidad de Co y Cu es, en este caso, muy superior a la resultante de los ensayos en fase gástrica. El orden de bioaccesibilidad es Co ≈ Cu ≈ Pb > As ≈ Cr ≈ Zn, con rangos entre el 42 y el 69%. Los resultados de los tres procedimientos evaluados correlacionan muy intensamente para los elementos traza As, Cu, Pb y Zn, existiendo intensas correlaciones entre casi todos los elementos estudiados para las dos fases gástricas, no siendo así en el ensayo de digestión completa. Se estudiaron algunas propiedades físico-químicas de los suelos muestreados, así como su composición en algunos elementos mayoritarios con el objeto de evaluar su influencia sobre la bioaccesibilidad. Se observa una dependencia de la bioaccesibilidad (%) de distintos elementos respecto a algunas propiedades de los suelos estudiados, tales como: contenido en Fe, Ca (carbonatos) y P, materia orgánica y pH. El contenido en Fe resulta ser muy relevante en cuanto a la bioaccesibilidad obtenida. En todos los casos correlaciona negativamente con el porcentaje de bioaccesibilidad siendo más significativo este fenómeno en el caso de las extracciones en fase gástrica. Se sugiere que dada la baja solubilización de los óxidos de hierro en los medios extractantes empleados hay una fuerte adsorción de complejos aniónicos (metal-anión cloruro) sobre la superficie de estos óxidos de Fe, con la consiguientes disminución de la bioaccesibilidad. En cuanto al contenido en calcio (carbonatos) este dato parece muy relevante si nos referimos a la bioaccesibilidad del As. Efectivamente el As aparece ligado al Ca del suelo y su solubilización en medios ácidos implicaría un aumento de la bioaccesibilidad del As, mientras que su precipitación al pasar a pH básico (fase intestinal) provocaría una disminución de la bioaccesibilidad. La materia orgánica sólo se ha demostrado relevante respecto a los contenidos pseudototales para el Zn. Para el porcentaje de bioaccesibilidad es significativo para muchos elementos en los ensayos en fase gástrica. La influencia del pH de los suelos estudiados sólo parece ser muy significativo en el caso del Cr. Los valores altamente homogéneos del pH de los suelos estudiados sin duda hacen que este parámetro no resulte significativo para más elementos, tal como se desprende de estudios anteriores. ABSTRACT A total of 32 samples of superficial soil were collected from 16 playground areas in Madrid. The in vitro bioaccessibility of As, Co, Cr, Ni, Pb and Zn (fraction below 100μm) was evaluated by means of three extraction processes. Two of them (SBET and HCl-extraction, pH=1.5) simulate the gastric enviroment, while the other one (RIVM) reproduces a gastric+intestinal digestion sequence. Bioaccessibility (%) was compared against pseudo-total concentrations of trace elements studied (aqua regia) with a linear regression model (forced to intercept the origin) Both gastric methods offered very similar and consistent results with data from other studies, with bioaccessibilities following the order: As ≈ Cu ≈ Pb ≈ Zn > Co > Ni > Cr, and ranging from 63% to 7% The values obtained through RIVM (gastric+ intestinal) method are similar to those obtained in gastric environment for elements: As, Cu, Pb and Zn (very similar to Zn, to a higher extent Cu and Pb, and to a lower extent As). On the contrary the bioaccessibility obtained for elements Co and Cu is considerable higher than in gastric environment sequence. Bioaccessibilities follows the order Co ≈ Cu ≈ Pb >As ≈ Cr ≈ Zn, ranging between 42 and 69%. The three procedures used correlate very intensively to trace elements As,Cu, Pb and Zn, existing strong correlations between almost all elements studied for the two gastric environment, not in the case of the complete digestion sequence. Some soil physical – chemical properties selected were studied, as well as their composition in some main elements in order to assess their influence on bioaccessibility. A dependence was observed between different elements bioaccesibility (%) and some soil properties, such as: Fe, Ca (carbonate) content and P, organic matter and pH. Fe content becomes very relevant regarding the bioaccessibility obtained. In all cases it correlated negatively with bioaccessibility percentage being more significant this phenomenon in gastric environment extractions. It is suggested that given the low solubility of iron oxide in the extractant media used there has to be a strong adsorption of anionic complexes (metal – chloride anion) on these Fe oxides surface, with a consequent decrease of bioaccessibility. Regarding calcium (carbonate) content this data seems very relevant referred to As bioaccessibility. Indeed, As appears to be bound to soil Ca and its solubilisation in acid media would increase As bioaccessibility, while its precipitation at basic pH (intestinal environment) would cause a reduction in bioaccessibility. The influence of organic matter only seemed significant for Zn “total” content, while it is significant in terms of gastric bioaccessibility for many elements. Soil pH only seems to be very significant in case of Cr. The highly homogeneous values for soil pH makes the influence of this parameter negligible for the other elements, unlike what has been observed in several previous studies.
Resumo:
Para el proyecto y cálculo de estructuras metálicas, fundamentalmente pórticos y celosías de cubierta, la herramienta más comúnmente utilizada son los programas informáticos de nudos y barras. En estos programas se define la geometría y sección de las barras, cuyas características mecánicas son perfectamente conocidas, y sobre las cuales obtenemos unos resultados de cálculo concretos en cuanto a estados tensionales y de deformación. Sin embargo el otro componente del modelo, los nudos, presenta mucha mayor complejidad a la hora de establecer sus propiedades mecánicas, fundamentalmente su rigidez al giro, así como de obtener unos resultados de estados tensionales y de deformación en los mismos. Esta “ignorancia” sobre el comportamiento real de los nudos, se salva generalmente asimilando a los nudos del modelo la condición de rígidos o articulados. Si bien los programas de cálculo ofrecen la posibilidad de introducir nudos con una rigidez intermedia (nudos semirrígidos), la rigidez de cada nudo dependerá de la geometría real de la unión, lo cual, dada la gran variedad de geometrías de uniones que en cualquier proyecto se nos presentan, hace prácticamente inviable introducir los coeficientes correspondientes a cada nudo en los modelos de nudos y barras. Tanto el Eurocódigo como el CTE, establecen que cada unión tendrá asociada una curva momento-rotación característica, que deberá ser determinada por los proyectistas mediante herramientas de cálculo o procedimientos experimentales. No obstante, este es un planteamiento difícil de llevar a cabo para cada proyecto. La consecuencia de esto es, que en la práctica, se realizan extensas comprobaciones y justificaciones de cálculo para las barras de las estructuras, dejando en manos de la práctica común la solución y puesta en obra de las uniones, quedando sin justificar ni comprobar la seguridad y el comportamiento real de estas. Otro aspecto que conlleva la falta de caracterización de las uniones, es que desconocemos como afecta el comportamiento real de éstas en los estados tensionales y de deformación de las barras que acometen a ellas, dudas que con frecuencia nos asaltan, no sólo en la fase de proyecto, sino también a la hora de resolver los problemas de ejecución que inevitablemente se nos presentan en el desarrollo de las obras. El cálculo mediante el método de los elementos finitos, es una herramienta que nos permite introducir la geometría real de perfiles y uniones, y nos permite por tanto abordar el comportamiento real de las uniones, y que está condicionado por su geometría. Por ejemplo, un caso típico es el de la unión de una viga a una placa o a un soporte soldando sólo el alma. Es habitual asimilar esta unión a una articulación. Sin embargo, el modelo por elementos finitos nos ofrece su comportamiento real, que es intermedio entre articulado y empotrado, ya que se transmite un momento y el giro es menor que el del apoyo simple. No obstante, la aplicación del modelo de elementos finitos, introduciendo la geometría de todos los elementos estructurales de un entramado metálico, tampoco resulta en general viable desde un punto de vista práctico, dado que requiere invertir mucho tiempo en comparación con el aumento de precisión que obtenemos respecto a los programas de nudos y barras, mucho más rápidos en la fase de modelización de la estructura. En esta tesis se ha abordado, mediante la modelización por elementos finitos, la resolución de una serie de casos tipo representativos de las uniones más comúnmente ejecutadas en obras de edificación, como son las uniones viga-pilar, estableciendo el comportamiento de estas uniones en función de las variables que comúnmente se presentan, y que son: •Ejecución de uniones viga-pilar soldando solo por el alma (unión por el alma), o bien soldando la viga al pilar por todo su perímetro (unión total). •Disposición o no de rigidizadores en los pilares •Uso de pilares de sección 2UPN en cajón o de tipo HEB, que son los tipos de soporte utilizados en casi el 100% de los casos en edificación. Para establecer la influencia de estas variables en el comportamiento de las uniones, y su repercusión en las vigas, se ha realizado un análisis comparativo entre las variables de resultado de los casos estudiados:•Estados tensionales en vigas y uniones. •Momentos en extremo de vigas •Giros totales y relativos en nudos. •Flechas. Otro de los aspectos que nos permite analizar la casuística planteada, es la valoración, desde un punto de vista de costos de ejecución, de la realización de uniones por todo el perímetro frente a las uniones por el alma, o de la disposición o no de rigidizadores en las uniones por todo el perímetro. Los resultados a este respecto, son estrictamente desde un punto de vista económico, sin perjuicio de que la seguridad o las preferencias de los proyectistas aconsejen una solución determinada. Finalmente, un tercer aspecto que nos ha permitido abordar el estudio planteado, es la comparación de resultados que se obtienen por el método de los elementos finitos, más próximos a la realidad, ya que se tiene en cuenta los giros relativos en las uniones, frente a los resultados obtenidos con programas de nudos y barras. De esta forma, podemos seguir usando el modelo de nudos y barras, más versátil y rápido, pero conociendo cuáles son sus limitaciones, y en qué aspectos y en qué medida, debemos ponderar sus resultados. En el último apartado de la tesis se apuntan una serie de temas sobre los que sería interesante profundizar en posteriores estudios, mediante modelos de elementos finitos, con el objeto de conocer mejor el comportamiento de las uniones estructurales metálicas, en aspectos que no se pueden abordar con los programas de nudos y barras. For the project and calculation of steel structures, mainly building frames and cover lattices, the tool more commonly used are the node and bars model computer programs. In these programs we define the geometry and section of the bars, whose mechanical characteristics are perfectly known, and from which we obtain the all calculation results of stresses and displacements. Nevertheless, the other component of the model, the nodes, are much more difficulty for establishing their mechanical properties, mainly the rotation fixity coefficients, as well as the stresses and displacements. This "ignorance" about the real performance of the nodes, is commonly saved by assimilating to them the condition of fixed or articulated. Though the calculation programs offer the possibility to introducing nodes with an intermediate fixity (half-fixed nodes), the fixity of every node will depend on the real connection’s geometry, which, given the great variety of connections geometries that in a project exist, makes practically unviable to introduce the coefficients corresponding to every node in the models of nodes and bars. Both Eurocode and the CTE, establish that every connection will have a typical moment-rotation associated curve, which will have to be determined for the designers by calculation tools or experimental procedures. Nevertheless, this one is an exposition difficult to carry out for each project. The consequence of this, is that in the practice, in projects are extensive checking and calculation reports about the bars of the structures, trusting in hands of the common practice the solution and execution of the connections, resulting without justification and verification their safety and their real behaviour. Another aspect that carries the lack of the connections characterization, is that we don´t know how affects the connections real behaviour in the stresses and displacements of the bars that attack them, doubts that often assault us, not only in the project phase, but also at the moment of solving the execution problems that inevitably happen in the development of the construction works. The calculation by finite element model is a tool that allows us to introduce the real profiles and connections geometry, and allows us to know about the real behaviour of the connections, which is determined by their geometry. Typical example is a beam-plate or beam-support connection welding only by the web. It is usual to assimilate this connection to an articulation or simple support. Nevertheless, the finite element model determines its real performance, which is between articulated and fixed, since a moment is transmitted and the relative rotation is less than the articulation’s rotation. Nevertheless, the application of the finite element model, introducing the geometry of all the structural elements of a metallic structure, does not also turn out to be viable from a practical point of view, provided that it needs to invest a lot of time in comparison with the precision increase that we obtain opposite the node and bars programs, which are much more faster in the structure modelling phase. In this thesis it has been approached, by finite element modelling, the resolution of a representative type cases of the connections commonly used in works of building, since are the beam-support connections, establishing the performance of these connections depending on the variables that commonly are present, which are: •Execution of beam-support connections welding only the web, or welding the beam to the support for the whole perimeter. •Disposition of stiffeners in the supports •Use 2UPN in box section or HEB section, which are the support types used in almost 100% building cases. To establish the influence of these variables in the connections performance, and the repercussion in the beams, a comparative analyse has been made with the resulting variables of the studied cases: •Stresses states in beams and connections. •Bending moments in beam ends. •Total and relative rotations in nodes. •Deflections in beams. Another aspect that the study allows us to analyze, is the valuation, from a costs point of view, of the execution of connections for the whole perimeter opposite to the web connections, or the execution of stiffeners. The results of this analyse, are strictly from an economic point of view, without prejudice that the safety or the preferences of the designers advise a certain solution. Finally, the third aspect that the study has allowed us to approach, is the comparison of the results that are obtained by the finite element model, nearer to the real behaviour, since the relative rotations in the connections are known, opposite to the results obtained with nodes and bars programs. So that, we can use the nodes and bars models, more versatile and quick, but knowing which are its limitations, and in which aspects and measures, we must weight the results. In the last part of the tesis, are relationated some of the topics on which it would be interesting to approach in later studies, with finite elements models, in order to know better the behaviour of the structural steel connections, in aspects that cannot be approached by the nodes and bars programs.
Resumo:
El presente proyecto se ha realizado durante las prácticas curriculares que han tenido lugar en el Instituto Universitario de Microgravedad “Ignacio Da Riva” (IDR/UPM). A lo largo de estas prácticas se han llevado a cabo trabajos en diversos campos, todos relacionados con el UPMSat-2, desde el subsistema de potencia (placas solares y baterías) hasta el desarrollo de módulos para la Sala de Diseño Concurrente (Concurrent Design Facility, CDF). En la realización de las mismas se ha trabajado en equipo, junto con otros dos alumnos. El objetivo del proyecto es recopilar las tareas realizadas, proporcionando el desarrollo teórico necesario para llevar a cabo todas ellas. Al ser un trabajo con varias partes claramente diferenciadas, se ha optado por comenzar con unas páginas dedicadas a las misiones espaciales. A continuación el trabajo se adentra en el subsistema de potencia de un satélite, particularizando para el UPMSat-2. Finalmente, se proporciona la teoría necesaria para el desarrollo del módulo de misión de la CDF del IDR/UPM, software que se ha desarrollado y tiene reservado un espacio al final, en el cual se describe el programa y se realizan comparaciones de los resultados que proporciona frente a casos reales.