13 resultados para ejecución forzada de las obligaciones

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo analiza el desarrollo de las obligaciones y responsabilidades profesionales derivadas de las determinaciones del Código Técnico de la Edificación para el proyectista, el director de obra y el director de ejecución de obra

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En pocos años, la discapacidad de origen cognitivo será uno de los principales problemas de salud. El déficit cognitivo influye en la ejecución de todas las actividades de la vida diaria. Pacientes con una afección de este tipo ven alterados su entorno social y familiar. Por todo ello, se hace imprescindible el desarrollo de programas de rehabilitación que permitan minimizar las consecuencias de las lesiones adquiridas y restituir o compensar las funciones afectadas. En la actualidad nos encontramos en un momento de cambio en las metodologías de la neurorrehabilitación, donde los entornos virtuales digitales interactivos son una fuente de innovación y una ventana terapéutica para la generación de nuevas estrategias basadas en una rehabilitación personalizada, monitorizada y ubicua, con la que lograr el máximo nivel de realización en las actividades de vida diaria. En este trabajo de investigación se plantea el uso del vídeo interactivo como medio tecnológico para realizar las terapias de rehabilitación cognitiva. Se presenta una prueba de concepto de una actividad de vida diaria y su posterior análisis por el equipo clínico del Instituí Guttmann. Los resultados preliminares apoyan su uso para alcanzar una rehabilitación basada en el nuevo paradigma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Para la racionalización y concreción del proceso de diseño y construcción con hormigón visto resulta sin duda determinante no perder de vista la importancia que tienen los agentes involucrados e identificar las obligaciones y responsabilidades en cada etapa del proceso constructivo. Cuando se trabaja con un acabado superficial de categoría elevada, la experiencia indica que el "Equipo de Hormigón Visto" debe discutir las especificaciones en el inicio de la obra, de manera que tanto el arquitecto como el constructor puedan discutir los detalles del proceso junto con el fabricante de hormigón, suministrador de encofrados y/o productos especiales. La singularidad de algunas obras puede requerir la participación de un consultor externo especialista en hormigón visto como miembro del "Equipo de Hormigón Visto". Se han identificado como las etapas más relevantes del proceso constructivo las que se indican a continuación. Todas ellas están contempladas en el Borrador de documento ACHE, Hormigón visto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La incorporación de nuevos valores del comportamiento empresarial condiciona los criterios para adoptar decisiones estratégicas ya que coexisten los clásicos principios de inversión y beneficio con las obligaciones de respeto a la calidad medioambiental y los criterios de comportamiento sostenible. Todo ello justifica una investigación orientada a conseguir el objetivo de proporcionar una herramienta de ayuda en la toma de decisiones en materia de localización, ampliación, traslado o cierre para jerarquizar objetiva y eficazmente las alternativas evaluadas. Se ha decidido evaluar la incorporación de factores de sostenibilidad cuyo empleo esté apoyado en métodos de análisis multicriterio. Así de la intersección entre la primera etapa de elección de criterios de carácter eminentemente técnicos con la segunda donde se establecen las preferencias reales del centro decisor mediante la denominada función criterio o de utilidad (Romero, 1996) se puede obtener una solución óptima y sostenible al problema. 1-27 La investigación se ha centrado en la etapa de definición de criterios con el objetivo adicional de que buena parte de ellos puedan ser criterios utilizados frecuentemente en los Sistemas de Gestión Medioambiental y en la evaluación de comportamientos sobre sostenibilidad y Responsabilidad Social Corporativa. A su vez, se ha previsto alcanzar cinco objetivos específicos: 1. Evaluar el concepto de desarrollo sostenible para su adaptación a los múltiples ámbitos en los que actualmente se aplica. 2. Revisar la aplicación del concepto de sostenibilidad al ámbito empresarial, incidiendo en los instrumentos y metodologías desarrolladas para ello. 3. Investigar y seleccionar los aspectos frecuentemente considerados en la evaluación de la sostenibilidad aplicada al ámbito empresarial y explorar su utilidad como factor de sostenibilidad en la toma de decisiones estratégicas. 4. Establecer una metodología para la selección de indicadores de sostenibilidad y un modelo que permita su aplicación en la toma de decisiones estratégicas. 5. Evaluar y validar el comportamiento del modelo mediante su aplicación a situaciones reales. Los tres primeros objetivos tienen un carácter exclusivamente teórico orientado a lograr una adecuada identificación de los planteamientos realizados en torno al concepto general de sostenibilidad y las particularidades de su aplicación en el ámbito empresarial. El cumplimiento del cuarto y quinto objetivos supone evaluar la utilidad del modelo y analizar las dificultades en su utilización. El logro de los objetivos de la investigación puede contribuir al desarrollo de nuevos instrumentos que permitan incluir la sostenibilidad como criterio en la toma de decisiones relativa a la implantación, ampliación, cierre o traslado de instalaciones industriales. Adicionalmente, el resultado de esta investigación puede ofrecer la utilidad añadida de mejorar o potenciar los instrumentos actuales de evaluación de la responsabilidad social empresarial y de gestión medioambiental.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La comparación de las diferentes ofertas presentadas en la licitación de un proyecto,con el sistema de contratación tradicional de medición abierta y precio unitario cerrado, requiere herramientas de análisis que sean capaces de discriminar propuestas que teniendo un importe global parecido pueden presentar un impacto económico muy diferente durante la ejecución. Una de las situaciones que no se detecta fácilmente con los métodos tradicionales es el comportamiento del coste real frente a las variaciones de las cantidades realmente ejecutadas en obra respecto de las estimadas en el proyecto. Este texto propone abordar esta situación mediante un sistema de análisis cuantitativo del riesgo como el método de Montecarlo. Este procedimiento, como es sabido, consiste en permitir que los datos de entrada que definen el problema varíen unas funciones de probabilidad definidas, generar un gran número de casos de prueba y tratar los resultados estadísticamente para obtener los valores finales más probables,con los parámetros necesarios para medir la fiabilidad de la estimación. Se presenta un modelo para la comparación de ofertas, desarrollado de manera que puede aplicarse en casos reales aplicando a los datos conocidos unas condiciones de variación que sean fáciles de establecer por los profesionales que realizan estas tareas. ABSTRACT: The comparison of the different bids in the tender for a project, with the traditional contract system based on unit rates open to and re-measurement, requires analysis tools that are able to discriminate proposals having a similar overall economic impact, but that might show a very different behaviour during the execution of the works. One situation not easily detected by traditional methods is the reaction of the actual cost to the changes in the exact quantity of works finally executed respect of the work estimated in the project. This paper intends to address this situation through the Monte Carlo method, a system of quantitative risk analysis. This procedure, as is known, is allows the input data defining the problem to vary some within well defined probability functions, generating a large number of test cases, the results being statistically treated to obtain the most probable final values, with the rest of the parameters needed to measure the reliability of the estimate. We present a model for the comparison of bids, designed in a way that it can be applied in real cases, based on data and assumptions that are easy to understand and set up by professionals who wish to perform these tasks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN Su objetivo esencial: Regular el proceso de la edificación, está basado en 3 grandes pilares: 1.- Completar la configuración legal de los agentes que intervienen en el mismo, fijando sus obligaciones para así establecer las responsabilidades. 2.- Fomentar la calidad de los edificios. 3.- Fijar las garantías a los usuarios frente a los posibles daños. Estos tres fundamentos están intensamente relacionados, ya que, las obligaciones y responsabilidades de los agentes son la base de la constitución de las garantías a los usuarios, definidas mediante los requisitos básicos que deben satisfacer los edificios. Partiendo del análisis cualitativo y cuantitativo del grado de cumplimiento del objetivo de la nueva Ley, elaborado a través del estudio de sus tres pilares fundamentales, proponemos medidas tendentes a la plena entrada en vigor de la misma. Para ello se deberá desarrollar el Real Decreto previsto en la Disposición Adicional 2ª, una vez conseguido el grado de madurez de los sectores de la edificación y del seguro. En todo este proceso de estudio hemos podido apreciar que la objetiva identificación de los daños y en especial los que afectan la estabilidad del edificio, constituye una herramienta fundamental para la correcta atribución de responsabilidades a los agentes, basada en la aplicación de los tres grados de responsabilidad “ex lege” por daños materiales y sus plazos de prescripción surgidos del nuevo régimen impuesto por el art. 17 LOE Para avalar esta propuesta hemos analizado: 1.- El entorno económico, general y pormenorizado al sector de la edificación, en Europa y España durante el período comprendido entre los años 1990 y 2013, años previos y posteriores a la entrada en vigor de la Ley, dada la influencia de los ciclos de actividad producidos en la regulación del sector, las responsabilidades atribuidas a los agentes, el fomento de la calidad y las garantías ofrecidas a los adquirentes. 2.- Las diversas legislaciones sobre responsabilidades y garantías de los agentes de la edificación en los países de nuestro entorno económico. 3.- La gestación de la LOE, incidiendo en la evolución de los últimos borradores y su tramitación parlamentaria. 4.- El desarrollo doctrinal de la Transición desde el régimen de responsabilidades, fijado por el art. 1591 de Código Civil, y su Jurisprudencia, hacia el nuevo régimen de responsabilidades establecido por el art. 17 LOE. En esta tarea además de apreciar la asimilación, por parte de los Jueces y Magistrados, de los principios doctrinales de la LOE, hemos observado la labor de los peritos, de cuya experta identificación de las causas de los daños depende la justa y eficaz atribución de responsabilidades. 5 -. El grado de eficacia de la LOE a la vista de la estadística siniestral, de la que ya hay datos consolidados, tras la cancelación de casi 15.000 expedientes de reclamación a Arquitectos. 6 -. También hemos estudiado el grado de cumplimiento con el usuario y propietario de las garantías previstas en el art. 19 de la Ley y en la D.A. 1ª, los efectos reales alcanzados y las tareas pendientes por delante. Analizando la atribución de responsabilidades a los agentes de la edificación, dentro del primer pilar fundamental de la LOE, hemos estudiado las actuaciones de los peritos expertos y su incidencia en este objetivo, previa selección de casos de gran interés y dificultad. Fruto de ello se han formulado propuestas tendentes a la especialización de este colectivo, evitando conductas “irregulares” que tanto daño provocan a los agentes reclamados como a los propietarios afectados. Este daño es evidente pudiendo ocasionar condenas injustas, enriquecimientos ilícitos o bien falsas expectativas de satisfacción de daños mal dictaminados y costosas e ineficaces reparaciones. De cara a la consecución del pilar de la calidad de la edificación, mediante los requisitos básicos planteados por la LOE y desarrollados por el Código Técnico de la Edificación (Real Decreto 314/2006, de 17 de marzo), hemos procesado datos de expedientes de reclamaciones por daños que afectan a edificios ejecutados bajo el nuevo régimen LOE. Con esta base se han analizado las causas generadoras de las diversas lesiones y su frecuencia para que de este análisis puedan establecerse pautas de actuación para su prevención. Finalmente, tras demostrar que las garantías obligatorias impuestas por la LOE sólo abarcan un pequeño porcentaje de los posibles daños a la edificación, insistimos en la necesidad de la plena eficacia de la Ley mediante la aprobación de todas las garantías previstas y para todo tipo de edificaciones. En suma, se ha diseñado la tesis como una matriz abierta en la que podremos continuar incorporando datos de la evolución de la doctrina, la jurisprudencia y la estadística de los daños en la edificación. ABSTRACT The approval of Law 38/1999 on November 5, 1999, (Official Gazette BOE 266/1999 of 11.6.1999, p. 38925), was the culmination of a long period of over 20 years of gestation for which deep agreements were needed between all stakeholders affected. Although several parliamentary groups denounced its incomplete approval, regarding mandatory guarantees to the purchaser, its enactment caused general satisfaction among most of the the building agents. This assessment remains after fourteen years since its partial enactment. Its essential purpose, “to regulate the building process”, is based on 3 pillars: 1.- To complete the legal configuration of the agents involved in it, setting their obligations in order to establish their responsibilities. 2.- To promote the buildings quality. 3.- To specify users´guarantees against possible buildings damage. These three issues are strongly related, since the obligations and responsibilities of the actors are the basis of the users’guarantees constitution, defined by the basic performance required by buildings. Based on the qualitative and quantitative analysis of the fulfillment of the new law’s objectives, made by monitoring the three pillars, we propose measures to the full enactment of this Directive, by the development of the Royal Decree, provided in its Second Additional Provision, once maturity in the sectors of the building and insurance is achieved. Throughout this process of study we have seen that the skill identification of damage, particularly those affecting the stability of the building, is an essential tool for the proper allocation of responsibilities of the new regime installed by the art. 17 LOE, based on the application of the three degrees of responsibility "ex lege" for property damage and limitation periods. To support this proposal, we have analyzed: 1.- The evolution of the building sector in Europe and Spain during the years before and after the enactment of the Law, due to the influence of cycles of activity produced in industry regulation, the responsibilities attributed to agents, promotion of the quality and the assurances given to acquirers. 2.- The scope of various laws on liability and building agents warranties in the countries of our economic environment. 3.- The long period of LOE generation, focusing on the developments in recent drafts and parliamentary procedure. 4.- The doctrinal development in the Transition from the regime of responsibilities, set by art. 1591 of the Civil Code, and its Jurisprudence, to the new liability regime established by art. 17 LOE. In this task, while we have noted assimilation by the Judges and Magistrates of the doctrinal principles of the LOE, we have also analyzed the work of experts, whose skilled identification of the damage causes helps the fair and efficient allocation of responsibilities. 5 - The effectiveness of the LOE based on knowledge of the siniestral statistics, which are already consolidated data, after the cancellation of nearly 15,000 claims to Architects. 6.- We have also studied the degree of compliance with the user and owner guarantees, established in art. 19 and the D.A. 1th of the LOE, exposing the real effects achieved and the pending tasks ahead. Analyzing the allocation of the building agents´ responsibilities, within the first cornerstone of the LOE, we have studied the expert witnesses actions and their impact on this duty, selecting cases of great interest and difficulty in this aim. The result of this enterprise has been to propose the specialization of this group, avoiding "irregular" behaviors that create as much damage as the agents claimed to affected owners. This damage is evident and can cause wrong convictions, illicit enrichment, false expectations and inefficient and costly damage repairs. In order to achieve the pillar of building quality through the basic requirements set by the LOE and developed by the Technical Building Code (Royal Decree 314/ 2006 of 17 March), we have analyzed records of damage claims involving buildings executed under the new regime LOE. On this basis we have analyzed the root causes of various damages and their frequency, from these data it will be easy to propose lines of action for prevention. Finally, after demonstrating that mandatory warranties imposed by LOE cover only a small percentage of the potential building damage, we emphasize the need for the full effectiveness of the Law by the obligation all the guarantees provided in the art. 19 LOE, and for all types of buildings. In conclusion, this thesis is designed as an open matrix in which we will continue including data on the evolution of the doctrine, jurisprudence and the statistics of the damage to the building.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El aislamiento acústico depende de las particiones que separan los recintos, de las transmisiones indirectas y de los posibles errores de ejecución. Respecto a las transmisiones indirectas, éstas pueden controlarse con un diseño riguroso de las uniones y una buena puesta en obra. Este trabajo muestra la influencia que tiene el diseño de las uniones en el aislamiento acústico medido in situ, específicamente de las uniones entre las particiones y la fachada de dos hojas. Simulando una obra nueva, en un laboratorio se han realizado distintos montajes de particiones, se han trasdosado con paredes cerámicas con bandas y se ha modificado el diseño de la unión entre la fachada y las particiones. Para cada uno de los montajes se ha realizado un ensayo de aislamiento acústico. Las diferencias encontradas entre cada una de las diferentes configuraciones ensayadas llegan a los 9 dB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mediante la elaboración de esta tesis doctoral se pretende diseñar un sistema para la realización del plan de autoprotección en industrias con riesgo de incendio dentro de un polígono industrial. Para desarrollar esta línea de investigación se realizará una investigación cartográfica así como un reconocimiento visual de las distintas empresas industriales, de actividades heterogéneas, seleccionadas por su emplazamiento y condiciones. Este tipo de industria es esencial en el sistema económico nacional, ya que dota de recursos y servicios al tejido social, además de tener una relación directa con la generación de riqueza y por tanto incide de forma positiva en el empleo de cualquier región. Estas razones y otras son determinantes para fomentar el progreso, si bien nunca a expensas de la seguridad de los empleados que hacen posible la línea de producción así como de los posibles viandantes que transcurran por la zona de impacto en caso de incidentes como por ejemplo un incendio que afecte a cualquiera de los locales y/o empresas que se emplazen en los denominados polígonos industriales. La tesis incluye trabajos experimentales de los que se extraen recomendaciones y conclusiones encaminadas a la optimización de la instrumentalización utilizada, las técnicas de observación, diseño y cálculo necesarias que determinarán el acercamiento al método propuesto para nuestra valoración del riesgo por incendio. Las posibles emergencias que pueden darse a nivel de industrias localizadas en polígonos industriales son diversas y numerosas. De todas ellas se elige abordar el caso de “incendio” por su casuística más numerosa. No obstante, la planificación orientada desde el prisma de la investigación de esta tesis puede estenderse a cualquier otro riesgo, lo que se aportará como líneas futuras de investigación. Las aproximaciones y etapas de los trabajos que forman parte de esta investigación se han integrado en cada capítulo y son las siguientes: En primer lugar un capítulo de Introducción, en el que se realiza una reflexión justificada de la elección del tema tratado, se formula la hipótesis de partida y se enumeran los distintos objetivos que se pretenden alcanzar. En el segundo capítulo, titulado Aspectos de la Protección Civil en la Constitución Española de 1978, se ha realizado un estudio exhaustivo de la Constitución en todo lo relacionado con el ámbito de la protección, haciendo especial énfasis en las distintas competencias según el tipo de administración que corresponda en cada caso, así como las obligaciones y deberes que corresponden a los ciudadanos en caso de catástrofe. Así mismo se analizan especialmente los casos de Guerra y el estado de Alarma. En el tercer capítulo, titulado Repuesta de las administraciones públicas ante emergencias colectivas, se trata de formular el adecuado sistema de repuesta que sería preciso para tratar de mitigar desastres y catástrofes. Se analizan los distintos sistemas de gestión de emergencias constatando en cada caso los pros y los contras de cada uno. Se pretende con ello servir de ayuda en la toma de decisiones de manera coherente y racional. El capítulo cuarto, denominado Planes Locales de emergencia. Estudio en las distintas administraciones, se ha pormenorizado en la presentación así como puesta en funcionamiento de los planes, comparando los datos obtenidos entre ellos para concluir en un punto informativo que nos lleva a la realidad de la planificación. Para la realización y desarrollo de los capítulos 5 y 6, llamados Análisis de la Norma Básica de Autoprotección y Métodos de evaluación del riesgo de Incendio, se estudia la normativa actual en autoprotección prestando atención a los antecedentes históricos así como a todas las figuras que intervienen en la misma. Se analizan los distintos métodos actuales para la valoración del riesgo por incendio en industrias. Este aspecto es de carácter imprescindible en la protección civil de los ciudadanos pero también es de especial importancia en las compañías aseguradoras. En el capítulo 7, Propuesta metodológica, se propone y justifica la necesidad de establecer una metodología de estudio para estos casos de riesgo por incendio en industrias para así, acortar el tiempo de respuesta de los servicios de emergencia hasta la zona, así como dotar de información imprescindible sobre el riesgo a trabajadores y transeúntes. El último capítulo se refiere a las Conclusiones, donde se establecen y enuncian una serie de conclusiones y resultados como consecuencia de la investigación desarrollada, para finalizar esta tesis doctoral enunciando posibles desarrollos y líneas de investigación futuros. ABSTRACT The development of this thesis is to design a system for the implementation of the plan of self-protection in industries with risk of fire in an industrial park. To develop this line of research will be done cartographic research as well as visual recognition of the distinct and heterogeneous industrial companies selected by its location and conditions. This type of industry is an essential part in the economic national system providing economic resources to society as well as with a direct relationship in unemployment. For this reason it is crucial to promote their progress, but never at the expense of the security of the employees that make the line of production as well as possible walkers that pass by the area of impact in the event of a fire affecting the company. The thesis includes experimental works which are extracted recommendations and conclusions aimed at optimization of used exploit, techniques of observation, design and calculation needed to determine the approach to the method proposed for our assessment of the risk from fire. The approaches and stages of works that are part of this research have been integrated into each chapter and are as follows: In the first chapter, holder introduction, perform a supporting reflection of the choice of the subject matter, is formulated the hypothesis of departure and listed the different objectives that are intended to achieve. In the second chapter, holder aspects of Civil Protection in the Spanish Constitution of 1978, examines an exhaustive study of the Constitution in everything related to the scope of protection. With an emphasis on individual skills according to the type of management with corresponding in each case, as well as the obligations and duties which correspond to citizens in the event of a catastrophe. Also analyzes the particular cases of war and the State of alarm. In the third chapter, holder public administrations collective emergency response, discussed trafficking in defining the proper system response that would be precise to address disasters and catastrophes. We discusses the different systems of emergency management in each case, we pretend the pros and cons of each. We tried that this serve as decision-making aid coherent and rational way. The fourth chapter is holder Local Emergency Plans (LEP). Study on the different administrations, has detailed in the presentation as well as operation of the LEP, comparing the data between them to conclude in an information point that leads us to the reality of planning. For the realization and development of chapters 5 and 6, holder Analysis of the basic rule of self-protection and fire risk assessment methods, paying attention to the historical background as well as all the figures involved in the same studies with the current rules of self-protection. The current methods for the estimation of the risk are analyzed by fire in industries. This aspect is essential in the civil protection of the citizens, but it is also of special importance for insurance companies. The seventh chapter, holder Methodological proposal, we propose and justifies the need to establish a methodology for these cases of risk by fire in industries. That shorts the response time of emergency services to the area, and provides essential information about the risk to workers and walkers. The last chapter refers to the Conclusions, laying down a series of results as a consequence of the previous chapters to complete billing possible developments and research future.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis analiza el resultado de tratar con una plancha caliente la superficie de un estuco de cal, en estado fresco. El estuco a fuego –nombre que recibe la técnica actualmente en desuso- fue muy valorada en un pasado relativamente reciente, de forma que actualmente aparece ciertamente mitificada y sin caracterizar, habiéndose perdido prácticamente su técnica de ejecución. En el capítulo 1 se exponen las hipótesis y objetivos de la investigación realizada, y el e interés y oportunidad de la tesis. En el capítulo 2 se analizan los antecedentes y usos históricos de los estucos, con especial dedicación a los de cal y más concretamente los “planchados” o "al fuego", que son el tema central de esta tesis. Tras un detallado análisis de la bibliografía actual y de la época, se exponen las contradicciones que sobre este acabado se deducen de los diferentes autores consultados. También se sitúa cronológicamente la técnica, en un intento siempre difícil de poner límites a un proceso continuo. Se propone finalmente una técnica de ejecución que, tomando las descripciones más coherentes y creíbles, y mejor contrastadas de los diferentes autores, recupera la técnica perdida, lo que se prueba mediante las correspondientes "ejecuciones piloto". En el capítulo 3 se expone la metodología experimental seguida para caracterizar el efecto de la aplicación de la plancha caliente sobre el estuco de cal: en primer lugar se recuperará en taller el proceso de ejecución a partir de la bibliografía revisada, tomando las descripciones más coherentes y mejor contrastadas de los diferentes autores; posteriormente, se analiza el único caso conocido de esta técnica en el que ha sido posible sacar probetas; a continuación se contrastarán ambas informaciones con objeto de validar el proceso llevado a cabo; por último se proponen los ensayos realizados a las muestras de laboratorio hechas con la técnica recuperada y comparada con el caso real. En el capítulo 4 se lleva a la práctica lo desarrollado en el capítulo anterior, principalmente para determinar los posibles cambios en la superficie acabada, así como en su absorción de agua, brillo, dureza, y porosidad superficial del estuco. Los resultados obtenidos son objeto de análisis y de comparación. Toda la información estudiada hace posible las conclusiones que aparecen el capítulo 5 y que delimitan claramente el efecto que provoca el uso de la plancha caliente sobre el acabado en varios aspectos: economía en el proceso, mejora de los efectos de imitación de mármol y aumento de las propiedades físicas solicitadas a un revestimiento continuo de estas características. Termina el capítulo proponiendo unas cuestiones como futuras líneas de desarrollo de la investigación. ABSTRACT This thesis analyzes the result of dealing with a hot iron the surface of a plaster of lime, fresh state. The stucco fire-name receiving the technique in disuse today- was highly valued in the relatively recent past, so now certainly appears mystified and uncharacterized, having almost lost his playing technique. In Chapter 1 the assumptions and objectives of the research are presented, and the interest and opportunity of the thesis. In chapter 2 the background and historical uses of stucco, with particular attention to the lime and more specifically the "pressed" or "Fire", which are the focus of this thesis are discussed. After a detailed analysis of the current literature and the time, the contradictions that this finish is derived from the different authors consulted are exposed. Also it is situated chronologically the technique, in an always difficult to set limits to a continuous attempt. A technique of execution, taking the most consistent and credible descriptions, and better contrasting of different authors, recovers lost art, which is proved by the corresponding "pilot runs" was finally proposed. In Chapter 3 the experimental methodology to characterize the effect of the application of the hot iron on the lime stucco is exposed: first workshop will recover in the implementation process from the literature reviewed, taking the most consistent descriptions and better contrasted different authors; then it is analyzed the only known case in which this technique has been possible to take samples; then both information will be compared in order to validate the process undertaken; Finally tests performed at the laboratory samples made with the technique recovered and compared with the real case are proposed. Chapter 4 takes practice what it was developed in the previous chapter, mainly to determine possible changes in the finished surface as well as water absorption, gloss, hardness, surface porosity from the stucco. The results are analyzed and compared. All information makes possible to study the conclusions that appear on Chapter 5 and clearly define the effect caused by the use of the hot iron on the finish in several aspects: economy in the process, enhancing the effects of marble imitation and increased physical properties applied to a continuous coating of these features. Chapter finalizes proposing some issues and future lines of research and development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El objetivo de esta tesis es el desarrollo y puesta a punto de un método para la evaluación de las pérdidas de seguridad producidas en los pórticos planos de hormigón armado, ejecutados defectuosamente desde el punto de vista de su geometría. Se ha revisado una amplia bibliografía, tanto desde el enfoque de la normativa como de los estudios, para situar nuestra tesis sobre una sólida base científica. Hemos establecido un método para abordar la definición de las solicitaciones, tanto en análisis de primer orden como en análisis de segundo orden. Se ha planteado un sistema para la comparación de las solicitaciones en la estructura no defectuosa y las de la estructura defectuosa mediante la propuesta del concepto de la solicitación equivalente de comparación. Se han calculado, aplicando estos métodos, una serie de estructuras muy diversas: con distintos materiales y geometría, así como para distintos defectos en posición y magnitud. Se plasman una serie de conclusiones, comparativas y de definición de los márgenes de seguridad para todos estos casos

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A través de los años las estructuras de hormigón armado han ido aumentando su cuota de mercado, sustituyendo a las estructuras de fábrica de piedra o ladrillo y restándole participación a las estructuras metálicas. Uno de los primeros problemas que surgieron al ejecutar las estructuras de hormigón armado, era cómo conectar una fase de una estructura de este tipo a una fase posterior o a una modificación posterior. Hasta los años 80-90 las conexiones de una fase de una estructura de hormigón armado, con otra posterior se hacían dejando en la primera fase placas de acero con garrotas embebidas en el hormigón fresco o barras grifadas recubiertas de poliestireno expandido. Una vez endurecido el hormigón se podían conectar nuevas barras, para la siguiente fase mediante soldadura a la placa de la superficie o enderezando las barras grifadas, para embeberlas en el hormigón fresco de la fase siguiente. Estos sistemas requerían conocer la existencia y alcance de la fase posterior antes de hormigonar la fase previa. Además requerían un replanteo muy exacto y complejo de los elementos de conexión. Otro problema existente en las estructuras de hormigón era la adherencia de un hormigón fresco a un hormigón endurecido previamente, ya que la superficie de contacto de ambos hormigones suponía un punto débil, con una adherencia baja. A partir de los años 80, la industria química de la construcción experimentó un gran avance en el desarrollo de productos capaces de generar una buena adherencia sobre el hormigón endurecido. Este avance tecnológico tenía aplicación tanto en la adherencia del hormigón fresco sobre el hormigón endurecido, como en la adherencia de barras post-instaladas en agujeros de hormigón endurecido. Este sistema se denominó “anclajes adherentes de barras de acero en hormigón endurecido”. La forma genérica de ejecutarlos es hacer una perforación cilíndrica en el soporte de hormigón, con una herramienta especifica como un taladro, limpiar la perforación, llenarla del material adherente y finalmente introducir la barra de acero. Los anclajes adherentes se dividen en anclajes cementosos y anclajes químicos, siendo estos últimos los más habituales, fiables, resistentes y fáciles de ejecutar. El uso del anclaje adherente de barras de acero en hormigón endurecido se ha extendido por todo el espectro productivo, siendo muy habitual tanto en construcción de obras de hormigón armado de obra civil y edificación, como en obras industriales, instalaciones o fijación de elementos. La ejecución de un anclaje de una barra de acero en hormigón endurecido depende de numerosas variables, que en su conjunto, o de forma aislada pueden afectar de forma notable a la resistencia del anclaje. Nos referimos a variables de los anclajes, que a menudo no se consideran tales como la dirección de la perforación, la máquina de perforación y el útil de perforación utilizado, la diferencia de diámetros entre el diámetro del taladro y la barra, el tipo de material de anclaje, la limpieza del taladro, la humedad del soporte, la altura del taladro, etc. La utilización en los últimos años de los hormigones Autocompactables, añade una variable adicional, que hasta ahora apenas ha sido estudiada. En línea con lo apuntado, la presente tesis doctoral tiene como objetivo principal el estudio de las condiciones de ejecución en la resistencia de los anclajes en hormigón convencional y autocompactable. Esta investigación se centra principalmente en la evaluación de la influencia de una serie de variables sobre la resistencia de los anclajes, tanto en hormigón convencional como en un hormigón autocompactable. Para este estudio ha sido necesaria la fabricación de dos soportes de hormigón sobre los cuales desarrollar los ensayos. Uno de los bloques se ha fabricado con hormigón convencional y el otro con hormigón autocompactable. En cada pieza de hormigón se han realizado 174 anclajes con barras de acero, variando los parámetros a estudiar, para obtener resultados de todas las variables consideradas. Los ensayos a realizar en ambos bloques son exactamente iguales, para poder comparar la diferencia entre un anclaje en un soporte de hormigón con vibrado convencional (HVC) y un hormigón autocompactante (HAC). De cada tipo de ensayo deseado se harán dos repeticiones en la misma pieza. El ensayo de arrancamiento de las barras se realizara con un gato hidráulico hueco, con un sistema de instrumentación de lectura y registro de datos en tiempo real. El análisis de los resultados, realizado con una potente herramienta estadística, ha permitido determinar y evaluar numéricamente la influencia de los variables consideradas en la resistencia de los anclajes realizados. Así mismo ha permitido diferenciar los resultados obtenidos en los hormigones convencionales y autocompactantes, tanto desde el punto de vista de la resistencia mecánica, como de las deformaciones sufridas en el arrancamiento. Se define la resistencia mecánica de un anclaje, como la fuerza desarrollada en la dirección de la barra, para hacer su arrancamiento del soporte. De la misma forma se considera desplazamiento, a la separación entre un punto fijo de la barra y otro del soporte, en la dirección de la barra. Dichos puntos se determinan cuando se ha terminado el anclaje, en la intersección de la superficie plana del soporte, con la barra. Las conclusiones obtenidas han permitido establecer qué variables afectan a la ejecución de los anclajes y en qué cuantía lo hacen, así como determinar la diferencia entre los anclajes en hormigón vibrado convencional y hormigón autocompactante, con resultados muy interesantes, que permiten valorar la influencia de dichas variables. Dentro de las conclusiones podemos destacar tres grupos, que denominaremos como de alta influencia, baja influencia y sin influencia. En todos los casos hay que hacer el estudio en términos de carga y de desplazamiento. Podemos considerar como de alta influencia, en términos de carga las variables de máquina de perforación y el material de anclaje. En términos de desplazamiento podemos considerar de alta influencia además de la máquina de perforación y el material de anclaje, el diámetro del taladro, así como la limpieza y humedad del soporte. Podemos considerar de baja influencia, en términos de carga las variables de tipo de hormigón, dirección de perforación, limpieza y humedad del soporte. En términos de desplazamiento podemos considerar de baja influencia el tipo de hormigón y la dirección de perforación. Podemos considerar en el apartado de “sin influencia”, en términos de carga las variables de diámetro de perforación y altura del taladro. En términos de desplazamiento podemos considerar como “sin influencia” la variable de altura del taladro. Podemos afirmar que las diferencias entre los valores de carga aumentan de forma muy importante en términos de desplazamiento. ABSTRACT Over the years the concrete structures have been increasing their market share, replacing the masonry structures of stone or brick and subtracting as well the participation of the metallic structures. One of the first problems encountered in the implementing of the reinforced concrete structures was connecting a phase structure of this type at a later stage or a subsequent amendment. Until the 80s and 90s the connections of one phase of a reinforced concrete structure with a subsequent first phase were done by leaving the steel plates embedded in the fresh concrete using hooks or bent bars coated with expanded polystyrene. Once the concrete had hardened new bars could be connected to the next stage by welding them to the surface plate or by straightening the bent bars to embed them in the fresh concrete of the next phase. These systems required a previous knowledge of the existence and scope of the subsequent phase before concreting the previous one. They also required a very precise and complex rethinking of the connecting elements. Another existing problem in the concrete structures was the adhesion of a fresh concrete to a previously hardened concrete, since the contact surface of both concretes leaded to a weak point with low adherence. Since the 80s, the chemicals construction industry experienced a breakthrough in the development of products that generate a good grip on the concrete. This technological advance had its application both in the grip on one hardened fresh concrete and in the adhesion of bar post-installed in holes of hardened concrete. This system was termed as adherent anchors of steel bars in hardened concrete. The generic way of executing this system is by firstly drilling a cylindrical hole in the concrete support using a specific tool such as a drill. Then, cleaning the bore and filling it with bonding material to lastly, introduce the steel bar. These adherent anchors are divided into cement and chemical anchors, the latter being the most common, reliable, durable and easy to run. The use of adhesive anchor of steel bars in hardened concrete has spread across the production spectrum turning itself into a very common solution in both construction of reinforced concrete civil engineering and construction, and industrial works, installations and fixing elements as well. The execution of an anchor of a steel bar in hardened concrete depends on numerous variables which together or as a single solution may significantly affect the strength of the anchor. We are referring to variables of anchors which are often not considered, such as the diameter difference between the rod and the bore, the drilling system, cleansing of the drill, type of anchor material, the moisture of the substrate, the direction of the drill, the drill’s height, etc. During recent years, the emergence of self-compacting concrete adds an additional variable which has hardly been studied so far. According to mentioned this thesis aims to study the main performance conditions in the resistance of conventional and self-compacting concrete anchors. This research is primarily focused on the evaluation of the influence of several variables on the strength of the anchoring, both in conventional concrete and self-compacting concrete. In order to complete this study it has been required the manufacture of two concrete supports on which to develop the tests. One of the blocks has been manufactured with conventional concrete and the other with self-compacting concrete. A total of 174 steel bar anchors have been made in each one of the concrete pieces varying the studied parameters in order to obtain results for all variables considered. The tests to be performed on both blocks are exactly the same in order to compare the difference between an anchor on a stand with vibrated concrete (HVC) and a self-compacting concrete (SCC). Each type of test required two repetitions in the same piece. The pulling test of the bars was made with a hollow jack and with an instrumentation system for reading and recording data in real time. The use of a powerful statistical tool in the analysis of the results allowed to numerically determine and evaluate the influence of the variables considered in the resistance of the anchors made. It has likewise enabled to differentiate the results obtained in the self-compacting and conventional concretes, from both the outlook of the mechanical strength and the deformations undergone by uprooting. The mechanical strength of an anchor is defined as the strength undergone in a direction of the bar to uproot it from the support. Likewise, the movement is defined as the separation between a fixed point of the bar and a fixed point from the support considering the direction of the bar. These points are only determined once the anchor is finished, with the bar, at the intersection in the flat surface of the support. The conclusions obtained have established which variables affect the execution of the anchors and in what quantity. They have also permitted to determine the difference between the anchors in vibrated concrete and selfcompacting concrete with very interesting results that also allow to assess the influence of these mentioned variables. Three groups are highlighted among the conclusions called high influence, low influence and no influence. In every case is necessary to perform the study in terms of loading and movement. In terms of loading, there are considered as high influence two variables: drilling machinery and anchorage material. In terms of movement, there are considered as high influence the drilling diameter and the cleaning and moisture of the support, besides the drilling machinery and the anchorage material. Variables such as type of concrete, drilling direction and cleaning and moisture of the support are considered of low influence in terms of load. In terms of movement, the type of concrete and the direction of the drilling are considered variables of low influence. Within the no influence section in terms of loading, there are included the diameter of the drilling and the height of the drill. In terms of loading, the height of the drill is considered as a no influence variable. We can affirm that the differences among the loading values increase significantly in terms of movement.