9 resultados para Indianapolis Traction and Terminal Company.

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Software evolution, and particularly its growth, has been mainly studied at the file (also sometimes referred as module) level. In this paper we propose to move from the physical towards a level that includes semantic information by using functions or methods for measuring the evolution of a software system. We point out that use of functions-based metrics has many advantages over the use of files or lines of code. We demonstrate our approach with an empirical study of two Free/Open Source projects: a community-driven project, Apache, and a company-led project, Novell Evolution. We discovered that most functions never change; when they do their number of modifications is correlated with their size, and that very few authors who modify each; finally we show that the departure of a developer from a software project slows the evolution of the functions that she authored.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent decades, full electric and hybrid electric vehicles have emerged as an alternative to conventional cars due to a range of factors, including environmental and economic aspects. These vehicles are the result of considerable efforts to seek ways of reducing the use of fossil fuel for vehicle propulsion. Sophisticated technologies such as hybrid and electric powertrains require careful study and optimization. Mathematical models play a key role at this point. Currently, many advanced mathematical analysis tools, as well as computer applications have been built for vehicle simulation purposes. Given the great interest of hybrid and electric powertrains, along with the increasing importance of reliable computer-based models, the author decided to integrate both aspects in the research purpose of this work. Furthermore, this is one of the first final degree projects held at the ETSII (Higher Technical School of Industrial Engineers) that covers the study of hybrid and electric propulsion systems. The present project is based on MBS3D 2.0, a specialized software for the dynamic simulation of multibody systems developed at the UPM Institute of Automobile Research (INSIA). Automobiles are a clear example of complex multibody systems, which are present in nearly every field of engineering. The work presented here benefits from the availability of MBS3D software. This program has proven to be a very efficient tool, with a highly developed underlying mathematical formulation. On this basis, the focus of this project is the extension of MBS3D features in order to be able to perform dynamic simulations of hybrid and electric vehicle models. This requires the joint simulation of the mechanical model of the vehicle, together with the model of the hybrid or electric powertrain. These sub-models belong to completely different physical domains. In fact the powertrain consists of energy storage systems, electrical machines and power electronics, connected to purely mechanical components (wheels, suspension, transmission, clutch…). The challenge today is to create a global vehicle model that is valid for computer simulation. Therefore, the main goal of this project is to apply co-simulation methodologies to a comprehensive model of an electric vehicle, where sub-models from different areas of engineering are coupled. The created electric vehicle (EV) model consists of a separately excited DC electric motor, a Li-ion battery pack, a DC/DC chopper converter and a multibody vehicle model. Co-simulation techniques allow car designers to simulate complex vehicle architectures and behaviors, which are usually difficult to implement in a real environment due to safety and/or economic reasons. In addition, multi-domain computational models help to detect the effects of different driving patterns and parameters and improve the models in a fast and effective way. Automotive designers can greatly benefit from a multidisciplinary approach of new hybrid and electric vehicles. In this case, the global electric vehicle model includes an electrical subsystem and a mechanical subsystem. The electrical subsystem consists of three basic components: electric motor, battery pack and power converter. A modular representation is used for building the dynamic model of the vehicle drivetrain. This means that every component of the drivetrain (submodule) is modeled separately and has its own general dynamic model, with clearly defined inputs and outputs. Then, all the particular submodules are assembled according to the drivetrain configuration and, in this way, the power flow across the components is completely determined. Dynamic models of electrical components are often based on equivalent circuits, where Kirchhoff’s voltage and current laws are applied to draw the algebraic and differential equations. Here, Randles circuit is used for dynamic modeling of the battery and the electric motor is modeled through the analysis of the equivalent circuit of a separately excited DC motor, where the power converter is included. The mechanical subsystem is defined by MBS3D equations. These equations consider the position, velocity and acceleration of all the bodies comprising the vehicle multibody system. MBS3D 2.0 is entirely written in MATLAB and the structure of the program has been thoroughly studied and understood by the author. MBS3D software is adapted according to the requirements of the applied co-simulation method. Some of the core functions are modified, such as integrator and graphics, and several auxiliary functions are added in order to compute the mathematical model of the electrical components. By coupling and co-simulating both subsystems, it is possible to evaluate the dynamic interaction among all the components of the drivetrain. ‘Tight-coupling’ method is used to cosimulate the sub-models. This approach integrates all subsystems simultaneously and the results of the integration are exchanged by function-call. This means that the integration is done jointly for the mechanical and the electrical subsystem, under a single integrator and then, the speed of integration is determined by the slower subsystem. Simulations are then used to show the performance of the developed EV model. However, this project focuses more on the validation of the computational and mathematical tool for electric and hybrid vehicle simulation. For this purpose, a detailed study and comparison of different integrators within the MATLAB environment is done. Consequently, the main efforts are directed towards the implementation of co-simulation techniques in MBS3D software. In this regard, it is not intended to create an extremely precise EV model in terms of real vehicle performance, although an acceptable level of accuracy is achieved. The gap between the EV model and the real system is filled, in a way, by introducing the gas and brake pedals input, which reflects the actual driver behavior. This input is included directly in the differential equations of the model, and determines the amount of current provided to the electric motor. For a separately excited DC motor, the rotor current is proportional to the traction torque delivered to the car wheels. Therefore, as it occurs in the case of real vehicle models, the propulsion torque in the mathematical model is controlled through acceleration and brake pedal commands. The designed transmission system also includes a reduction gear that adapts the torque coming for the motor drive and transfers it. The main contribution of this project is, therefore, the implementation of a new calculation path for the wheel torques, based on performance characteristics and outputs of the electric powertrain model. Originally, the wheel traction and braking torques were input to MBS3D through a vector directly computed by the user in a MATLAB script. Now, they are calculated as a function of the motor current which, in turn, depends on the current provided by the battery pack across the DC/DC chopper converter. The motor and battery currents and voltages are the solutions of the electrical ODE (Ordinary Differential Equation) system coupled to the multibody system. Simultaneously, the outputs of MBS3D model are the position, velocity and acceleration of the vehicle at all times. The motor shaft speed is computed from the output vehicle speed considering the wheel radius, the gear reduction ratio and the transmission efficiency. This motor shaft speed, somehow available from MBS3D model, is then introduced in the differential equations corresponding to the electrical subsystem. In this way, MBS3D and the electrical powertrain model are interconnected and both subsystems exchange values resulting as expected with tight-coupling approach.When programming mathematical models of complex systems, code optimization is a key step in the process. A way to improve the overall performance of the integration, making use of C/C++ as an alternative programming language, is described and implemented. Although this entails a higher computational burden, it leads to important advantages regarding cosimulation speed and stability. In order to do this, it is necessary to integrate MATLAB with another integrated development environment (IDE), where C/C++ code can be generated and executed. In this project, C/C++ files are programmed in Microsoft Visual Studio and the interface between both IDEs is created by building C/C++ MEX file functions. These programs contain functions or subroutines that can be dynamically linked and executed from MATLAB. This process achieves reductions in simulation time up to two orders of magnitude. The tests performed with different integrators, also reveal the stiff character of the differential equations corresponding to the electrical subsystem, and allow the improvement of the cosimulation process. When varying the parameters of the integration and/or the initial conditions of the problem, the solutions of the system of equations show better dynamic response and stability, depending on the integrator used. Several integrators, with variable and non-variable step-size, and for stiff and non-stiff problems are applied to the coupled ODE system. Then, the results are analyzed, compared and discussed. From all the above, the project can be divided into four main parts: 1. Creation of the equation-based electric vehicle model; 2. Programming, simulation and adjustment of the electric vehicle model; 3. Application of co-simulation methodologies to MBS3D and the electric powertrain subsystem; and 4. Code optimization and study of different integrators. Additionally, in order to deeply understand the context of the project, the first chapters include an introduction to basic vehicle dynamics, current classification of hybrid and electric vehicles and an explanation of the involved technologies such as brake energy regeneration, electric and non-electric propulsion systems for EVs and HEVs (hybrid electric vehicles) and their control strategies. Later, the problem of dynamic modeling of hybrid and electric vehicles is discussed. The integrated development environment and the simulation tool are also briefly described. The core chapters include an explanation of the major co-simulation methodologies and how they have been programmed and applied to the electric powertrain model together with the multibody system dynamic model. Finally, the last chapters summarize the main results and conclusions of the project and propose further research topics. In conclusion, co-simulation methodologies are applicable within the integrated development environments MATLAB and Visual Studio, and the simulation tool MBS3D 2.0, where equation-based models of multidisciplinary subsystems, consisting of mechanical and electrical components, are coupled and integrated in a very efficient way.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Particulate matter emissions from paved roads are currently one of the main challenges for a sustainable transport in Europe. Emissions are scarcely estimated due to the lack of knowledge about the resuspension process severely hampering a reliable simulation of PM and heavy metals concentrations in large cities and evaluation of population exposure. In this study the Emission Factors from road dust resuspension on a Mediterranean freeway were estimated per single vehicle category and PM component (OC, EC, mineral dust and metals) by means of the deployment of vertical profiles of passive samplers and terminal concentration estimate. The estimated PM10 emission factors varied from 12 to 47 mg VKT?1 (VKT: Vehicle Kilometer Traveled) with an average value of 22.7 ? 14.2 mg VKT?1. Emission Factors for heavy and light duty vehicles, passenger cars and motorbikes were estimated, based on average fleet composition and EPA ratios, in 187e733 mg VKT?1, 33e131 VKT?1, 9.4e36.9 VKT?1 and 0.8e3.3 VKT?1, respectively. These range of values are lower than previous estimates in Mediterranean urban roads, probably due to the lower dust reservoir on freeways. PM emitted material was dominated by mineral dust (9e10 mg VKT?1), but also OC and EC were found to be major components and approximately 14 e25% and 2e9% of average PM exhaust emissions from diesel passenger cars on highways respectively.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El auge que ha surgido en los últimos años por la reparación de edificios y estructuras construidas con hormigón ha llevado al desarrollo de morteros de reparación cada vez más tecnológicos. En el desarrollo de estos morteros por parte de los fabricantes, surge la disyuntiva en el uso de los polímeros en sus formulaciones, por no encontrarse justificado en ocasiones el trinomio prestaciones/precio/aplicación. En esta tesis se ha realizado un estudio exhaustivo para la justificación de la utilización de estos morteros como morteros de reparación estructural como respuesta a la demanda actual disponiéndolo en tres partes: En la primera parte se realizó un estudio del arte de los morteros y sus constituyentes. El uso de los morteros se remonta a la antigüedad, utilizándose como componentes yeso y cal fundamentalmente. Los griegos y romanos desarrollaron el concepto de morteros de cal, introduciendo componentes como las puzolanas, cales hidraúlicas y áridos de polvo de mármol dando origen a morteros muy parecidos a los hormigones actuales. En la edad media y renacimiento se perdió la tecnología desarrollada por los romanos debido al extenso uso de la piedra en las construcciones civiles, defensivas y religiosas. Hubo que esperar hasta el siglo XIX para que J. Aspdin descubriese el actual cemento como el principal compuesto hidraúlico. Por último y ya en el siglo XX con la aparición de moléculas tales como estireno, melanina, cloruro de vinilo y poliésteres se comenzó a desarrollar la industria de los polímeros que se añadieron a los morteros dando lugar a los “composites”. El uso de polímeros en matrices cementantes dotan al mortero de propiedades tales como: adherencia, flexibilidad y trabajabilidad, como ya se tiene constancia desde los años 30 con el uso de caucho naturales. En la actualidad el uso de polímeros de síntesis (polivinialacetato, estireno-butadieno, viniacrílico y resinas epoxi) hacen que principalmente el mortero tenga mayor resistencia al ataque del agua y por lo tanto aumente su durabilidad ya que se minimizan todas las reacciones de deterioro (hielo, humedad, ataque biológico,…). En el presente estudio el polímero que se utilizó fue en estado polvo: polímero redispersable. Estos polímeros están encapsulados y cuando se ponen en contacto con el agua se liberan de la cápsula formando de nuevo el gel. En los morteros de reparación el único compuesto hidraúlico que hay es el cemento y es el principal constituyente hoy en día de los materiales de construcción. El cemento se obtiene por molienda conjunta de Clínker y yeso. El Clínker se obtiene por cocción de una mezcla de arcillas y calizas hasta una temperatura de 1450-1500º C por reacción en estado fundente. Para esta reacción se deben premachacar y homogeneizar las materias primas extraídas de la cantera. Son dosificadas en el horno con unas proporciones tales que cumplan con unas relación de óxidos tales que permitan formar las fases anhidras del Clínker C3S, C2S, C3A y C4AF. De la hidratación de las fases se obtiene el gel CSH que es el que proporciona al cemento de sus propiedades. Existe una norma (UNE-EN 197-1) que establece la composición, especificaciones y tipos de cementos que se fabrican en España. La tendencia actual en la fabricación del cemento pasa por el uso de cementos con mayores contenidos de adiciones (cal, puzolana, cenizas volantes, humo de sílice,…) con el objeto de obtener cementos más sostenibles. Otros componentes que influyen en las características de los morteros son: - Áridos. En el desarrollo de los morteros se suelen usar naturales, bien calizos o silícicos. Hacen la función de relleno y de cohesionantes de la matriz cementante. Deben ser inertes - Aditivos. Son aquellos componentes del mortero que son dosificados en una proporción menor al 5%. Los más usados son los superplastificantes por su acción de reductores de agua que revierte en una mayor durabilidad del mortero. Una vez analizada la composición de los morteros, la mejora tecnológica de los mismos está orientada al aumento de la durabilidad de su vida en obra. La durabilidad se define como la capacidad que éste tiene de resistir a la acción del ambiente, ataques químicos, físicos, biológicos o cualquier proceso que tienda a su destrucción. Estos procesos dependen de factores tales como la porosidad del hormigón y de la exposición al ambiente. En cuanto a la porosidad hay que tener en cuenta la distribución de macroporos, mesoporos y microporos de la estructura del hormigón, ya que no todos son susceptibles de que se produzca el transporte de agentes deteriorantes, provocando tensiones internas en las paredes de los mismos y destruyendo la matriz cementante Por otro lado los procesos de deterioro están relacionados con la acción del agua bien como agente directo o como vehículo de transporte del agente deteriorante. Un ambiente que resulta muy agresivo para los hormigones es el marino. En este caso los procesos de deterioro están relacionados con la presencia de cloruros y de sulfatos tanto en el agua de mar como en la atmosfera que en combinación con el CO2 y O2 forman la sal de Friedel. El deterioro de las estructuras en ambientes marinos se produce por la debilitación de la matriz cementante y posterior corrosión de las armaduras que provocan un aumento de volumen en el interior y rotura de la matriz cementante por tensiones capilares. Otras reacciones que pueden producir estos efectos son árido-álcali y difusión de iones cloruro. La durabilidad de un hormigón también depende del tipo de cemento y su composición química (cementos con altos contenidos de adición son más resistentes), relación agua/cemento y contenido de cemento. La Norma UNE-EN 1504 que consta de 10 partes, define los productos para la protección y reparación de estructuras de hormigón, el control de calidad de los productos, propiedades físico-químicas y durables que deben cumplir. En esta Norma se referencian otras 65 normas que ofrecen los métodos de ensayo para la evaluación de los sistemas de reparación. En la segunda parte de esta Tesis se hizo un diseño de experimentos con diferentes morteros poliméricos (con concentraciones de polímero entre 0 y 25%), tomando como referencia un mortero control sin polímero, y se estudiaron sus propiedades físico-químicas, mecánicas y durables. Para mortero con baja proporción de polímero se recurre a sistemas monocomponentes y para concentraciones altas bicomponentes en la que el polímero está en dispersión acuosa. Las propiedades mecánicas medidas fueron: resistencia a compresión, resistencia a flexión, módulo de elasticidad, adherencia por tracción directa y expansión-retracción, todas ellas bajo normas UNE. Como ensayos de caracterización de la durabilidad: absorción capilar, resistencia a carbonatación y adherencia a tracción después de ciclos hielo-deshielo. El objeto de este estudio es seleccionar el mortero con mejor resultado general para posteriormente hacer una comparativa entre un mortero con polímero (cantidad optimizada) y un mortero sin polímero. Para seleccionar esa cantidad óptima de polímero a usar se han tenido en cuenta los siguientes criterios: el mortero debe tener una clasificación R4 en cuanto a prestaciones mecánicas al igual que para evaluar sus propiedades durables frente a los ciclos realizados, siempre teniendo en cuenta que la adición de polímero no puede ser elevada para hacer el mortero competitivo. De este estudio se obtuvieron las siguientes conclusiones generales: - Un mortero normalizado no cumple con propiedades para ser clasificado como R3 o R4. - Sin necesidad de polímero se puede obtener un mortero que cumpliría con R4 para gran parte de las características medidas - Es necesario usar relaciones a:c< 0.5 para conseguir morteros R4, - La adición de polímero mejora siempre la adherencia, abrasión, absorción capilar y resistencia a carbonatación - Las diferentes proporciones de polímero usadas siempre suponen una mejora tecnológica en propiedades mecánicas y de durabilidad. - El polímero no influye sobre la expansión y retracción del mortero. - La adherencia se mejora notablemente con el uso del polímero. - La presencia de polímero en los morteros mejoran las propiedades relacionadas con la acción del agua, por aumento del poder cementante y por lo tanto de la cohesión. El poder cementante disminuye la porosidad. Como consecuencia final de este estudio se determinó que la cantidad óptima de polímero para la segunda parte del estudio es 2.0-3.5%. La tercera parte consistió en el estudio comparativo de dos morteros: uno sin polímero (mortero A) y otro con la cantidad optimizada de polímero, concluida en la parte anterior (mortero B). Una vez definido el porcentaje de polímeros que mejor se adapta a los resultados, se plantea un nuevo esqueleto granular mejorado, tomando una nueva dosificación de tamaños de áridos, tanto para el mortero de referencia, como para el mortero con polímeros, y se procede a realizar los ensayos para su caracterización física, microestructural y de durabilidad, realizándose, además de los ensayos de la parte 1, mediciones de las propiedades microestructurales que se estudiaron a través de las técnicas de porosimetría de mercurio y microscopia electrónica de barrido (SEM); así como propiedades del mortero en estado fresco (consistencia, contenido de aire ocluido y tiempo final de fraguado). El uso del polímero frente a la no incorporación en la formulación del mortero, proporcionó al mismo de las siguientes ventajas: - Respecto a sus propiedades en estado fresco: El mortero B presentó mayor consistencia y menor cantidad de aire ocluido lo cual hace un mortero más trabajable y más dúctil al igual que más resistente porque al endurecer dejará menos huecos en su estructura interna y aumentará su durabilidad. Al tener también mayor tiempo de fraguado, pero no excesivo permite que la manejabilidad para puesta en obra sea mayor, - Respecto a sus propiedades mecánicas: Destacar la mejora en la adherencia. Es una de las principales propiedades que confiere el polímero a los morteros. Esta mayor adherencia revierte en una mejora de la adherencia al soporte, minimización de las posibles reacciones en la interfase hormigón-mortero y por lo tanto un aumento en la durabilidad de la reparación ejecutada con el mortero y por consecuencia del hormigón. - Respecto a propiedades microestructurales: la porosidad del mortero con polímero es menor y menor tamaño de poro critico susceptible de ser atacado por agentes externos causantes de deterioro. De los datos obtenidos por SEM no se observaron grandes diferencias - En cuanto a abrasión y absorción capilar el mortero B presentó mejor comportamiento como consecuencia de su menor porosidad y su estructura microscópica. - Por último el comportamiento frente al ataque de sulfatos y agua de mar, así como al frente de carbonatación, fue más resistente en el mortero con polímero por su menor permeabilidad y su menor porosidad. Para completar el estudio de esta tesis, y debido a la gran importancia que están tomando en la actualidad factores como la sostenibilidad se ha realizado un análisis de ciclo de vida de los dos morteros objeto de estudio de la segunda parte experimental.In recent years, the extended use of repair materials for buildings and structures made the development of repair mortars more and more technical. In the development of these mortars by producers, the use of polymers in the formulations is a key point, because sometimes this use is not justified when looking to the performance/price/application as a whole. This thesis is an exhaustive study to justify the use of these mortars as a response to the current growing demand for structural repair. The thesis is classified in three parts:The first part is the study of the state of the art of mortars and their constituents.In ancient times, widely used mortars were based on lime and gypsum. The Greeks and Romans developed the concept of lime mortars, introducing components such as pozzolans, hydraulic limes and marble dust as aggregates, giving very similar concrete mortars to the ones used currently. In the middle Age and Renaissance, the technology developed by the Romans was lost, due to the extensive use of stone in the civil, religious and defensive constructions. It was not until the 19th century, when J. Aspdin discovered the current cement as the main hydraulic compound. Finally in the 20th century, with the appearance of molecules such as styrene, melanin, vinyl chloride and polyester, the industry began to develop polymers which were added to the binder to form special "composites".The use of polymers in cementitious matrixes give properties to the mortar such as adhesion, Currently, the result of the polymer synthesis (polivynilacetate, styrene-butadiene, vynilacrylic and epoxy resins) is that mortars have increased resistance to water attack and therefore, they increase their durability since all reactions of deterioration are minimised (ice, humidity, biological attack,...). In the present study the polymer used was redispersible polymer powder. These polymers are encapsulated and when in contact with water, they are released from the capsule forming a gel.In the repair mortars, the only hydraulic compound is the cement and nowadays, this is the main constituent of building materials. The current trend is centered in the use of higher contents of additions (lime, pozzolana, fly ash, silica, silica fume...) in order to obtain more sustainable cements. Once the composition of mortars is analyzed, the technological improvement is centred in increasing the durability of the working life. Durability is defined as the ability to resist the action of the environment, chemical, physical, and biological attacks or any process that tends to its destruction. These processes depend on factors such as the concrete porosity and the environmental exposure. In terms of porosity, it be considered, the distribution of Macropores and mesopores and pores of the concrete structure, since not all of them are capable of causing the transportation of damaging agents, causing internal stresses on the same walls and destroying the cementing matrix.In general, deterioration processes are related to the action of water, either as direct agent or as a transport vehicle. Concrete durability also depends on the type of cement and its chemical composition (cement with high addition amounts are more resistant), water/cement ratio and cement content. The standard UNE-EN 1504 consists of 10 parts and defines the products for the protection and repair of concrete, the quality control of products, physical-chemical properties and durability. Other 65 standards that provide the test methods for the evaluation of repair systems are referenced in this standard. In the second part of this thesis there is a design of experiments with different polymer mortars (with concentrations of polymer between 0 and 25%), taking a control mortar without polymer as a reference and its physico-chemical, mechanical and durable properties were studied. For mortars with low proportion of polymer, 1 component systems are used (powder polymer) and for high polymer concentrations, water dispersion polymers are used. The mechanical properties measured were: compressive strength, flexural strength, modulus of elasticity, adhesion by direct traction and expansion-shrinkage, all of them under standards UNE. As a characterization of the durability, following tests are carried out: capillary absorption, resistance to carbonation and pull out adhesion after freeze-thaw cycles. The target of this study is to select the best mortar to make a comparison between mortars with polymer (optimized amount) and mortars without polymer. To select the optimum amount of polymer the following criteria have been considered: the mortar must have a classification R4 in terms of mechanical performance as well as in durability properties against the performed cycles, always bearing in mind that the addition of polymer cannot be too high to make the mortar competitive in price. The following general conclusions were obtained from this study: - A standard mortar does not fulfill the properties to be classified as R3 or R4 - Without polymer, a mortar may fulfill R4 for most of the measured characteristics. - It is necessary to use relations w/c ratio < 0.5 to get R4 mortars - The addition of polymer always improves adhesion, abrasion, capillary absorption and carbonation resistance - The different proportions of polymer used always improve the mechanical properties and durability. - The polymer has no influence on the expansion and shrinkage of the mortar - Adhesion is improved significantly with the use of polymer. - The presence of polymer in mortars improves the properties related to the action of the water, by the increase of the cement power and therefore the cohesion. The cementitious properties decrease the porosity. As final result of this study, it was determined that the optimum amount of polymer for the second part of the study is 2.0 - 3.5%. The third part is the comparative study between two mortars: one without polymer (A mortar) and another with the optimized amount of polymer, completed in the previous part (mortar B). Once the percentage of polymer is defined, a new granular skeleton is defined, with a new dosing of aggregate sizes, for both the reference mortar, the mortar with polymers, and the tests for physical, microstructural characterization and durability, are performed, as well as trials of part 1, measurements of the microstructural properties that were studied by scanning electron microscopy (SEM) and mercury porosimetry techniques; as well as properties of the mortar in fresh State (consistency, content of entrained air and final setting time). The use of polymer versus non polymer mortar, provided the following advantages: - In fresh state: mortar with polymer presented higher consistency and least amount of entrained air, which makes a mortar more workable and more ductile as well as more resistant because hardening will leave fewer gaps in its internal structure and increase its durability. Also allow it allows a better workability because of the longer (not excessive) setting time. - Regarding the mechanical properties: improvement in adhesion. It is one of the main properties which give the polymer to mortars. This higher adhesion results in an improvement of adhesion to the substrate, minimization of possible reactions at the concrete-mortar interface and therefore an increase in the durability of the repair carried out with mortar and concrete. - Respect to microstructural properties: the porosity of mortar with polymer is less and with smaller pore size, critical to be attacked by external agents causing deterioration. No major differences were observed from the data obtained by SEM - In terms of abrasion and capillary absorption, polymer mortar presented better performance as a result of its lower porosity and its microscopic structure. - Finally behavior against attack by sulfates and seawater, as well as to carbonation, was better in the mortar with polymer because of its lower permeability and its lower porosity. To complete the study, due to the great importance of sustainability for future market facts, the life cycle of the two mortars studied was analysed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El sistema portuario español movió en el año 2013 aproximadamente 458,54 millones de toneladas, 13,8 millones de TEUs, con un total de 131.128 buques que accedieron a puerto para el conjunto de las 28 Autoridades Portuarias. Con el 62% de las exportaciones y el 86% de las importaciones realizadas por vía marítima, una rentabilidad del 2,34 %, muy cerca del objetivo del 2,5 % de rentabilidad media annual establecida legalmente, y una cifra de negocios aproximada de 1.028 millones de euros equivalentes al 1,1 % del PIB que genera un empleo directo e indirecto vinculado de 145.000 personas, concluimos que estamos hablando de un sector estratégico para la economía del país. Desde hace décadas, en muchos puertos del mundo se han venido desarrollando terminales “hub” o de concentración y distribución de cargas. Las navieras concentran entre este tipo de terminales sus líneas transoceánicas con buques de enormes dimensiones y capacidad de carga para producir los tránsitos de contenedores desde estas líneas a otras líneas llamadas “feeder”, con buques de menor tamaño que enlazan el “hub” con los puertos de su área marítima de influencia. La excepcional ubicación geoestratégica de España, con aproximadamente ocho mil kilómetros de costa, ha originado que los puertos españoles de mayor dimensión aspiren a incorporarse a esta red marítima internacional de contenedores y determina que en nuestro sistema portuario los movimientos de contenedores de tránsito tengan gran importancia. Sin embargo, la crisis económica ha tenido un efecto decisivo en el sector marítimo, determinando una lucha feroz entre todos los puertos, nacionales e internacionales, por captar este tipo de tráficos, lo que origina una búsqueda de las compañías navieras de puertos cada vez más eficientes en términos calidad/coste del servicio. La entrada en vigor del Texto Refundido de la Ley de Puertos y la piedra angular de su reforma, la Ley 33/2010, plantea como objetivo principal la mejora de la competitividad del sistema portuario español y liderar su recuperación, ofreciendo unas condiciones de entorno favorables a los puertos españoles que acaben por incentivar la captación de tráficos e inversión privada a través de una oferta de servicios e infraestructura de calidad y a precios competitivos que consoliden su posición dentro del tráfico marítimo mundial. Surge, por tanto, la conveniencia de investigar la influencia de las medidas propuestas por dicha norma legal y las soluciones ofrecidas a las demandas de un sector considerado estratégico para la economía del país, y cuya resolución se considera imprescindible para consolidar su recuperación. Por eso, se han analizado los aspectos más importantes de la reforma mediante la realización de un resumen ejecutivo y se ha estudiado la influencia de las medidas que incorpora desde el punto de vista de tres factores, que previamente se han considerado como fundamentales para la recuperación del sistema portuario español, y que históricamente habían sido demandados por el mismo, como son, en primer lugar, un progresivo sistema de flexibilización tributaria que permitiera a los puertos españoles ganar en términos de competitividad respecto a otros modelos portuarios mucho más flexibles en materia tarifaria, en segundo lugar, una necesaria liberalización del régimen de prestación de los servicios portuarios que posibilite el libre acceso a cualquier interesado en su prestación y, en último lugar, el progresivo abaratamiento de los costes inherentes a dichos servicios, fundamentalmente la manipulación de mercancías. Con posterioridad se ha investigado el trámite parlamentario al que se ha sometido la ley, fruto del enorme consenso alcanzado entre las dos principales fuerzas políticas del país, que determinó que se presentaran más de 700 enmiendas al proyecto original, y en algunos casos, se ha prestado especial atención a determinadas enmiendas que se consideran, en opinión de este investigador, novedosas y aventuradas, razón por la cual quizás no fueron incorporadas definitivamente al texto legal. Y se han analizado las principales demandas y aportaciones extraídas de la Sesión Informativa sobre la tramitación del entonces proyecto de ley ofrecida por la Comisión de Fomento del Congreso de los Diputados a los principales representantes del sector, comunidad portuaria, universidad y sindicatos. Siendo conscientes de la incidencia que tiene el servicio portuario de manipulación de mercancías en el paso de la mercancía por el puerto, se ha hecho una referencia concreta al peculiar régimen jurídico y laboral del personal vinculado al servicio. Avanzamos que las características de la relación laboral especial, y su peculiar régimen jurídico, con una dualidad de relaciones laborales, tiene una influencia decisiva en la nómina del trabajador que se repercute en los usuarios del servicio, fundamentalmente el naviero y el operador de la terminal, que en definitiva, incide en la competitividad del puerto. Y se ha constatado el auge aperturista de numerosas legislaciones portuarias europeas, prestando especial atención al proyecto frustrado de liberalización de los servicios portuarios en la Unión Europea de la conocida como Directiva Loyola de Palacio del año 2003 y al Libro Blanco de Transportes del año 2011. Así como a las deficiencias advertidas por el Dictamen de la Comisión Europea de fecha 27/09/2012 en relación al régimen jurídico del servicio portuario de manipulación de mercancías, que lo considera disconforme y contrario con las normas de libertad de establecimiento en Europa y que amenaza con una previsible reforma unilateral de la legislación portuaria española, a instancias europeas. Bajo este planteamiento, se ha procedido a analizar el marco de prestación de dichos servicios desde el punto de vista de la propia comunidad portuaria. Inicialmente, a través de un estudio de fuerzas de la competitividad del sector de los servicios portuarios en el sistema portuario español que nos permitirá trazar un mapa estratégico del mismo a través del “Modelo de las Cinco Fuerzas de Porter” concluyendo, que el poder de los prestadores de servicios portuarios como proveedores de los mismos, fundamentalmente en la manipulación de mercancías, es máximo, con un único colectivo, los estibadores portuarios, que al amparo de la normativa legal vigente tienen la exclusividad de su prestación. Dichas circunstancias restan competitividad al sistema frente a alternativas portuarias más flexibles y desincentivan la inversión privada. Y, en segundo lugar, mediante un proceso participativo en distintas encuestas sobre el modelo legislativo y sobre el marco formativo del sector con los propios agentes afectados dentro de la comunidad portuaria, desde la triple perspectiva de la vertiente pública que representan las Autoridades Portuarias, como gestores de las infraestructuras, la vertiente privada que representan los usuarios y prestadores de servicios, como principal cliente del puerto y desde el punto de vista de la propia mano de obra portuaria materializada en la representación sindical de dichos trabajadores. Los resultados nos permitirán concluir, respectivamente, la incidencia del servicio portuario mercancía por el puerto, por representar más de la mitad de los costes. Así como la aspiración de los trabajadores adscritos a dicho servicio de consolidar un título formativo que unifique y potencie su capacitación profesional, circunstancia esta última, también demandada por toda comunidad portuaria. Analizadas las conclusiones extraídas en cada una de las líneas de investigación se han detectado una serie de ineficiencias dentro del mismo que dicho marco regulador no ha sabido resolver, por lo que se ha considerado la conveniencia de formular, como herramienta de ayuda a gestores del sistema portuario español, una relación de medidas que, en opinión de este investigador, se consideran necesarias para mejorar el régimen de prestación de los servicios portuarios y se ha propuesto un borrador de modificación del actual Texto Refundido que pueda servir de base para materializar una futura reforma legal. Las conclusiones obtenidas en la investigación deben sentar las bases de una profunda reflexión sobre la necesidad de encaminar, como alternativa a una previsible modificación a instancias europeas, una reforma legal que decididamente apueste por la competitividad del sistema portuario español desde el punto de vista de la liberalización de servicios, el abaratamiento de los costes de la estiba y la necesaria profesionalización de los trabajadores adscritos al servicio portuario de manipulación de mercancías. During 2013 the Spanish Port System moved nearly 458,54 million tons of freight, 13,8 million TEUs, involving a total of 131.128 ships for the 28 existing Port Authorities. With 62% of exports and 86% of imports made through sea transportation, a 2,34% profit, close to the 2,5% average annual profit goal legally established, revenues of 1.028 million € equivalent to a 1.1% of Spain’s GDP and a figure of 145.000 people a directly or indirectly employed we can conclude that maritime industry is undoubtedly one of the strategic and key sectors for the country’s economy. Since several decades many ports in the world have been increasingly developing “Hub” terminals, those which concentrate and distribute freight. Shipping companies place among these type of terminals their transoceanic sea liners along with huge dimension & capacity ships to make the container transit from these liners to other called “feeder” which are smaller freight ships that connect the “hub” with the ports within its maritime area of influence. Spain’s exceptional geostrategic location with over 8.000 km of coastline has originated that those big dimension Spanish ports aspire to become a part of a container international maritime network which also determines that transit container move is key within our port system. Nevertheless the economic crisis has had a decisive impact on the maritime sector originating a fierce battle between all ports, national and international ones, all of them fight against each other to catch this type of maritime traffic which triggers an ongoing shipping companies search in cost/service quality efficient ports. The cornerstone of the Restated Text of Port Law is Law 33/2010, which lays out as main goal the Spanish Port System competitiveness improvement and lead its recovery offering favorable environment conditions to Spanish ports which help encourage maritime traffic attraction and private investment through a wide offer of services, quality of infrastructure and competitive prices which can consolidate its positioning within the world’s maritime traffic. It is therefore key to investigate the influence of the measures proposed by the above mentioned law and also the solutions offered to the demands of a sector which is considered strategic for the country’s economy and which solution is essential to consolidate the recovery. It is because of this that the most important aspects of the reform have been analyzed through the making of an executive summary and it has also been studied the influence of the measures it includes from the point of view of three factors which have previously been considered as key for the Spanish port system recovery. The system has historically demanded a progressive tax flexibility, which would permit Spanish ports be more competitive compared to other port models much more flexible in rates, a necessary liberalization of the port service provision regime and last but not least, to cut the price of costs related to those services, mainly freight handling. Following this, the parliamentary process of the law has also been studied as a consequence of the vast consensus reached by the main political forces in the country which clearly determined that more than 700 amendments to the original project were presented. In some cases the focus has been on amendments which are adventurous and new, reason why they were finally not included to the final legal text. Being well aware of the importance that freight handling procedure has, I have made a specific reference to the legal and working framework of those employees related to this service. We conclude that the special working relationship, its different legal regime, along with the working relationship dualism has a big impact and decisive influence over the worker’s salary which also affects service users, mainly shipowners and terminal operators, having a bad effect on the port’s competitiveness. The above confirms the new opening trend of main European port laws with special attention to the frustrated European Union port services liberalization project, also known as Directive Loyola de Palacio (2003) and the White Paper on Transports (2011). It is important to highlight that the European Commission has also observed several deficiencies with regard to the freight handling port service Law Regime being in disagreement with it, considering it is against the free establishment rules in Europe. The Commission is likely to present a unilateral reform to the Spanish Port Law. Under this approach the service provision framework is being analyzed from the Port Community point of view. Initially the analysis will focus on the study of the competition forces within the port services industry in Spain, this will allow us to draw up an strategic map through “Porter’s Five Forces Model” concluding that the power of port services providers as freight handlers is maximum, with an only collective, stevedores, which has the exclusivity for their services. All these circumstances not only decrease the system’s competitiveness versus other more flexible but also restrain private investments. Secondly, through a participating procedure in different surveys about the legislative model and about the training framework with the affected agents within the port community, there is a triple perspective: Public point of view represented by Port Authorities as infrastructure managers, Private point of view represented by users and service suppliers as main Port’s customer and finally, port workforce, represented by union leaders. Results will let us conclude that freight handling service is the most critical port service and represents more than half of the costs. This service related workers aspire to obtain a training certificate that unifies and boosts their professional role which is also chased by the entire port community. Once conclusions have been analyzed for all research lines, several deficiencies have been found and the regulatory framework hasn’t yet been able to solve them, it has therefore been a series of necessary measures that help improve the port services provision regime. A new proposal to the Restated Law Text has been drafted as the first step to embrace a future legal reform. Conclusions obtained on the research should set the new basis of a deep reflection about the need to bent on a new legal reform which firmly bets on Spanish port system competitiveness from three key points of view, service liberalization, ship load cost reduction and professionalization of freight handling related workers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Phaseolus vulgaris L. (frijol común o judía) es una leguminosa de gran demanda para la nutrición humana y un producto agrícola muy importante. Sin embargo, la producción de frijol se ve limitada por presiones ambientales como la sequía. En México, el 85% de la cosecha de frijol se produce en la temporada de primavera-verano, principalmente en las regiones del altiplano semiárido con una precipitación anual entre 250 y 400 mm. A pesar del implemento de tecnología en el campo, los factores naturales impiden al agricultor llegar a los rendimientos deseados. El Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias (INIFAP), como instituto de investigación gubernamental en México, tiene como objetivo la mejora de cultivos estratégicos, uno de ellos, P. vulgaris. Los estudios en relación a la sequía se enfocan especialmente en la selección de genotipos tolerantes, los cuales son sometidos en condiciones de estrés y monitoreando parámetros como el rendimiento y peso de semilla, además de algunos indicadores tales como índice de cosecha. El resultado de estos trabajos ha sido la obtención de variedades con mayor tolerancia a la sequía, tales como Pinto Villa y Pinto Saltillo. En los últimos años se ha avanzado notablemente en el conocimiento de las bases moleculares en las respuestas de las plantas al estrés. De acuerdo a diversos estudios se ha demostrado que las plantas bajo estrés por sequía experimentan cambios en la expresión de genes involucrados en la señalización, regulación de la transcripción y la traducción, transporte de agua y la función directa en la protección celular. También se ha observado que el déficit de agua es causado por las temperaturas extremas y la alta concentración de sales, por lo que al nivel molecular, las respuestas al estrés tienen puntos de especificidad y puntos de entrecruzamiento. La sequía puede generar estreses secundarios, tales como el nutricional, oxidativo y osmótico. Sin embargo, es necesario identificar y caracterizar muchos de los componentes involucrados en las respuestas al déficit hídrico, la caracterización de estos genes permitirá tener una mejor comprensión de los mecanismos bioquímicos y fisiológicos involucrados en la tolerancia al estrés. Actualmente, con el apoyo de la biología molecular se han identificado algunos genes que otorgan ventajas para la adaptación a ambientes desfavorables. Por lo que el objetivo del presente trabajo es identificar marcadores genéticos asociados a rasgos fenotípicos con énfasis a la tolerancia a estrés hídrico en P. vulgaris. Una vez establecidos los marcadores asociados al estrés hídrico, es factible considerar su uso para la selección asistida por marcadores en líneas o variedades de frijol de interés para los mejoradores. Se evaluaron 282 familias F3:5 derivadas de la cruza entre los cultivares Pinto Villa y Pinto Saltillo. Las familias se sembraron bajo un diseño simple de látice 17x17, el experimento se llevo acabo en el ciclo primavera-verano del 2010 y 2011, y otoñoinvierno de 2010 en el Campo Experimental Bajío del INIFAP con dos repeticiones para cada tratamiento de humedad (riego completo y sequía terminal). En todos los genotipos se realizó el fenotipado (variables fenotípicas) y el genotipado a través de marcadores moleculares. Los análisis estadísticos se basaron en el análisis de componentes principales (Eigen Analysis Selection Index Method, ESIM), la asociación entre marcadores SNP y el fenotipado (paquete SNPassoc para R) y el análisis de varianza (ANOVA). Los valores ESIM mostraron que las variables de Rendimiento, Días a floración, Días a madurez fisiológica e Índice de cosecha fueron sobresalientes en sequía terminal, por lo que se sugieren tomarse en consideración para los estudios de sequía en P. vulgaris como monitores de evaluación a la resistencia. Se identificaron nueve familias sobresalieron por sus valores ESIM (PV/PS6, 22, 131, 137, 149, 154, 201, 236 y 273), además de presentar valores superiores para el rendimiento en comparación con los parentales. Estos genotipos son candidatos interesantes para realizar estudios de identificación de loci asociados con la respuesta al estrés, y como potenciales parentales en el desarrollo de nuevas variedades de frijol. En los análisis de asociación SNPassoc se identificaron 83 SNPs significativos (p<0,0003) asociados a los rasgos fenotípicos, obteniendo un total de 222 asociaciones, de las cuales predomina el modelo genético de codominancia para las variables Días a floración, Periodo reproductivo y Biomasa total. Treinta y siete SNPs se identificaron a diferentes funciones biológicas a través del análisis de anotación funcional, de los cuales 12 SNPs (9, 18, 28, 39, 61, 69, 80, 106, 115, 128, 136 y 142) sobresalen por su asociación al fenotipado, y cuya anotación funcional indica que se encuentran en genes relacionados a la tolerancia a la sequía, tales como la actividad kinasa, actividad metabólica del almidón, carbohidratos y prolina, respuesta al estrés oxidativo, así como en los genes LEA y posibles factores de transcripción. En el caso de los análisis ANOVA, se identificaron 72 asociaciones entre los SNPs y las variables fenotípicas (F< 3,94E-04). Las 72 asociaciones corresponden a 30 SNPs y 7 variables fenotípicas, de las que predomina Peso de 100 semillas y Periodo reproductivo. Para los rasgos de Rendimiento, Índice de cosecha y Días a madurez fisiológica se presentaron asociaciones con seis SNPs (17, 34, 37, 50, 93 y 107), de los cuales, a los SNP37 y SNP107 fueron identificados a la anotación biológica de protein binding. Por otro lado, los SNP106 y SNP128 asociados al Periodo reproductivo, son genes con actividad kinasa y actividad metabólica del almidón, respectivamente. Para los marcadores tipo AFLP, se identificaron 271 asociaciones (F<2,34E-04). Las asociaciones corresponden a 86 AFLPs con todas las variables fenotípicas evaluadas, de las que predomina peso de 100 semillas, Días a floración y Periodo reproductivo. Debido a que los en los AFLPs no es posible determinar su anotación biológica, se proponen como marcadores potenciales relacionados a la resistencia a la sequía en frijol. Los AFLPs candidatos requieren más estudios tales como la secuenciación de los alelos respectivos, así como la identificación de éstas secuencias en el genoma de referencia y su anotación biológica, entre otros análisis, de esta manera podríamos establecer aquellos marcadores candidatos a la validación para la selección asistida. El presente trabajo propone tanto genotipos como marcadores genéticos, que deben ser validados para ser utilizados en el programa de mejoramiento de P. vulgaris, con el objetivo de desarrollar nuevas líneas o variedades tolerantes a la sequía. ABSTRACT Phaseolus vulgaris L. (common bean or judia) is a legume of great demand for human consumption and an important agricultural product. However, the common bean production is limited by environmental stresses, such as drought. In Mexico, 85% of the common bean crop is produced in the spring-summer season mainly in semiarid highland regions with a rainfall between 250 and 400 mm per year. In spite of the improvement of crop technology, the natural factors hamper getting an optimal yield. The National Institute for Forestry, Agriculture and Livestock (INIFAP) is a government research institute from Mexico, whose main objective is the genetic breeding of strategic crops, like P. vulgaris L. The drought tolerance studies particularly focus on the selection of bean tolerant genotypes, which are subjected to stress conditions, by means of monitoring parameters such as yield and seed weight, plus some agronomic indicators such as harvest index. The results of these works have led to obtain cultivars with higher drought tolerance such as Pinto Villa and Pinto Saltillo. Significant achievements have been recently made in understanding the molecular basis of stress plant responses. Several studies have shown that plants under drought stress present changes in gene expression related to cell signalling, transcriptional and translational regulation, water transport and cell protection. In addition, it has been observed that the extreme temperatures and high salt concentrations can cause a water deficiency so, at the molecular level, stress responses have specific and crossover points. The drought can cause secondary stresses, such as nutritional, oxidative and osmotic stress. It is required the identification of more components involved in the response to water deficit, the characterization of these genes will allow a better understanding of the biochemical and physiological mechanisms involved in stress tolerance. Currently, with the support of molecular biology techniques, some genes that confer an advantage for the crop adaptation to unfavourable environments have been identified. The objective of this study is to identify genetic markers associated with phenotypic traits with emphasis on water stress tolerance in P. vulgaris. The establishment of molecular markers linked to drought tolerance would make possible their use for marker-assisted selection in bean breeding programs. Two hundred and eighty two F3:5 families derived from a cross between the drought resistant cultivars Pinto Villa and Pinto Saltillo were evaluated. The families were sowed under a 17x17 simple lattice design. The experiment was conducted between spring-summer seasons in 2010 and 2011, and autumn-winter seasons in 2010 at the Bajio Experimental Station of INIFAP with two treatments (full irrigation and terminal drought). All families were phenotyped and genotyped using molecular markers. Statistical analysis was based on principal component analysis (Eigen Analysis Selection Index Method, ESIM), association analysis between SNP markers and phenotype (SNPassoc package R) and analysis of variance (ANOVA). The ESIM values showed that seed yield, days to flowering, days to physiological maturity and harvest index were outstanding traits in terminal drought treatment, so they could be considered as suitable parameters for drought-tolerance evaluation in P. vulgaris. Nine outstanding families for the ESIM values were identified (PV/PS6, 22, 131, 137, 149, 154, 201, 236 and 273), in addition, these families showed higher values for seed yield compared to the parental cultivars. These families are promising candidates for studies focused on the identification of loci associated to the stress response, and as potential parental cultivars for the development of new varieties of common bean. In the SNPassoc analysis, 83 SNPs were found significantly associated (p<0.0003) with phenotypic traits, obtaining a total of 222 associations, most of which involved the traits days to flowering, reproductive period and total biomass under a codominant genetic model. The functional annotation analysis showed 37 SNPs with different biological functions, 12 of them (9, 18, 28, 39, 61, 69, 80, 106, 115, 128, 136 and 142) stand out by their association to phenotype. The functional annotation suggested a connection with genes related to drought tolerance, such as kinase activity, starch, carbohydrates and proline metabolic processes, responses to oxidative stress, as well as LEA genes and putative transcription factors. In the ANOVA analysis, 72 associations between SNPs and phenotypic traits (F<3.94E- 04) were identified. All of these associations corresponded to 30 SNPs markers and seven phenotypic traits. Weight of 100 seeds and reproductive period were the traits with more associations. Seed yield, harvest index and days to physiological maturity were associated to six SNPs (17, 34, 37, 50, 93 and 107), the SNP37 and SNP107 were identified as located in protein binding genes. The SNP106 and SNP128 were associated with the reproductive period and belonged to genes with kinase activity and genes related to starch metabolic process, respectively. In the case of AFLP markers, 271 associations (F<2.34E-04) were identified. The associations involved 86 AFLPs and all phenotypic traits, being the most frequently associated weight of 100 seeds, days to flowering and reproductive period. Even though it is not possible to perform a functional annotation for AFLP markers, they are proposed as potential markers related to drought resistance in common bean. AFLPs candidates require additional studies such as the sequencing of the respective alleles, identification of these sequences in the reference genome and gene annotation, before their use in marker assisted selection. This work, although requires further validation, proposes both genotypes and genetic markers that could be used in breeding programs of P. vulgaris in order to develop new lines or cultivars with enhanced drought-tolerance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado (PFG) tiene como objetivo diseñar e implementar un sistema que genere un fichero de texto que contenga la configuración básica de un encaminador. De esta manera se desea mejorar la eficiencia del personal del departamento donde se va a implantar dicho sistema, liberando a los miembros del mismo de un trabajo repetitivo que se hace varias veces al día. Hasta ahora, esta configuración la realiza cada instalador. Para ello, una vez que se ha cargado y probado la configuración en distintos equipos de manera satisfactoria, se generan un conjunto de plantillas que sirven de modelo para las siguientes configuraciones. Aunque el instalador toma estas plantillas como punto de partida, tiene que modificar manualmente todas las variables que dependen de cada configuración particular. Por tanto, aunque no ha de ejecutar todos los comandos paso a paso, sí debe hacer una revisión total de cada plantilla para generar la configuración adecuada y después cargarla en el encaminador. Para cada configuración se consultan un total de entre tres y siete plantillas. Si a esto se añade que en el departamento se configuran encaminadores de la marca Cisco y Teldat, que de cada marca se utilizan distintos modelos y que la empresa ofrece cuatro tipos de servicio, cada uno con sus particularidades, la tarea de configurar un equipo es costosa. El sistema estará constituido por un servidor web que alojará una base de datos y un programa que permite realizar operaciones de consulta sobre la misma, un sitio web sencillo que hará las funciones de interfaz de usuario y una aplicación que permite generar el fichero de texto que contiene la configuración del encaminador en base a una serie de condicionantes. La base de datos desarrollada es una representación de la utilizada en el entorno real que tiene como objetivo realizar simulaciones del funcionamiento que tendrá el sistema. Por su parte, la funcionalidad del sitio web debe ser la de ofrecer al usuario una interfaz sencilla de utilizar y de interpretar, a través de la cual se puedan realizar consultas a la base de datos así como presentar los resultados de dichas consultas de forma ordenada. La aplicación se encargará de validar los datos a partir de los que se va a generar la configuración, determinar qué plantillas se deben consultar en función a aspectos como el servicio a configurar o la marca del encaminador y finalmente generar el fichero de texto resultado. De este modo, el instalador simplemente tendrá que volcar la información de dicho fichero sobre el encaminador. El sistema se ha diseñado de manera que sea lo más flexible a cambios, puesto que la idea de los miembros del departamento es ampliar la funcionalidad de esta herramienta. ABSTRACT. This Final Degree Project is focused on the design and implementation of a system which is able to generate a text file that contains the basic configuration of a router. With this system we want to improve the efficiency of the department members where this system is going to be introduced, releasing them from repetitive work which is done several times per day. Up to now, each installer has to configure the router manually. After checking the configuration of several devices successfully, they create a set of templates which work as models. Although the installers use those templates, they have to modify the variables that depend on the specific features of each kind of configuration. Thus, even though they don´t have to execute the commands step by step, they have to do a review of each used template in order to generate the right configuration. For each configuration, three to seven templates have to be checked. In addition, if the configured routers are both Cisco and Teldat, there are several models per brand and the company offers four types of services to be installed, so the configuration becomes a hard task to do. The system is comprised of a web server in which both the database and the program responsible for doing queries are hosted, a simple web site that will be the graphic user interface, and an application focused on generating the text file which contains the router configuration based on a set of conditions. The developed database is the representation of the real one and its aim is to simulate the way the system will work. The function of the web site is to offer an easy interface whereby you can submit a query or you can see the obtained results as a data table. Furthermore, the application has to validate the data in which the text file with the router configuration is based on. Then, it has to decide which templates it is going to use according to different aspects, such as the brand of the router or the type of service we want to configure. Finally, the application generates a text file with the necessary commands. As a result of this, the user of the system only has to copy the contents of this file to the router. The system has been designed to be flexible to changes because the members of the department want to increase the utility of this tool in the future.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo recoge los resultados de una investigación sobre la «vivienda productiva», es decir, de la casa como lugar de trabajo. Dicha investigación se ha ocupado de explorar cómo influyen las cotidianeidades doméstico-laborales actuales —junto con sus arquitecturas y los urbanismos que estas generan— en la sociedad, en especial en temas sociales centrales como la construcción de las subjetividades, y de una vida en comunidad. Asimismo, explora cómo podrían influir en un futuro. La hipótesis sobre la que se trabaja, y que finalmente se intenta demostrar, consiste en que, en la territorialidad múltiple de lo laboral, la vivienda, como plataforma doméstica multiusos, productiva y reproductiva de la que muchas personas disponen, desempeña un papel nodal, y es posible que en el futuro su papel sea aún más importante y más visible. La vivienda productiva funciona como una infraestructura urbana desde la cual se construyen diferentes tipos de bienes materiales e inmateriales, pero sobre todo formas de relación, sociales y productivas con otros, además de imaginarios y afectos. La vivienda como infraestructura productiva y reproductiva es tanto «fábrica fundamental de lo social», como nos enseña Silvia Federici, como «fábrica de lo urbano». El trabajo en casa, como parte de diferentes dinámicas «dispersas» del trabajo que se dan en la actualidad, presenta tanto problemáticas y desafíos importantes, como capitales y posibilidades sociales. Por un lado, puede facilitar una absorción de tipo «24/7» vinculada a las lógicas de producción dispersa y consumo dominantes además de la que se da por las dinámicas patriarcales tradicionales, y en múltiples casos situaciones de evidente asimetría y de explotación laboral. También puede propiciar situaciones socialmente extendidas o impuestas de soledad y aislamiento. Sin embargo, está asimismo vinculado al surgimiento de espacios de experimentación tanto en soledad como en compañía, de cooperación y de intercambio, además de a la evidente posibilidad de construir rutinas propias y, por tanto, una subjetividad laboral propia. Por otro lado, frente a la idea general y homogénea del trabajador casero como un sujeto mayoritariamente aislado de su entorno, las jornadas de trabajo de los trabajadores caseros estudiados presentan una gran diversidad. Estas pueden conllevar aislamiento y exclusión, así como acompañar diferentes formas de construcción de una ciudadanía activa, tanto en solitario, como mediante formas de participación activa en la construcción de una vida en comunidad. En esta investigación se analizan, pues, desafíos y oportunidades de estas espacialidades del trabajo y, a través de este análisis, se indaga en el papel de los marcos físicos, organizativos y simbólicos actuales para la vivienda y para la ciudad pensada desde los trabajadores caseros. Al mismo tiempo se exploran nuevos tipos de vivienda y urbanismos que puedan quizás acompañar procesos sociales de inclusión, así como de emancipación, cooperación e intercambio y, en general, nuevas formas de vecindad y bienestar compartido en los ámbitos doméstico-productivos. Metodológicamente, las singularidades presentes en las realidades estudiadas invitan además a explorar protocolos de análisis, métodos de diseño, de gestión y gobierno que, desde lo micro, puedan dialogar con lo cotidiano y sus singularidades. Diego Barajas, autor de la tesis, es arquitecto dedicado a la práctica, a la investigación y la docencia. Su trabajo se focaliza en explorar el carácter mediador de la arquitectura frente a lo cotidiano y sus microrrealidades. Es profesor de proyectos de urbanismo en la IE School of Architecture y es miembro de Husos, una plataforma de investigación y diseño orientada a la innovación en arquitectura y urbanismo, con sede en Madrid. Es el autor del libro Dispersion, A Study of Global Mobility and the Dynamics of a Fictional Urbanism (Episode Publishers, Róterdam, 2003). Sus trabajos teóricos y de investigación han aparecido en libros y revistas internacionales tales como The Domestic and The Foreign in Architecture (010 Publishers, 2008), Public Spheres, a Europan Discussion (Europan9, 2007), Photoespaña 05 (La Fábrica, Madrid, 2005), Domus, Volume, Abitare, Architese, Plot, y Summa+. Su trabajo se ha expuesto en la Bienal de Venecia (selección principal), la Bienal de Róterdam, la Fundación Tapies, Photoespaña, entre otros y es parte de la colección permanente del FRAC Centre en Orleans y del Historisch Museum de Róterdam entre otros. Antes de estudiar en Róterdam, se gradúa con Honores en la Universidad de los Andes en 1999 y su tesis de grado de arquitectura recibe la máxima distinción como proyecto de Grado Meritorio. ABSTRACT The present study records an investigation into the «productive house», or the home as a workplace. This investigation looks at how working from home, its architectures, and the urban dynamics generated around it influence daily life and the construction of society. It also explores what influences home-based work might have in the future, particularly in central themes such as the biopolitical construction of subjectivities and community life. The central hypothesis revolves around the idea that the home, as a multi-use infrastructure that most of us have access to, plays a fundamental role in the contemporary work sphere, due to —or even in spite of— the omnipresence of work in practically every moment and area of our daily lives, and might play a main role in the future. The home functions as a kind of hub from which we create different kinds of material and immaterial goods, but above all relationships with others, both social and productive, as well as imaginaries and affections. The home, as a machine for production and reproduction, is as much a main «factory of the social» as Silvia Federici describes it, as a «factory of the urban». Working from home, as one of several «dispersed» work dynamics that are part of the contemporary world of work, presents as many important problematics and challenges as it does possibilities and social capital. On the one hand, it can contribute to kind of «24/7» absorption linked both to the logistics of the current dispersed production and consumption, and to that of traditional patriarchal dynamics, and in some cases even clearly asymmetrical situations that exploit the workforce. It can also lead to the socially widespread phenomena of isolation and loneliness, at times imposed upon home-based workers. However, by the same token, it is also linked to the growth of experimental spaces of cooperation and exchange, both solitary and in company, as well as the clear possibility of constructing individualised routines and, therefore, a personal laboural subjectivity. On the other hand, contrary to the generalised, homogenous idea of a home-based worker who is mostly isolated from his or her environment, the working days of those we studied went hand in hand with different ways of building subjectivities. This could be as much in exclusion and isolation as through building an active citizenship, at times in solitary and at times actively participating in the construction of communal life. In this investigation, therefore, the challenges and opportunities of the home as workplace have been analysed, and through this analysis we have inquired into the role of current physical, organisational and symbolic frameworks for the home and for the city from the perspective of home workers. At the same time we have explored new types of homes and of town planning that could perhaps accompany social processes of diversity and inclusion as well as emancipation, cooperation and exchange and, in general, new forms of shared welfare in productive domestic environments. Methodologically, the singularities present in the cases studied also invite us to explore protocols of analysis, methods of design, management and government that, from the micro level, could dialogue with the peculiarities of day-to-day life. The author of this thesis, Diego Barajas, is an architect dedicated to practice, investigation and teaching. His work is focussed on exploring the mediating nature of architecture and the built environment in terms of daily life and its microrealities. He is professor of urban projects at the IE School of Architecture and member of Husos, a platform for investigation and town planning based in Madrid. He is the author of the book Dispersion, A Study of Global Mobility and the Dynamics of a Fictional Urbanism (Episode Publishers, Rotterdam, 2003) and his theoretical works and investigations have appeared in books such as The Domestic and The Foreign in Architecture (010 Publishers, 2008), Public Spheres, a Europan Discussion (Europan9, 2007), Photoespaña 05 (La Fábrica, Madrid, 2005), and in international magazines such as Domus, Volume, Abitare, Architese, Plot and Summa+. His work has been exhibited in places such as the Venice Biennial (main selection), the Rotterdam Biennial, the Tapies Foundation and Photoespaña, among others, and forms part of the permanent collection of the FRAC Centre in Orleans and the Historisch Museum of Rotterdam. Before studying in Rotterdam, he graduated with Honours from the University of the Andes in 1999, and his architecture degree thesis received the maximum distinction of Meritorious Graduation Project.