86 resultados para Características geométricas estables y robustas
Resumo:
La influencia de la aerodinámica en el diseño de los trenes de alta velocidad, unida a la necesidad de resolver nuevos problemas surgidos con el aumento de la velocidad de circulación y la reducción de peso del vehículo, hace evidente el interés de plantear un estudio de optimización que aborde tales puntos. En este contexto, se presenta en esta tesis la optimización aerodinámica del testero de un tren de alta velocidad, llevada a cabo mediante el uso de métodos de optimización avanzados. Entre estos métodos, se ha elegido aquí a los algoritmos genéticos y al método adjunto como las herramientas para llevar a cabo dicha optimización. La base conceptual, las características y la implementación de los mismos se detalla a lo largo de la tesis, permitiendo entender los motivos de su elección, y las consecuencias, en términos de ventajas y desventajas que cada uno de ellos implican. El uso de los algorimos genéticos implica a su vez la necesidad de una parametrización geométrica de los candidatos a óptimo y la generación de un modelo aproximado que complementa al método de optimización. Estos puntos se describen de modo particular en el primer bloque de la tesis, enfocada a la metodología seguida en este estudio. El segundo bloque se centra en la aplicación de los métodos a fin de optimizar el comportamiento aerodinámico del tren en distintos escenarios. Estos escenarios engloban los casos más comunes y también algunos de los más exigentes a los que hace frente un tren de alta velocidad: circulación en campo abierto con viento frontal o viento lateral, y entrada en túnel. Considerando el caso de viento frontal en campo abierto, los dos métodos han sido aplicados, permitiendo una comparación de las diferentes metodologías, así como el coste computacional asociado a cada uno, y la minimización de la resistencia aerodinámica conseguida en esa optimización. La posibilidad de evitar parametrizar la geometría y, por tanto, reducir el coste computacional del proceso de optimización es la característica más significativa de los métodos adjuntos, mientras que en el caso de los algoritmos genéticos se destaca la simplicidad y capacidad de encontrar un óptimo global en un espacio de diseño multi-modal o de resolver problemas multi-objetivo. El caso de viento lateral en campo abierto considera nuevamente los dos métoxi dos de optimización anteriores. La parametrización se ha simplificado en este estudio, lo que notablemente reduce el coste numérico de todo el estudio de optimización, a la vez que aún recoge las características geométricas más relevantes en un tren de alta velocidad. Este análisis ha permitido identificar y cuantificar la influencia de cada uno de los parámetros geométricos incluídos en la parametrización, y se ha observado que el diseño de la arista superior a barlovento es fundamental, siendo su influencia mayor que la longitud del testero o que la sección frontal del mismo. Finalmente, se ha considerado un escenario más a fin de validar estos métodos y su capacidad de encontrar un óptimo global. La entrada de un tren de alta velocidad en un túnel es uno de los casos más exigentes para un tren por el pico de sobrepresión generado, el cual afecta a la confortabilidad del pasajero, así como a la estabilidad del vehículo y al entorno próximo a la salida del túnel. Además de este problema, otro objetivo a minimizar es la resistencia aerodinámica, notablemente superior al caso de campo abierto. Este problema se resuelve usando algoritmos genéticos. Dicho método permite obtener un frente de Pareto donde se incluyen el conjunto de óptimos que minimizan ambos objetivos. ABSTRACT Aerodynamic design of trains influences several aspects of high-speed trains performance in a very significant level. In this situation, considering also that new aerodynamic problems have arisen due to the increase of the cruise speed and lightness of the vehicle, it is evident the necessity of proposing an optimization study concerning the train aerodynamics. Thus, the aerodynamic optimization of the nose shape of a high-speed train is presented in this thesis. This optimization is based on advanced optimization methods. Among these methods, genetic algorithms and the adjoint method have been selected. A theoretical description of their bases, the characteristics and the implementation of each method is detailed in this thesis. This introduction permits understanding the causes of their selection, and the advantages and drawbacks of their application. The genetic algorithms requirethe geometrical parameterization of any optimal candidate and the generation of a metamodel or surrogate model that complete the optimization process. These points are addressed with a special attention in the first block of the thesis, focused on the methodology considered in this study. The second block is referred to the use of these methods with the purpose of optimizing the aerodynamic performance of a high-speed train in several scenarios. These scenarios englobe the most representative operating conditions of high-speed trains, and also some of the most exigent train aerodynamic problems: front wind and cross-wind situations in open air, and the entrance of a high-speed train in a tunnel. The genetic algorithms and the adjoint method have been applied in the minimization of the aerodynamic drag on the train with front wind in open air. The comparison of these methods allows to evaluate the methdology and computational cost of each one, as well as the resulting minimization of the aerodynamic drag. Simplicity and robustness, the straightforward realization of a multi-objective optimization, and the capability of searching a global optimum are the main attributes of genetic algorithm. However, the requirement of geometrically parameterize any optimal candidate is a significant drawback that is avoided with the use of the adjoint method. This independence of the number of design variables leads to a relevant reduction of the pre-processing and computational cost. Considering the cross-wind stability, both methods are used again for the minimization of the side force. In this case, a simplification of the geometric parameterization of the train nose is adopted, what dramatically reduces the computational cost of the optimization process. Nevertheless, some of the most important geometrical characteristics are still described with this simplified parameterization. This analysis identifies and quantifies the influence of each design variable on the side force on the train. It is observed that the A-pillar roundness is the most demanding design parameter, with a more important effect than the nose length or the train cross-section area. Finally, a third scenario is considered for the validation of these methods in the aerodynamic optimization of a high-speed train. The entrance of a train in a tunnel is one of the most exigent train aerodynamic problems. The aerodynamic consequences of high-speed trains running in a tunnel are basically resumed in two correlated phenomena, the generation of pressure waves and an increase in aerodynamic drag. This multi-objective optimization problem is solved with genetic algorithms. The result is a Pareto front where a set of optimal solutions that minimize both objectives.
Resumo:
En este trabajo se analizan en profundidad tanto las características metalúrgicas (composición y estructura) como las geométricas (forma, anclaje, textura superficial, rugosidad), de las camisas de cilindro, así como la influencia de dichas características en la aparición de diversos tipos de fallos y/o un elevado consumo de aceite del motor.Los parámetros esenciales en las medidas de estas características son analizados a partir de la inspección macrográfica de la pieza. El fenómeno de cavitación, proceso de corrosión específico de materiales metálicos en contacto con líquidos, es estudiado en profundidad y su incidencia en el funcionamiento de las camisas de cilindro. Se proponen las características óptimas que debe tener una camisa de cilindro con el objetivo de evitar l a incidencia de fallos internosasí como la aparición de cavitación.
Resumo:
El objetivo del presente Proyecto Fin de Grado es la realización de una comparativa de los resultados obtenidos en las medidas de SAR (tasa de absorción específica) y potencia utilizando la normativa europea CENELEC (basada en la del IEC) y la americana FCC (basada en la del IEEE) para distintos dispositivos móviles duales. En primer lugar se ha realizado el estudio de sus características de potencia y de SAR, viendo la variación que hay con respecto a las distintas normativas y rangos de frecuencias. En algunos casos, aunque funcionan sin problema alguno en las diferentes bandas, la diferencia de niveles de emisiones obtenidos en las diferentes bandas puede ser notable. Como se ha comentado al comienzo, se han utilizado diferentes dispositivos duales y se realizaron en ellos las medidas pertinentes utilizando las diferentes normativas y el procedimiento indicado en cada una de ellas. Para observar las diferencias concretas que pudieran existir al utilizar las diferentes normativas, las medidas se han realizado en todas las bandas de funcionamiento del dispositivo y para cada una de ellas se han aplicado las diferentes normativas. Con esto se pretende evaluar si pudiera existir alguna discrepancia en los dispositivos que tienen el certificado de conformidad para una norma concreta cuando se utiliza en otra banda que no es exactamente la banda de utilización de esa norma. En resumen, se quería comprobar que un dispositivo que está certificado con la norma de una región, por ejemplo Europa (900 y 1800 MHz), también cumple si se utiliza en otra región, por ejemplo América (850 y 1900 MHz). La realización práctica del presente PFG se ha hecho en las instalaciones del Laboratorio de Radiofrecuencia de la Secretaría de Estado de Telecomunicación y para la Sociedad de la Información ubicado en El Casar (Guadalajara). En concreto se utilizó el robot articulado movible DASY4 y el software para su control DASY 52.8, disponible en el “banco de medida de Campos Electromagnéticos (Sala de SAR)”. La duración estimada del presente PFG ha sido aproximadamente de cuatro meses. Para llevar a cabo el presente PFG, se dispuso de todo tipo de material y recursos puestos a disposición por el Ministerio de Industria, Turismo y Comercio en el propio laboratorio, así como de los distintos terminales móviles duales con los que se realizaron las medidas pertinentes. Como bibliografía básica se han utilizado las diferentes normas indicadas anteriormente, es decir la norma europea CENELEC (basada en la del IEC) y la americana FCC (basada en la del IEEE), así como manuales de los equipos implicados en el bando de medida de SAR: analizadores de redes, robot articulado y software de control, así como el resto de dispositivos utilizados en las medidas. ABSTRACT. The goal of this Final Degree Project is to perform a comparison of the results obtained in SAR measurements (specific absorption rate) and power using the European standards CENELEC (based on IEC Regulation) and the American FCC (based on IEEE Regulation) to different mobile dual devices. If first place it was made the study of its power and SAR features, seeing that there is shift with respect to the different standards and frequency ranges. In some cases, although they work without any problem in different bands, the difference in levels of emissions obtained in the different bands can be significant. As mentioned at the beginning, different dual devices were used and relevant measurements were taken from them using the different standards and the procedure in each one of them. To see the specific differences that may exist when using the different standards, the measurements were made in all bands of the device operation and to each one it has been applied in the different standards. This attempted to assess whether there could be some discrepancy in the devices that have the certificate of compliance to a specify standard when used in another band that is not exactly the used band of this standard. To sum up, it was required to verify that a device which is certified to the standard of a region, for example (900 and 1800 MHz), also verifies if it is used in another region, for example America (850 and 1900 MHz). The practical realization of this Final Degree Project was made in the facilities of the Radio Frequency Laboratory of the Ministry of State for Telecommunications and the Information Society located in El Casar (Guadalajara). Specifically, the movable articulated robot DASY4 was used and the control software DASY 52.8, available in the “Measure Electromagnetic Field testbench (SAR room)”. The duration of this Final Degree Project has benn about four months. To carry out the present project, all kinds of materials and resources were provided by the Ministry of Industry, Tourism and Trade in its own laboratory, as well as the different mobile dual terminals with which relevant measurements were made. As basic references the different standards indicated above has been used, that is to say the European standard CENELEC (based on IEC standard) and the American FCC (based on IEEE standard), as well as the equipment manuals involved in the SAR measure testbench: network analyzers, articulated robot and control software, as well as the rest of the devices used in the measurements.
Resumo:
En este artículo se intenta deducir de un modo coherente las características de ortotropia de una losa equivalente a otra cuyas características geométricas son periódicas. Para ello se basaran en los resultados deducidos en las ya bien establecidas técnicas de horrogeneización. Estas técnicas de horrogeneización consisten fundamentalmente en aplicar un desarrollo asintótico a la solución del problema. Se supone que dicho desarrollo depende de dos escalas una de las cuales va a definir el comportamiento global (macroscopico) de la estructura. En la otra escala va a intervenir un parámetro que dará cuenta de las dimensiones de la celula geométrica que se repite periodicamente (en ambas direcciones). Si admite que el primer termino del desarrollo asintótico no depende de los planos celulares. Este primer término del desarrollo permitirá deducir las características de ortotropía del material que mas adecuadamente simula la configuración geométrica de las estructuras.
Resumo:
Las proyecciones muestran un incremento en la demanda de energía primaria a nivel global para los próximos diez años. Para disminuir los efectos adversos sobre el medio ambiente del uso de combustibles fósiles, las políticas energéticas de España y la Unión Europea tienen como uno de sus objetivos principales incrementar el uso fuentes renovables en la producción energética para el año 2020.La biomasa es una de las principales fuentes renovables para la generación de energía primaria en España. Sin embargo su alto contenido en humedad y su baja densidad energética entre otras características de este material, suponen desventajas para su uso directo como combustible. Los procesos de conversión termoquímica son una alternativa para la obtención de productos sólidos, líquidos y gases de mejor potencial energético utilizando biomasa como materia prima. Esta tesis doctoral tiene como objetivo general el estudio y la optimización de procesos de conversión termoquímica de biomasa. Para cumplir con este objetivo el trabajo combina análisis experimentales y de simulación de distintas tecnologías de transformación termoquímica de biomasa. Antes de iniciar los estudios experimentales de los procesos de transformación termoquímica, se realiza una caracterización química, física y combustible de ocho de biomasas de naturaleza lignocelulósica y amilácea. Esta caracterización incluye el análisis del comportamiento termoquímico utilizando las técnicas de termogravimetría (TG-DTG), TG-FTir y pirólisis analítica (Py-GC/MS). Después de la caracterización se seleccionan tres tipos de biomasas (madera de pino, hueso de aceituna y hueso de aguacate) que son utilizadas como materia prima en el estudio experimental de procesos de gasificación, torrefacción y pirólisis en distintos sistemas de reacción de escala de laboratorio. Estos estudios se realizan para optimizar las condiciones de operación de cada uno de los procesos y caracterizar los productos obtenidos. El trabajo realizado incluye el rediseño y puesta en marcha de un sistema de gasificación de lecho fluidizado así como de un sistema de torrefacción y pirólisis en horno rotatorio. Los estudios experimentales incluyen un análisis de distintas condiciones de operación (temperatura, composición atmosférica, tiempo de residencia, condiciones fluidomecánicas, tamaño de partícula del combustible, condiciones de condensación) con el objetivo de determinar las condiciones óptimas de operación de cada uno de los procesos analizados respecto de las características químicas, físicas y combustibles de los productos. Para la optimización de las condiciones de operación del sistema de gasificación de lecho fluidizado se realiza un análisis complementario del comportamiento hidrodinámico utilizando la metodología de análisis computacional fluidodinámico o mecánica de fluidos computacional (CFD). Los resultados obtenidos permiten determinar las condiciones óptimas de operación del sistema de reacción de lecho fluidizado. Finalmente, la tesis incluye el análisis de una planta comercial de gasificación localizada en Júndiz (Álava, España), centrándose en la caracterización del material particulado eliminado de la corriente de gas generado, con el objetivo de determinar su proceso de formación, características y establecer posibles aplicaciones comerciales.
Resumo:
RESUMEN La realización de túneles de gran longitud para ferrocarriles ha adquirido un gran auge en los últimos años. En España se han abordado proyectos de estas características, no existiendo para su ejecución una metodología completa y contrastada de actuación. Las características geométricas, de observación y de trabajo en túneles hace que las metodologías que se aplican en otros proyectos de ingeniería no sean aplicables por las siguientes causas: separación de las redes exteriores e interiores de los túneles debido a la diferente naturaleza de los observables, geometría en el interior siempre desfavorable a los requerimientos de observación clásica, mala visibilidad dentro del túnel, aumento de errores conforme avanza la perforación, y movimientos propios del túnel durante su ejecución por la propia geodinámica activa. Los patrones de observación geodésica usados deben revisarse cuando se ejecutan túneles de gran longitud. Este trabajo establece una metodología para el diseño de redes exteriores. ABSTRACT: The realization of long railway tunnels has acquired a great interest in recent years. In Spain it is necessary to address projects of this nature, but ther is no corresponding methodological framework supporting them. The tunnel observational and working geometrical properties, make that former methodologies used may be unuseful in this case: the observation of the exterior and interior geodetical networks of the tunnel is different in nature. Conditions of visibility in the interior of the tunnels, regardless of the geometry, are not the most advantageous for observation due to the production system and the natural conditions of the tunnels. Errors increase as the drilling of the tunnel progresses, as it becomes problematical to perform continuous verifications along the itinerary itself. Moreover, inherent tunnel movements due to active geodynamics must also be considered. Therefore patterns for geodetic and topographic observations have to be reviewed when very long tunnels are constructed.
Resumo:
Se presenta una relación entre las propiedades mecánicas de los tejidos fibrados y las características geométricas y mecánicas de los fibriles que lo forman a escala mesoscópica. In this work we derive a relationship between the mechanical and geometrical properties of the fibril constituents and the soft tissue material parameters at macroscopic scale.
Resumo:
Los recientes avances tecnológicos han encontrado un potencial campo de explotación en la educación asistida por computador. A finales de los años 90 surgió un nuevo campo de investigación denominado Entornos Virtuales Inteligentes para el Entrenamiento y/o Enseñanza (EVIEs), que combinan dos áreas de gran complejidad: Los Entornos Virtuales (EVs) y los Sistemas de Tutoría Inteligente (STIs). De este modo, los beneficios de los entornos 3D (simulación de entornos de alto riesgo o entornos de difícil uso, etc.) pueden combinarse con aquéllos de un STIs (personalización de materias y presentaciones, adaptación de la estrategia de tutoría a las necesidades del estudiante, etc.) para proporcionar soluciones educativas/de entrenamiento con valores añadidos. El Modelo del Estudiante, núcleo de un SIT, representa el conocimiento y características del estudiante, y refleja el proceso de razonamiento del estudiante. Su complejidad es incluso superior cuando los STIs se aplican a EVs porque las nuevas posibilidades de interacción proporcionadas por estos entornos deben considerarse como nuevos elementos de información clave para el modelado del estudiante, incidiendo en todo el proceso educativo: el camino seguido por el estudiante durante su navegación a través de escenarios 3D; el comportamiento no verbal tal como la dirección de la mirada; nuevos tipos de pistas e instrucciones que el módulo de tutoría puede proporcionar al estudiante; nuevos tipos de preguntas que el estudiante puede formular, etc. Por consiguiente, es necesario que la estructura de los STIs, embebida en el EVIE, se enriquezca con estos aspectos, mientras mantiene una estructura clara, estructurada, y bien definida. La mayoría de las aproximaciones al Modelo del Estudiante en STIs y en IVETs no consideran una taxonomía de posibles conocimientos acerca del estudiante suficientemente completa. Además, la mayoría de ellas sólo tienen validez en ciertos dominios o es difícil su adaptación a diferentes STIs. Para vencer estas limitaciones, hemos propuesto, en el marco de esta tesis doctoral, un nuevo mecanismo de Modelado del Estudiante basado en la Ingeniería Ontológica e inspirado en principios pedagógicos, con un modelo de datos sobre el estudiante amplio y flexible que facilita su adaptación y extensión para diferentes STIs y aplicaciones de aprendizaje, además de un método de diagnóstico con capacidades de razonamiento no monótono. El método de diagnóstico es capaz de inferir el estado de los objetivos de aprendizaje contenidos en el SIT y, a partir de él, el estado de los conocimientos del estudiante durante su proceso de aprendizaje. La aproximación almodelado del estudiante propuesta ha sido implementada e integrada en un agente software (el agente de modelado del estudiante) dentro de una plataforma software existente para el desarrollo de EVIEs denominadaMAEVIF. Esta plataforma ha sido diseñada para ser fácilmente configurable para diferentes aplicaciones de aprendizaje. El modelado del estudiante presentado ha sido implementado e instanciado para dos tipos de entornos de aprendizaje: uno para aprendizaje del uso de interfaces gráficas de usuario en una aplicación software y para un Entorno Virtual para entrenamiento procedimental. Además, se ha desarrollado una metodología para guiar en la aplicación del esta aproximación de modelado del estudiante a cada sistema concreto.---ABSTRACT---Recent technological advances have found a potential field of exploitation in computeraided education. At the end of the 90’s a new research field emerged, the so-called Intelligent Virtual Environments for Training and/or Education (IVETs), which combines two areas of great complexity: Virtual Environments (VE) and Intelligent Tutoring Systems (ITS). In this way, the benefits of 3D environments (simulation of high risk or difficult-to-use environments, etc.) may be combined with those of an ITS (content and presentation customization, adaptation of the tutoring strategy to the student requirements, etc.) in order to provide added value educational/training solutions. The StudentModel, core of an ITS, represents the student’s knowledge and characteristics, and reflects the student’s reasoning process. Its complexity is even higher when the ITSs are applied on VEs because the new interaction possibilities offered by these environments must be considered as new key information pieces for student modelling, impacting all the educational process: the path followed by the student during their navigation through 3D scenarios; non-verbal behavior such as gaze direction; new types of hints or instructions that the tutoring module can provide to the student; new question types that the student can ask, etc. Thus, it is necessary for the ITS structure, which is embedded in the IVET, to be enriched by these aspects, while keeping a clear, structured and well defined architecture. Most approaches to SM on ITSs and IVETs don’t consider a complete enough taxonomy of possible knowledge about the student. In addition, most of them have validity only in certain domains or they are hard to be adapted for different ITSs. In order to overcome these limitations, we have proposed, in the framework of this doctoral research project, a newStudentModeling mechanism that is based onOntological Engineering and inspired on pedagogical principles, with a wide and flexible data model about the student that facilitates its adaptation and extension to different ITSs and learning applications, as well as a rich diagnosis method with non-monotonic reasoning capacities. The diagnosis method is able to infer the state of the learning objectives encompassed by the ITS and, fromit, the student’s knowledge state during the student’s process of learning. The proposed student modelling approach has been implemented and integrated in a software agent (the student modeling agent) within an existing software platform for the development of IVETs called MAEVIF. This platform was designed to be easily configurable for different learning applications. The proposed student modeling has been implemented and it has been instantiated for two types of learning environments: one for learning to use the graphical user interface of a software application and a Virtual Environment for procedural training. In addition, a methodology to guide on the application of this student modeling approach to each specific system has been developed.
Resumo:
El estudio de la estructura del suelo es de vital importancia en diferentes campos de la ciencia y la tecnología. La estructura del suelo controla procesos físicos y biológicos importantes en los sistemas suelo-planta-microorganismos. Estos procesos están dominados por la geometría de la estructura del suelo, y una caracterización cuantitativa de la heterogeneidad de la geometría del espacio poroso es beneficiosa para la predicción de propiedades físicas del suelo. La tecnología de la tomografía computerizada de rayos-X (CT) nos permite obtener imágenes digitales tridimensionales del interior de una muestra de suelo, proporcionando información de la geometría de los poros del suelo y permitiendo el estudio de los poros sin destruir las muestras. Las técnicas de la geometría fractal y de la morfología matemática se han propuesto como una poderosa herramienta para analizar y cuantificar características geométricas. Las dimensiones fractales del espacio poroso, de la interfaz poro-sólido y de la distribución de tamaños de poros son indicadores de la complejidad de la estructura del suelo. Los funcionales de Minkowski y las funciones morfológicas proporcionan medios para medir características geométricas fundamentales de los objetos geométricos tridimensionales. Esto es, volumen, superficie, curvatura media de la superficie y conectividad. Las características del suelo como la distribución de tamaños de poros, el volumen del espacio poroso o la superficie poro-solido pueden ser alteradas por diferentes practicas de manejo de suelo. En este trabajo analizamos imágenes tomográficas de muestras de suelo de dos zonas cercanas con practicas de manejo diferentes. Obtenemos un conjunto de medidas geométricas, para evaluar y cuantificar posibles diferencias que el laboreo pueda haber causado en el suelo. ABSTRACT The study of soil structure is of vital importance in different fields of science and technology. Soil structure controls important physical and biological processes in soil-plant-microbial systems. Those processes are dominated by the geometry of soil pore structure, and a quantitative characterization of the spatial heterogeneity of the pore space geometry is beneficial for prediction of soil physical properties. The technology of X-ray computed tomography (CT) allows us to obtain three-dimensional digital images of the inside of a soil sample providing information on soil pore geometry and enabling the study of the pores without disturbing the samples. Fractal geometry and mathematical morphological techniques have been proposed as powerful tools to analyze and quantify geometrical features. Fractal dimensions of pore space, pore-solid interface and pore size distribution are indicators of soil structure complexity. Minkowski functionals and morphological functions provide means to measure fundamental geometrical features of three-dimensional geometrical objects, that is, volume, boundary surface, mean boundary surface curvature, and connectivity. Soil features such as pore-size distribution, pore space volume or pore-solid surface can be altered by different soil management practices. In this work we analyze CT images of soil samples from two nearby areas with contrasting management practices. We performed a set of geometrical measures, some of them from mathematical morphology, to assess and quantify any possible difference that tillage may have caused on the soil.
Resumo:
Este artículo es resultado de un trabajo de investigación extenso realizado en el marco del Programa de Doctorado: Periferias, Sostenibilidad y Vitalidad Urbana, organizado por el Departamento de Urbanística y de Ordenación del Territorio de la Escuela de Arquitectura de la Universidad Politécnica de Madrid, tutelado por José Miguel Fernández Güell. La investigación analiza las oportunidades de mejora de la competitividad, habitabilidad, sostenibilidad y gobernabilidad de las ciudades, si se acompañan los procesos sobre cuestiones públicas y desarrollo urbano con metodologías participativas adecuadas a las características del entorno y su realidad social. Es un estudio sobre la rentabilidad de la participación social en el urbanismo en los casos en los que se consigue una estructura puente eficaz entre los agentes socioeconómicos y la base ciudadana. Reconocido con el 1er Premio Nacional de Urbanismo Ricardo Santos Diez 2009.
Resumo:
En esta tesis se investiga la interacción entre un fluido viscoso y un cuerpo sólido en presencia de una superficie libre. El problema se expresa teóricamente poniendo especial atención a los aspectos de conservación de energía y de la interacción del fluido con el cuerpo. El problema se considera 2D y monofásico, y un desarrollo matemático permite una descomposición de los términos disipativos en términos relacionados con la superficie libre y términos relacionados con la enstrofía. El modelo numérico utilizado en la tesis se basa en el método sin malla Smoothed Particle Hydrodynamics (SPH). De manera análoga a lo que se hace a nivel continuo, las propiedades de conservación se estudian en la tesis con el sistema discreto de partículas. Se tratan también las condiciones de contorno de un cuerpo que se mueve en un flujo viscoso, implementadas con el método ghost-fluid. Se ha desarrollado un algoritmo explícito de interacción fluido / cuerpo. Se han documentado algunos casos de modo detallado con el objetivo de comprobar la capacidad del modelo para reproducir correctamente la disipación de energía y el movimiento del cuerpo. En particular se ha investigado la atenuación de una onda estacionaria, comparando la simulación numérica con predicciones teóricas. Se han realizado otras pruebas para monitorizar la disipación de energía para flujos más violentos que implican la fragmentación de la superficie libre. La cantidad de energía disipada con los diferentes términos se ha evaluado en los casos estudiados con el modelo numérico. Se han realizado otras pruebas numéricas para verificar la técnica de modelización de la interacción fluido / cuerpo, concretamente las fuerzas ejercidas por las olas en cuerpos con formas simples, y el equilibrio de un cuerpo flotante con una forma compleja. Una vez que el modelo numérico ha sido validado, se han realizado simulaciones numéricas para obtener una comprensión más completa de la física implicada en casos (casi) realistas sobre los había aspectos que no se conocían suficientemente. En primer lugar se ha estudiado el el flujo alrededor de un cilindro bajo la superficie libre. El estudio se ha realizado con un número de Reynolds moderado, para un rango de inmersiones del cilindro y números de Froude. La solución numérica permite una investigación de los patrones complejos que se producen. La estela del cilindro interactúa con la superficie libre. Se han identificado algunos inestabilidades características. El segundo estudio se ha realizado sobre el problema de sloshing, tanto experimentalmente como numéricamente. El análisis se restringe a aguas poco profundas y con oscilación horizontal, pero se ha estudiado un gran número de condiciones, lo que lleva a una comprensión bastante completa de los sistemas de onda involucradas. La última parte de la tesis trata también sobre un problema de sloshing pero esta vez el tanque está oscilando con rotación y hay acoplamiento con un sistema mecánico. El sistema se llama pendulum-TLD (Tuned Liquid Damper - con líquido amortiguador). Este tipo de sistema se utiliza normalmente para la amortiguación de las estructuras civiles. El análisis se ha realizado analíticamente, numéricamente y experimentalmente utilizando líquidos con viscosidades diferentes, centrándose en características no lineales y mecanismos de disipación. ABSTRA C T The subject of the present thesis is the interaction between a viscous fluid and a solid body in the presence of a free surface. The problem is expressed first theoretically with a particular focus on the energy conservation and the fluid-body interaction. The problem is considered 2D and monophasic, and some mathematical development allows for a decomposition of the energy dissipation into terms related to the Free Surface and others related to the enstrophy. The numerical model used on the thesis is based on Smoothed Particle Hydrodynamics (SPH): a computational method that works by dividing the fluid into particles. Analogously to what is done at continuum level, the conservation properties are studied on the discrete system of particles. Additionally the boundary conditions for a moving body in a viscous flow are treated and discussed using the ghost-fluid method. An explicit algorithm for handling fluid-body coupling is also developed. Following these theoretical developments on the numerical model, some test cases are devised in order to test the ability of the model to correctly reproduce the energy dissipation and the motion of the body. The attenuation of a standing wave is used to compare what is numerically simulated to what is theoretically predicted. Further tests are done in order to monitor the energy dissipation in case of more violent flows involving the fragmentation of the free-surface. The amount of energy dissipated with the different terms is assessed with the numerical model. Other numerical tests are performed in order to test the fluid/body interaction method: forces exerted by waves on simple shapes, and equilibrium of a floating body with a complex shape. Once the numerical model has been validated, numerical tests are performed in order to get a more complete understanding of the physics involved in (almost) realistic cases. First a study is performed on the flow passing a cylinder under the free surface. The study is performed at moderate Reynolds numbers, for various cylinder submergences, and various Froude numbers. The capacity of the numerical solver allows for an investigation of the complex patterns which occur. The wake from the cylinder interacts with the free surface, and some characteristical flow mechanisms are identified. The second study is done on the sloshing problem, both experimentally and numerically. The analysis is restrained to shallow water and horizontal excitation, but a large number of conditions are studied, leading to quite a complete understanding of the wave systems involved. The last part of the thesis still involves a sloshing problem but this time the tank is rolling and there is coupling with a mechanical system. The system is named pendulum-TLD (Tuned Liquid Damper). This kind of system is normally used for damping of civil structures. The analysis is then performed analytically, numerically and experimentally for using liquids with different viscosities, focusing on non-linear features and dissipation mechanisms.
Resumo:
Esta tesis estudia el comportamiento de la región exterior de una capa límite turbulenta sin gradientes de presiones. Se ponen a prueba dos teorías relativamente bien establecidas. La teoría de semejanza para la pared supone que en el caso de haber una pared rugosa, el fluido sólo percibe el cambio en la fricción superficial que causa, y otros efectos secundarios quedarán confinados a una zona pegada a la pared. El consenso actual es que dicha teoría es aproximadamente cierta. En el extremo exterior de la capa límite existe una región producida por la interacción entre las estructuras turbulentas y el flujo irrotacional de la corriente libre llamada interfaz turbulenta/no turbulenta. La mayoría de los resultados al respecto sugieren la presencia de fuerzas de cortadura ligeramente más intensa, lo que la hace distinta al resto del flujo turbulento. Las propiedades de esa región probablemente cambien si la velocidad de crecimiento de la capa límite aumenta, algo que puede conseguirse aumentando la fricción en la pared. La rugosidad y la ingestión de masa están entonces relacionadas, y el comportamiento local de la interfaz turbulenta/no turbulenta puede explicar el motivo por el que las capas límite sobre paredes rugosas no se comportan como en el caso de tener paredes lisas precisamente en la zona exterior. Para estudiar las capas límite a números de Reynolds lo suficientemente elevados, se ha desarrollado un nuevo código de alta resolución para la simulación numérica directa de capas límite turbulentas sin gradiente de presión. Dicho código es capaz de simular capas límite en un intervalo de números de Reynolds entre ReT = 100 — 2000 manteniendo una buena escalabilidad hasta los dos millones de hilos en superordenadores de tipo Blue Gene/Q. Se ha guardado especial atención a la generación de condiciones de contorno a la entrada correctas. Los resultados obtenidos están en concordancia con los resultados previos, tanto en el caso de simulaciones como de experimentos. La interfaz turbulenta/no turbulenta de una capa límite se ha analizado usando un valor umbral del módulo de la vorticidad. Dicho umbral se considera un parámetro para analizar cada superficie obtenida de un contorno del módulo de la vorticidad. Se han encontrado dos regímenes distintos en función del umbral escogido con propiedades opuestas, separados por una transición topológica gradual. Las características geométricas de la zona escalan con o99 cuando u^/isdgg es la unidad de vorticidad. Las propiedades del íluido relativas a la posición del contorno de vorticidad han sido analizados para una serie de umbrales utilizando el campo de distancias esféricas, que puede obtenerse con independencia de la complejidad de la superficie de referencia. Las propiedades del fluido a una distancia dada del inerfaz también dependen del umbral de vorticidad, pero tienen características parecidas con independencia del número de Reynolds. La interacción entre la turbulencia y el flujo no turbulento se restringe a una zona muy fina con un espesor del orden de la escala de Kolmogorov local. Hacia el interior del flujo turbulento las propiedades son indistinguibles del resto de la capa límite. Se ha simulado una capa límite sin gradiente de presiones con una fuerza volumétrica cerca de la pared. La el forzado ha sido diseñado para aumentar la fricción en la pared sin introducir ningún efecto geométrico obvio. La simulación consta de dos dominios, un primer dominio más pequeño y a baja resolución que se encarga de generar condiciones de contorno correctas, y un segundo dominio mayor y a alta resolución donde se aplica el forzado. El estudio de los perfiles y los coeficientes de autocorrelación sugieren que los dos casos, el liso y el forzado, no colapsan más allá de la capa logarítmica por la complejidad geométrica de la zona intermitente, y por el hecho que la distancia a la pared no es una longitud característica. Los efectos causados por la geometría de la zona intermitente pueden evitarse utilizando el interfaz como referencia, y la distancia esférica para el análisis de sus propiedades. Las propiedades condicionadas del flujo escalan con 5QQ y u/uT, las dos únicas escalas contenidas en el modelo de semejanza de pared de Townsend, consistente con estos resultados. ABSTRACT This thesis studies the characteristics of the outer region of zero-pressure-gradient turbulent boundary layers at moderate Reynolds numbers. Two relatively established theories are put to test. The wall similarity theory states that with the presence of roughness, turbulent motion is mostly affected by the additional drag caused by the roughness, and that other secondary effects are restricted to a region very close to the wall. The consensus is that this theory is valid, but only as a first approximation. At the edge of the boundary layer there is a thin layer caused by the interaction between the turbulent eddies and the irroational fluid of the free stream, called turbulent/non-turbulent interface. The bulk of results about this layer suggest the presence of some localized shear, with properties that make it distinguishable from the rest of the turbulent flow. The properties of the interface are likely to change if the rate of spread of the turbulent boundary layer is amplified, an effect that is usually achieved by increasing the drag. Roughness and entrainment are therefore linked, and the local features of the turbulent/non-turbulent interface may explain the reason why rough-wall boundary layers deviate from the wall similarity theory precisely far from the wall. To study boundary layers at a higher Reynolds number, a new high-resolution code for the direct numerical simulation of a zero pressure gradient turbulent boundary layers over a flat plate has been developed. This code is able to simulate a wide range of Reynolds numbers from ReT =100 to 2000 while showing a linear weak scaling up to around two million threads in the BG/Q architecture. Special attention has been paid to the generation of proper inflow boundary conditions. The results are in good agreement with existing numerical and experimental data sets. The turbulent/non-turbulent interface of a boundary layer is analyzed by thresholding the vorticity magnitude field. The value of the threshold is considered a parameter in the analysis of the surfaces obtained from isocontours of the vorticity magnitude. Two different regimes for the surface can be distinguished depending on the threshold, with a gradual topological transition across which its geometrical properties change significantly. The width of the transition scales well with oQg when u^/udgg is used as a unit of vorticity. The properties of the flow relative to the position of the vorticity magnitude isocontour are analyzed within the same range of thresholds, using the ball distance field, which can be obtained regardless of the size of the domain and complexity of the interface. The properties of the flow at a given distance to the interface also depend on the threshold, but they are similar regardless of the Reynolds number. The interaction between the turbulent and the non-turbulent flow occurs in a thin layer with a thickness that scales with the Kolmogorov length. Deeper into the turbulent side, the properties are undistinguishable from the rest of the turbulent flow. A zero-pressure-gradient turbulent boundary layer with a volumetric near-wall forcing has been simulated. The forcing has been designed to increase the wall friction without introducing any obvious geometrical effect. The actual simulation is split in two domains, a smaller one in charge of the generation of correct inflow boundary conditions, and a second and larger one where the forcing is applied. The study of the one-point and twopoint statistics suggest that the forced and the smooth cases do not collapse beyond the logarithmic layer may be caused by the geometrical complexity of the intermittent region, and by the fact that the scaling with the wall-normal coordinate is no longer present. The geometrical effects can be avoided using the turbulent/non-turbulent interface as a reference frame, and the minimum distance respect to it. The conditional analysis of the vorticity field with the alternative reference frame recovers the scaling with 5QQ and v¡uT already present in the logarithmic layer, the only two length-scales allowed if Townsend’s wall similarity hypothesis is valid.
Resumo:
Se estudia una placa tipo Mindlin, reforzada con nervios distribuidos de forma periódica según direcciones arbitrarias, mediante técnicas de homogeneización basadas en métodos de desarrollos asintóticos en escalas múltiples. Se obtiene de esta forma la matriz de rigidez de la placa homogeneizada que resulta ser dependiente de las características geométricas de la celda periódica, es decir, de su oblicuidad, forma en planta, variación de espesores etc., así como de las constantes elásticas del material. El cálculo de esta matriz se lleva a cabo mediante un promedio sobre el dominio de la celda de una combinación lineal de soluciones de diferentes problemas de contorno deflexión de placa sobre el dominio de la celda y con condiciones de contorno de tipo periódico. Cada uno de estos problemas de contorno corresponde a unas cargas aplicadas sobre la placa que son derivadas de las funciones D y Do constantes de flexión y de cortante de la placa. Finalmente se presenta un ejemplo que ilustra la aplicación de esta metodología.
Resumo:
La clasificación de las semillas de especies olerícolas se realiza principalmente por peso y tamaño, con criterios similares a los aplicados en cereales y leguminosas, en que se asocia positivamente estos atributos físicos con la calidad fisiológica. No obstante lo anterior, en diversas especies de hortalizas la información es escasa y contradictoria al respecto, lo que motiva la realización de la presente investigación. En semillas de tomate (Solanum lycopersicum L.) se determinó el efecto del peso y tamaño sobre la calidad fisiológica expresada como germinación y vigor. Además, se correlacionaron los resultados de las pruebas de evaluación de calidad fisiológica y se describieron variables del crecimiento y desarrollo. Se utilizaron lotes de diferentes variedades de semillas híbridas de cuatro temporadas, producidas en un clima templado cálido con lluvias invernales y estación seca prolongada (32º 54’ y 34° 21´ latitud Sur). Se midió peso y tamaño de semillas, además en dos temporadas se evaluaron las características internas de área y peso de embrión y área de endospermo. Se determinó la calidad de las semillas con la prueba de germinación y según fuera el año de estudio se midió vigor con las pruebas de envejecimiento acelerado, de plantas útiles al trasplante y de plántulas emergidas. Con análisis de imágenes y rayos X se extrajeron datos del tamaño externo e interno de las semillas y plántulas. Los lotes se compararon mediante análisis de varianza y las medias con la prueba de Tukey, la asociación entre dos variables se determinó con correlaciones de Pearson, las variables de peso y tamaño de la semilla y su relación con las pruebas de calidad, se analizaron mediante regresiones múltiples. Se utilizó un nivel de significación de 0,05 de probabilidad. Los resultados indicaron que el tamaño y no el peso de las semillas de tomate, diferenciaron calidad entre lotes en las diversas variedades. La prueba de germinación tuvo una baja sensibilidad para discriminar lotes, además de una escasa correlación con las características físicas de las semillas, cuando hubo asociación, la relación fue débil y negativa. La prueba de vigor de envejecimiento acelerado diferenció lotes y presentó escasa asociación con las características físicas de las semillas. El número de semillas germinadas en la prueba de envejecimiento acelerado se explicó por el efecto del tamaño de las semillas, mientras que las fracciones de descarte se asociaron con el peso de las mismas. La prueba de vigor de plantas útiles al trasplante no discriminó entre lotes. Tuvo una asociación débil con el peso y tamaño de las semillas. El modelo asociado a esta relación explicó con un alto coeficiente de determinación que el peso de la semilla influyó sobre la emergencia temprana, mientras que la relación fue menor y negativa con plantas de mayor desarrollo. La prueba de vigor de plántulas emergidas discriminó lotes de semillas con plántulas de 3 a 5 días después de siembra. Hubo escasa y débil asociación entre esta prueba y las características de peso y tamaño las semillas. El modelo de predicción de plántulas emergidas fue particular en cada temporada, cuando hubo un coeficiente de determinación alto influyó negativamente el peso o tamaño de la semilla. Entre las pruebas de calidad fisiológica evaluadas en semillas de tomate hubo escasas correlaciones significativas. Entre germinación y vigor las correlaciones significativas fueron débiles y sólo se encontraron en algunas temporadas de evaluación. Entre las pruebas de vigor no hubo asociación. En las pruebas de vigor de plantas útiles al trasplante y de plántulas emergidas, los cotiledones alcanzaron el mayor porcentaje de materia seca y se correlacionaron fuertemente con la materia seca total. En la prueba de plántulas emergidas la materia seca de las radículas diferenció parcialmente lotes de semillas al igual que la longitud total y de las radículas. La longitud de la radícula se correlacionó fuertemente con la longitud total de plántulas. ABSTRACT Seed selection for olericultural species is mainly carried out considering weight and size with similar criteria to those applied in cereals and legumes where size and physiological quality are favorably associated. However, information about several species is limited and contradictory regarding the above, leading to the present research. In tomato (Solanum lycopersicum L.) seeds, the effect of weight and size on the physiological quality expressed as germination and vigor was determined. In addition, results of quality evaluation tests were correlated and variables of growth and development were described. Batches of hybrid seeds from four seasons were used. These seeds were produced in a mild warm climate with winter rainfalls and long dry season (32º 54’ and 34° 21´South Latitude). Seed weight and size were determined, additionally internal characteristics such as embryo area and weight as well as endosperm area were evaluated in two seasons. The quality of seeds was established using the germination test and, depending on the year of the study, vigor was measured through accelerated aging tests for plants useful for transplanting and emerged seedlings. Using imaging analysis and X rays, data regarding external and internal size of seeds and seedlings were obtained. Batches were compared through ANOVA and means using Tukey’s test; the association between both variables was determined with Pearson correlations, whereas variables of seed weight and size and their relation to quality tests were analyzed through multiple regressions. A significance level of 0.05 probability was used. Results showed that the size (but not the weight) of tomatoes differentiates quality between batches from several seasons. The germination test was not sensitive enough to discriminate batches in addition to having a limited correlation with the characteristics of seeds, when they were associated, the relation was weak and unfavorable. Vigor test for accelerated aging made the difference between batches and presented low association with physical characteristics of the seeds. The number of germinated seeds in the accelerated aging test was explained by the effect of the seed size, whereas cull fractions were associated with their weight. The vigor test of plants useful for transplanting did not discriminate between batches. The association with seed weight and size was weak. The model associated to this relation explained, with a high coefficient determination, that the seed weight had influence on early emergence, whereas the relation was minor and unfavorable with more developed plants. Vigor test of emerged seedlings discriminated batches of seeds with seedlings of 3 to 5 days after sowing. There was a limited and weak association between this test and the characteristics of seed weight and size. The prediction model for seedlings emerged was particular in each season, when the determination coefficient was high, seed weight and size influenced negatively. Among the physiological quality tests evaluated in tomato seeds, significant correlations were negligible. Between germination and vigor, significant correlations were poor, being only found in some evaluation seasons. There was no association in the vigor tests. In vigor tests for plants useful for transplanting and emerged seedlings, cotyledons reached the highest percentage of dry matter and were strongly correlated with total dry matter. In the test of emerged seedlings, dry matter of radicles partially differentiated batches of seeds as well as total length and radicles. Radicle length was strongly correlated with total seedlings length.
Resumo:
Los sistemas microinformáticos se componen principalmente de hardware y software, con el paso del tiempo el hardware se degrada, se deteriora y en ocasiones se avería. El software evoluciona, requiere un mantenimiento, de actualización y en ocasiones falla teniendo que ser reparado o reinstalado. A nivel hardware se analizan los principales componentes que integran y que son comunes en gran parte estos sistemas, tanto en equipos de sobre mesa como portátiles, independientes del sistema operativo, además de los principales periféricos, también se analizan y recomiendan algunas herramientas necesarias para realizar el montaje, mantenimiento y reparación de estos equipos. Los principales componentes hardware internos son la placa base, memoria RAM, procesador, disco duro, carcasa, fuente de alimentación y tarjeta gráfica. Los periféricos más destacados son el monitor, teclado, ratón, impresora y escáner. Se ha incluido un apartado donde se detallan los distintos tipos de BIOS y los principales parámetros de configuración. Para todos estos componentes, tanto internos como periféricos, se ha realizado un análisis de las características que ofrecen y los detalles en los que se debe prestar especial atención en el momento de seleccionar uno frente a otro. En los casos que existen diferentes tecnologías se ha hecho una comparativa entre ambas, destacando las ventajas y los inconvenientes de unas frente a otras para que sea el usuario final quien decida cual se ajusta mejor a sus necesidades en función de las prestaciones y el coste. Un ejemplo son las impresoras de inyección de tinta frente a las laser o los discos duros mecánicos en comparación con y los discos de estado sólido (SSD). Todos estos componentes están relacionados, interconectados y dependen unos de otros, se ha dedicado un capítulo exclusivamente para estudiar cómo se ensamblan estos componentes, resaltando los principales fallos que se suelen cometer o producir y se han indicado unas serie tareas de mantenimiento preventivo que se pueden realizar para prolongar la vida útil del equipo y evitar averías por mal uso. Los mantenimientos se pueden clasificar como predictivo, perfectivo, adaptativo, preventivo y correctivo. Se ha puesto el foco principalmente en dos tipos de mantenimiento, el preventivo descrito anteriormente y en el correctivo, tanto software como hardware. El mantenimiento correctivo está enfocado al análisis, localización, diagnóstico y reparación de fallos y averías hardware y software. Se describen los principales fallos que se producen en cada componente, cómo se manifiestan o qué síntomas presentan para poder realizar pruebas específicas que diagnostiquen y acoten el fallo. En los casos que es posible la reparación se detallan las instrucciones a seguir, en otro caso se recomienda la sustitución de la pieza o componente. Se ha incluido un apartado dedicado a la virtualización, una tecnología en auge que resulta muy útil para realizar pruebas de software, reduciendo tiempos y costes en las pruebas. Otro aspecto interesante de la virtualización es que se utiliza para montar diferentes servidores virtuales sobre un único servidor físico, lo cual representa un importante ahorro en hardware y costes de mantenimiento, como por ejemplo el consumo eléctrico. A nivel software se realiza un estudio detallado de los principales problemas de seguridad y vulnerabilidades a los que está expuesto un sistema microinformático enumerando y describiendo el comportamiento de los distintos tipos de elementos maliciosos que pueden infectar un equipo, las precauciones que se deben tomar para minimizar los riesgos y las utilidades que se pueden ejecutar para prevenir o limpiar un equipo en caso de infección. Los mantenimientos y asistencias técnicas, en especial las de tipo software, no siempre precisan de la atención presencial de un técnico cualificado, por ello se ha dedicado un capítulo a las herramientas de asistencia remota que se pueden utilizar en este ámbito. Se describen algunas de las más populares y utilizadas en el mercado, su funcionamiento, características y requerimientos. De esta forma el usuario puede ser atendido de una forma rápida, minimizando los tiempos de respuesta y reduciendo los costes. ABSTRACT Microcomputer systems are basically made up of pieces of hardware and software, as time pass, there’s a degradation of the hardware pieces and sometimes failures of them. The software evolves, new versions appears and requires maintenance, upgrades and sometimes also fails having to be repaired or reinstalled. The most important hardware components in a microcomputer system are analyzed in this document for a laptop or a desktop, with independency of the operating system they run. In addition to this, the main peripherals and devices are also analyzed and a recommendation about the most proper tools necessary for maintenance and repair this kind of equipment is given as well. The main internal hardware components are: motherboard, RAM memory, microprocessor, hard drive, housing box, power supply and graphics card. The most important peripherals are: monitor, keyboard, mouse, printer and scanner. A section has been also included where different types of BIOS and main settings are listed with the basic setup parameters in each case. For all these internal components and peripherals, an analysis of their features has been done. Also an indication of the details in which special attention must be payed when choosing more than one at the same time is given. In those cases where different technologies are available, a comparison among them has been done, highlighting the advantages and disadvantages of selecting one or another to guide the end user to decide which one best fits his needs in terms of performance and costs. As an example, the inkjet vs the laser printers technologies has been faced, or also the mechanical hard disks vs the new solid state drives (SSD). All these components are interconnected and are dependent one to each other, a special chapter has been included in order to study how they must be assembled, emphasizing the most often mistakes and faults that can appear during that process, indicating different tasks that can be done as preventive maintenance to enlarge the life of the equipment and to prevent damage because of a wrong use. The different maintenances can be classified as: predictive, perfective, adaptive, preventive and corrective. The main focus is on the preventive maintains, described above, and in the corrective one, in software and hardware. Corrective maintenance is focused on the analysis, localization, diagnosis and repair of hardware and software failures and breakdowns. The most typical failures that can occur are described, also how they can be detected or the specific symptoms of each one in order to apply different technics or specific tests to diagnose and delimit the failure. In those cases where the reparation is possible, instructions to do so are given, otherwise, the replacement of the component is recommended. A complete section about virtualization has also been included. Virtualization is a state of the art technology that is very useful especially for testing software purposes, reducing time and costs during the tests. Another interesting aspect of virtualization is the possibility to have different virtual servers on a single physical server, which represents a significant savings in hardware inversion and maintenance costs, such as electricity consumption. In the software area, a detailed study has been done about security problems and vulnerabilities a microcomputer system is exposed, listing and describing the behavior of different types of malicious elements that can infect a computer, the precautions to be taken to minimize the risks and the tools that can be used to prevent or clean a computer system in case of infection. The software maintenance and technical assistance not always requires the physical presence of a qualified technician to solve the possible problems, that’s why a complete chapter about the remote support tools that can be used to do so has been also included. Some of the most popular ones used in the market are described with their characteristics and requirements. Using this kind of technology, final users can be served quickly, minimizing response times and reducing costs.