1000 resultados para Altavoces dinámicos
Resumo:
Los sistemas de seguimiento mono-cámara han demostrado su notable capacidad para el análisis de trajectorias de objectos móviles y para monitorización de escenas de interés; sin embargo, tanto su robustez como sus posibilidades en cuanto a comprensión semántica de la escena están fuertemente limitadas por su naturaleza local y monocular, lo que los hace insuficientes para aplicaciones realistas de videovigilancia. El objetivo de esta tesis es la extensión de las posibilidades de los sistemas de seguimiento de objetos móviles para lograr un mayor grado de robustez y comprensión de la escena. La extensión propuesta se divide en dos direcciones separadas. La primera puede considerarse local, ya que está orientada a la mejora y enriquecimiento de las posiciones estimadas para los objetos móviles observados directamente por las cámaras del sistema; dicha extensión se logra mediante el desarrollo de un sistema multi-cámara de seguimiento 3D, capaz de proporcionar consistentemente las posiciones 3D de múltiples objetos a partir de las observaciones capturadas por un conjunto de sensores calibrados y con campos de visión solapados. La segunda extensión puede considerarse global, dado que su objetivo consiste en proporcionar un contexto global para relacionar las observaciones locales realizadas por una cámara con una escena de mucho mayor tamaño; para ello se propone un sistema automático de localización de cámaras basado en las trayectorias observadas de varios objetos móviles y en un mapa esquemático de la escena global monitorizada. Ambas líneas de investigación se tratan utilizando, como marco común, técnicas de estimación bayesiana: esta elección está justificada por la versatilidad y flexibilidad proporcionada por dicho marco estadístico, que permite la combinación natural de múltiples fuentes de información sobre los parámetros a estimar, así como un tratamiento riguroso de la incertidumbre asociada a las mismas mediante la inclusión de modelos de observación específicamente diseñados. Además, el marco seleccionado abre grandes posibilidades operacionales, puesto que permite la creación de diferentes métodos numéricos adaptados a las necesidades y características específicas de distintos problemas tratados. El sistema de seguimiento 3D con múltiples cámaras propuesto está específicamente diseñado para permitir descripciones esquemáticas de las medidas realizadas individualmente por cada una de las cámaras del sistema: esta elección de diseño, por tanto, no asume ningún algoritmo específico de detección o seguimiento 2D en ninguno de los sensores de la red, y hace que el sistema propuesto sea aplicable a redes reales de vigilancia con capacidades limitadas tanto en términos de procesamiento como de transmision. La combinación robusta de las observaciones capturadas individualmente por las cámaras, ruidosas, incompletas y probablemente contaminadas por falsas detecciones, se basa en un metodo de asociación bayesiana basado en geometría y color: los resultados de dicha asociación permiten el seguimiento 3D de los objetos de la escena mediante el uso de un filtro de partículas. El sistema de fusión de observaciones propuesto tiene, como principales características, una gran precisión en términos de localización 3D de objetos, y una destacable capacidad de recuperación tras eventuales errores debidos a un número insuficiente de datos de entrada. El sistema automático de localización de cámaras se basa en la observación de múltiples objetos móviles y un mapa esquemático de las áreas transitables del entorno monitorizado para inferir la posición absoluta de dicho sensor. Para este propósito, se propone un novedoso marco bayesiano que combina modelos dinámicos inducidos por el mapa en los objetos móviles presentes en la escena con las trayectorias observadas por la cámara, lo que representa un enfoque nunca utilizado en la literatura existente. El sistema de localización se divide en dos sub-tareas diferenciadas, debido a que cada una de estas tareas requiere del diseño de algoritmos específicos de muestreo para explotar en profundidad las características del marco desarrollado: por un lado, análisis de la ambigüedad del caso específicamente tratado y estimación aproximada de la localización de la cámara, y por otro, refinado de la localización de la cámara. El sistema completo, diseñado y probado para el caso específico de localización de cámaras en entornos de tráfico urbano, podría tener aplicación también en otros entornos y sensores de diferentes modalidades tras ciertas adaptaciones. ABSTRACT Mono-camera tracking systems have proved their capabilities for moving object trajectory analysis and scene monitoring, but their robustness and semantic possibilities are strongly limited by their local and monocular nature and are often insufficient for realistic surveillance applications. This thesis is aimed at extending the possibilities of moving object tracking systems to a higher level of scene understanding. The proposed extension comprises two separate directions. The first one is local, since is aimed at enriching the inferred positions of the moving objects within the area of the monitored scene directly covered by the cameras of the system; this task is achieved through the development of a multi-camera system for robust 3D tracking, able to provide 3D tracking information of multiple simultaneous moving objects from the observations reported by a set of calibrated cameras with semi-overlapping fields of view. The second extension is global, as is aimed at providing local observations performed within the field of view of one camera with a global context relating them to a much larger scene; to this end, an automatic camera positioning system relying only on observed object trajectories and a scene map is designed. The two lines of research in this thesis are addressed using Bayesian estimation as a general unifying framework. Its suitability for these two applications is justified by the flexibility and versatility of that stochastic framework, which allows the combination of multiple sources of information about the parameters to estimate in a natural and elegant way, addressing at the same time the uncertainty associated to those sources through the inclusion of models designed to this end. In addition, it opens multiple possibilities for the creation of different numerical methods for achieving satisfactory and efficient practical solutions to each addressed application. The proposed multi-camera 3D tracking method is specifically designed to work on schematic descriptions of the observations performed by each camera of the system: this choice allows the use of unspecific off-the-shelf 2D detection and/or tracking subsystems running independently at each sensor, and makes the proposal suitable for real surveillance networks with moderate computational and transmission capabilities. The robust combination of such noisy, incomplete and possibly unreliable schematic descriptors relies on a Bayesian association method, based on geometry and color, whose results allow the tracking of the targets in the scene with a particle filter. The main features exhibited by the proposal are, first, a remarkable accuracy in terms of target 3D positioning, and second, a great recovery ability after tracking losses due to insufficient input data. The proposed system for visual-based camera self-positioning uses the observations of moving objects and a schematic map of the passable areas of the environment to infer the absolute sensor position. To this end, a new Bayesian framework combining trajectory observations and map-induced dynamic models for moving objects is designed, which represents an approach to camera positioning never addressed before in the literature. This task is divided into two different sub-tasks, setting ambiguity analysis and approximate position estimation, on the one hand, and position refining, on the other, since they require the design of specific sampling algorithms to correctly exploit the discriminative features of the developed framework. This system, designed for camera positioning and demonstrated in urban traffic environments, can also be applied to different environments and sensors of other modalities after certain required adaptations.
Resumo:
En la actualidad, muchas son las iniciativas propuestas para mejorar la seguridad en el sector del transporte mediante el uso de Tecnologías de la Información. De manera particular, gracias al empleo de técnicas robustas basadas en Visión Artificial, es posible analizar de manera automática cualquier área de una infraestructura de transporte bajo videovigilancia que por su configuración requiera de mayor atención en las tareas de supervisión de los operadores en centros de control. Con esta motivación, dentro del proyecto HNPS (Redes Heterogéneas para la Seguridad Pública Europea) se ha desarrollado un sistema de vídeo analítico que permite identificar de manera individual cada persona que aparece en escena, registrar su trayectoria, así como llevar a cabo una clasificación de la misma en función de si porta o no determinados tipos de objetos. Además, para poder asociar un significado global al conjunto de eventos observados y definir la actividad llevada a cabo, se ha introducido una etapa más de procesamiento para detectar automáticamente eventos dinámicos en secuencias de vídeo, permitiendo al sistema comprender lo que está ocurriendo en la escena y lanzar una alarma si se detecta un comportamiento anómalo (acumulación de personas, riesgos de atraco o abandonos de objetos en zonas vulnerables). Igualmente interesante resulta la obtención de resultados en tiempo real, procesando directamente el flujo de vídeo de la cámara IP que da cobertura al área bajo videovigilancia. Además de la arquitectura del sistema y la funcionalidad completa ofrecida por el sistema, se demostrará la efectividad del mismo en la detección de los diferentes comportamientos definidos. Un entorno ideal para la experimentación de estos sistemas son los intercambiadores de Transporte que el Consorcio Regional de Transportes de Madrid ha puesto en servicio en estos últimos años. Así, respetando en todo momento la privacidad de los actores que son captados por las cámaras, resultados experimentales del sistema desarrollado sobre secuencias simuladas en el Intercambiador de Moncloa, demuestran la eficacia del sistema propuesto, permitiendo que la movilidad de los usuarios sea cada día más segura.
Resumo:
Las nuevas tendencias de compartir archivos multimedia a través de redes abiertas, demanda el uso de mejores técnicas de encriptación que garanticen la integridad, disponibilidad y confidencialidad, manteniendo y/o mejorando la eficiencia del proceso de cifrado sobre estos archivos. Hoy en día es frecuente la transferencia de imágenes a través de medios tecnológicos, siendo necesario la actualización de las técnicas de encriptación existentes y mejor aún, la búsqueda de nuevas alternativas. Actualmente los algoritmos criptográficos clásicos son altamente conocidos en medio de la sociedad informática lo que provoca mayor vulnerabilidad, sin contar los altos tiempos de procesamiento al momento de ser utilizados, elevando la probabilidad de ser descifrados y minimizando la disponibilidad inmediata de los recursos. Para disminuir estas probabilidades, el uso de la teoría de caos surge como una buena opción para ser aplicada en un algoritmo que tome partida del comportamiento caótico de los sistemas dinámicos, y aproveche las propiedades de los mapas logísticos para elevar el nivel de robustez en el cifrado. Es por eso que este trabajo propone la creación de un sistema criptográfico basado sobre una arquitectura dividida en dos etapas de confusión y difusión. Cada una de ellas utiliza una ecuación logística para generar números pseudoaleatorios que permitan desordenar la posición del píxel y cambiar su intensidad en la escala de grises. Este proceso iterativo es determinado por la cantidad total de píxeles de una imagen. Finalmente, toda la lógica de cifrado es ejecutada sobre la tecnología CUDA que permite el procesamiento en paralelo. Como aporte sustancial, se propone una nueva técnica de encriptación vanguardista de alta sensibilidad ante ruidos externos manteniendo no solo la confidencialidad de la imagen, sino también la disponibilidad y la eficiencia en los tiempos de proceso.---ABSTRACT---New trends to share multimedia files over open networks, demand the best use of encryption techniques to ensure the integrity, availability and confidentiality, keeping and/or improving the efficiency of the encryption process on these files. Today it is common to transfer pictures through technological networks, thus, it is necessary to update existing techniques encryption, and even better, the searching of new alternatives. Nowadays, classic cryptographic algorithms are highly known in the midst of the information society which not only causes greater vulnerability, but high processing times when this algorithms are used. It raise the probability of being deciphered and minimizes the immediate availability of resources. To reduce these odds, the use of chaos theory emerged as a good option to be applied on an algorithm that takes advantage of chaotic behavior of dynamic systems, and take logistic maps’ properties to raise the level of robustness in the encryption. That is why this paper proposes the creation of a cryptographic system based on an architecture divided into two stages: confusion and diffusion. Each stage uses a logistic equation to generate pseudorandom numbers that allow mess pixel position and change their intensity in grayscale. This iterative process is determined by the total number of pixels of an image. Finally, the entire encryption logic is executed on the CUDA technology that enables parallel processing. As a substantial contribution, it propose a new encryption technique with high sensitivity on external noise not only keeping the confidentiality of the image, but also the availability and efficiency in processing times.
Resumo:
El objetivo principal de esta tesis doctoral es profundizar en el análisis y diseño de un sistema inteligente para la predicción y control del acabado superficial en un proceso de fresado a alta velocidad, basado fundamentalmente en clasificadores Bayesianos, con el prop´osito de desarrollar una metodolog´ıa que facilite el diseño de este tipo de sistemas. El sistema, cuyo propósito es posibilitar la predicción y control de la rugosidad superficial, se compone de un modelo aprendido a partir de datos experimentales con redes Bayesianas, que ayudar´a a comprender los procesos dinámicos involucrados en el mecanizado y las interacciones entre las variables relevantes. Dado que las redes neuronales artificiales son modelos ampliamente utilizados en procesos de corte de materiales, también se incluye un modelo para fresado usándolas, donde se introdujo la geometría y la dureza del material como variables novedosas hasta ahora no estudiadas en este contexto. Por lo tanto, una importante contribución en esta tesis son estos dos modelos para la predicción de la rugosidad superficial, que se comparan con respecto a diferentes aspectos: la influencia de las nuevas variables, los indicadores de evaluación del desempeño, interpretabilidad. Uno de los principales problemas en la modelización con clasificadores Bayesianos es la comprensión de las enormes tablas de probabilidad a posteriori producidas. Introducimos un m´etodo de explicación que genera un conjunto de reglas obtenidas de árboles de decisión. Estos árboles son inducidos a partir de un conjunto de datos simulados generados de las probabilidades a posteriori de la variable clase, calculadas con la red Bayesiana aprendida a partir de un conjunto de datos de entrenamiento. Por último, contribuimos en el campo multiobjetivo en el caso de que algunos de los objetivos no se puedan cuantificar en números reales, sino como funciones en intervalo de valores. Esto ocurre a menudo en aplicaciones de aprendizaje automático, especialmente las basadas en clasificación supervisada. En concreto, se extienden las ideas de dominancia y frontera de Pareto a esta situación. Su aplicación a los estudios de predicción de la rugosidad superficial en el caso de maximizar al mismo tiempo la sensibilidad y la especificidad del clasificador inducido de la red Bayesiana, y no solo maximizar la tasa de clasificación correcta. Los intervalos de estos dos objetivos provienen de un m´etodo de estimación honesta de ambos objetivos, como e.g. validación cruzada en k rodajas o bootstrap.---ABSTRACT---The main objective of this PhD Thesis is to go more deeply into the analysis and design of an intelligent system for surface roughness prediction and control in the end-milling machining process, based fundamentally on Bayesian network classifiers, with the aim of developing a methodology that makes easier the design of this type of systems. The system, whose purpose is to make possible the surface roughness prediction and control, consists of a model learnt from experimental data with the aid of Bayesian networks, that will help to understand the dynamic processes involved in the machining and the interactions among the relevant variables. Since artificial neural networks are models widely used in material cutting proceses, we include also an end-milling model using them, where the geometry and hardness of the piecework are introduced as novel variables not studied so far within this context. Thus, an important contribution in this thesis is these two models for surface roughness prediction, that are then compared with respecto to different aspects: influence of the new variables, performance evaluation metrics, interpretability. One of the main problems with Bayesian classifier-based modelling is the understanding of the enormous posterior probabilitiy tables produced. We introduce an explanation method that generates a set of rules obtained from decision trees. Such trees are induced from a simulated data set generated from the posterior probabilities of the class variable, calculated with the Bayesian network learned from a training data set. Finally, we contribute in the multi-objective field in the case that some of the objectives cannot be quantified as real numbers but as interval-valued functions. This often occurs in machine learning applications, especially those based on supervised classification. Specifically, the dominance and Pareto front ideas are extended to this setting. Its application to the surface roughness prediction studies the case of maximizing simultaneously the sensitivity and specificity of the induced Bayesian network classifier, rather than only maximizing the correct classification rate. Intervals in these two objectives come from a honest estimation method of both objectives, like e.g. k-fold cross-validation or bootstrap.
Resumo:
La robótica ha evolucionado exponencialmente en las últimas décadas, permitiendo a los sistemas actuales realizar tareas sumamente complejas con gran precisión, fiabilidad y velocidad. Sin embargo, este desarrollo ha estado asociado a un mayor grado de especialización y particularización de las tecnologías implicadas, siendo estas muy eficientes en situaciones concretas y controladas, pero incapaces en entornos cambiantes, dinámicos y desestructurados. Por eso, el desarrollo de la robótica debe pasar por dotar a los sistemas de capacidad de adaptación a las circunstancias, de entendedimiento sobre los cambios observados y de flexibilidad a la hora de interactuar con el entorno. Estas son las caracteristicas propias de la interacción del ser humano con su entorno, las que le permiten sobrevivir y las que pueden proporcionar a un sistema inteligencia y capacidad suficientes para desenvolverse en un entorno real de forma autónoma e independiente. Esta adaptabilidad es especialmente importante en el manejo de riesgos e incetidumbres, puesto que es el mecanismo que permite contextualizar y evaluar las amenazas para proporcionar una respuesta adecuada. Así, por ejemplo, cuando una persona se mueve e interactua con su entorno, no evalúa los obstáculos en función de su posición, velocidad o dinámica (como hacen los sistemas robóticos tradicionales), sino mediante la estimación del riesgo potencial que estos elementos suponen para la persona. Esta evaluación se consigue combinando dos procesos psicofísicos del ser humano: por un lado, la percepción humana analiza los elementos relevantes del entorno, tratando de entender su naturaleza a partir de patrones de comportamiento, propiedades asociadas u otros rasgos distintivos. Por otro lado, como segundo nivel de evaluación, el entendimiento de esta naturaleza permite al ser humano conocer/estimar la relación de los elementos con él mismo, así como sus implicaciones en cuanto a nivel de riesgo se refiere. El establecimiento de estas relaciones semánticas -llamado cognición- es la única forma de definir el nivel de riesgo de manera absoluta y de generar una respuesta adecuada al mismo. No necesariamente proporcional, sino coherente con el riesgo al que se enfrenta. La investigación que presenta esta tesis describe el trabajo realizado para trasladar esta metodología de análisis y funcionamiento a la robótica. Este se ha centrado especialmente en la nevegación de los robots aéreos, diseñando e implementado procedimientos de inspiración humana para garantizar la seguridad de la misma. Para ello se han estudiado y evaluado los mecanismos de percepción, cognición y reacción humanas en relación al manejo de riesgos. También se ha analizado como los estímulos son capturados, procesados y transformados por condicionantes psicológicos, sociológicos y antropológicos de los seres humanos. Finalmente, también se ha analizado como estos factores motivan y descandenan las reacciones humanas frente a los peligros. Como resultado de este estudio, todos estos procesos, comportamientos y condicionantes de la conducta humana se han reproducido en un framework que se ha estructurado basadandose en factores análogos. Este emplea el conocimiento obtenido experimentalmente en forma de algoritmos, técnicas y estrategias, emulando el comportamiento humano en las mismas circunstancias. Diseñado, implementeado y validado tanto en simulación como con datos reales, este framework propone una manera innovadora -tanto en metodología como en procedimiento- de entender y reaccionar frente a las amenazas potenciales de una misión robótica. ABSTRACT Robotics has undergone a great revolution in the last decades. Nowadays this technology is able to perform really complex tasks with a high degree of accuracy and speed, however this is only true in precisely defined situations with fully controlled variables. Since the real world is dynamic, changing and unstructured, flexible and non context-dependent systems are required. The ability to understand situations, acknowledge changes and balance reactions is required by robots to successfully interact with their surroundings in a fully autonomous fashion. In fact, it is those very processes that define human interactions with the environment. Social relationships, driving or risk/incertitude management... in all these activities and systems, context understanding and adaptability are what allow human beings to survive: contrarily to the traditional robotics, people do not evaluate obstacles according to their position but according to the potential risk their presence imply. In this sense, human perception looks for information which goes beyond location, speed and dynamics (the usual data used in traditional obstacle avoidance systems). Specific features in the behaviour of a particular element allows the understanding of that element’s nature and therefore the comprehension of the risk posed by it. This process defines the second main difference between traditional obstacle avoidance systems and human behaviour: the ability to understand a situation/scenario allows to get to know the implications of the elements and their relationship with the observer. Establishing these semantic relationships -named cognition- is the only way to estimate the actual danger level of an element. Furthermore, only the application of this knowledge allows the generation of coherent, suitable and adjusted responses to deal with any risk faced. The research presented in this thesis summarizes the work done towards translating these human cognitive/reasoning procedures to the field of robotics. More specifically, the work done has been focused on employing human-based methodologies to enable aerial robots to navigate safely. To this effect, human perception, cognition and reaction processes concerning risk management have been experimentally studied; as well as the acquisition and processing of stimuli. How psychological, sociological and anthropological factors modify, balance and give shape to those stimuli has been researched. And finally, the way in which these factors motivate the human behaviour according to different mindsets and priorities has been established. This associative workflow has been reproduced by establishing an equivalent structure and defining similar factors and sources. Besides, all the knowledge obtained experimentally has been applied in the form of algorithms, techniques and strategies which emulate the analogous human behaviours. As a result, a framework capable of understanding and reacting in response to stimuli has been implemented and validated.
Resumo:
El objeto de este proyecto es realizar un análisis de estabilidad ante contingencias en una red aislada de pequeña potencia con alto grado de penetración eólica mediante la herramienta PSS/E con el fin de aportar conocimiento para, posteriormente, definir la forma de operación más adecuada de dicho sistema atendiendo a su eficacia y fiabilidad. La red considerada para el estudio es la de la isla de El Hierro, en el archipiélago de Canarias, donde se tiene previsto abastecer exclusivamente, a toda la isla, combinando la aportación energética de un parque eólico y una central hidráulica con grupos de bombeo. Para realizar los estudios de estabilidad se analizan una serie de escenarios considerados de interés desde el punto de vista técnico, bien sea abasteciendo la demanda con una sola fuente de generación o con varias a la vez. El interés principal de esta red radica en que es una red aislada, de pequeña potencia, por lo que el proceso de integración masiva de energías renovables en la misma presenta una serie de particularidades que se irán detallando a lo largo del trabajo. El modelado de la red se ha realizado utilizando PSS/E, un software comercial extendido para el análisis de los sistemas de potencia. Con el programa se han resuelto los regímenes estáticos de funcionamiento (flujos de cargas) y los dinámicos (estudios de contingencias). Los resultados mostrarán las tensiones o frecuencias en los nudos de interés, observándose cómo cambian los valores en la situación anormal de funcionamiento y cómo se recuperan cuando se despeja la falta considerada, retornándose a los valores que existían en la red previos al fallo. Se pretende concluir cuál debe ser el mínimo de energía convencional que se debe mantener en el sistema para asegurar el suministro de forma fiable y segura en cualquier circunstancia.
A methodology to analyze, design and implement very fast and robust controls of Buck-type converters
Resumo:
La electrónica digital moderna presenta un desafío a los diseñadores de sistemas de potencia. El creciente alto rendimiento de microprocesadores, FPGAs y ASICs necesitan sistemas de alimentación que cumplan con requirimientos dinámicos y estáticos muy estrictos. Específicamente, estas alimentaciones son convertidores DC-DC de baja tensión y alta corriente que necesitan ser diseñados para tener un pequeño rizado de tensión y una pequeña desviación de tensión de salida bajo transitorios de carga de una alta pendiente. Además, dependiendo de la aplicación, se necesita cumplir con otros requerimientos tal y como proveer a la carga con ”Escalado dinámico de tensión”, donde el convertidor necesitar cambiar su tensión de salida tan rápidamente posible sin sobreoscilaciones, o ”Posicionado Adaptativo de la Tensión” donde la tensión de salida se reduce ligeramente cuanto más grande sea la potencia de salida. Por supuesto, desde el punto de vista de la industria, las figuras de mérito de estos convertidores son el coste, la eficiencia y el tamaño/peso. Idealmente, la industria necesita un convertidor que es más barato, más eficiente, más pequeño y que aún así cumpla con los requerimienos dinámicos de la aplicación. En este contexto, varios enfoques para mejorar la figuras de mérito de estos convertidores se han seguido por la industria y la academia tales como mejorar la topología del convertidor, mejorar la tecnología de semiconducores y mejorar el control. En efecto, el control es una parte fundamental en estas aplicaciones ya que un control muy rápido hace que sea más fácil que una determinada topología cumpla con los estrictos requerimientos dinámicos y, consecuentemente, le da al diseñador un margen de libertar más amplio para mejorar el coste, la eficiencia y/o el tamaño del sistema de potencia. En esta tesis, se investiga cómo diseñar e implementar controles muy rápidos para el convertidor tipo Buck. En esta tesis se demuestra que medir la tensión de salida es todo lo que se necesita para lograr una respuesta casi óptima y se propone una guía de diseño unificada para controles que sólo miden la tensión de salida Luego, para asegurar robustez en controles muy rápidos, se proponen un modelado y un análisis de estabilidad muy precisos de convertidores DC-DC que tienen en cuenta circuitería para sensado y elementos parásitos críticos. También, usando este modelado, se propone una algoritmo de optimización que tiene en cuenta las tolerancias de los componentes y sensados distorsionados. Us ando este algoritmo, se comparan controles muy rápidos del estado del arte y su capacidad para lograr una rápida respuesta dinámica se posiciona según el condensador de salida utilizado. Además, se propone una técnica para mejorar la respuesta dinámica de los controladores. Todas las propuestas se han corroborado por extensas simulaciones y prototipos experimentales. Con todo, esta tesis sirve como una metodología para ingenieros para diseñar e implementar controles rápidos y robustos de convertidores tipo Buck. ABSTRACT Modern digital electronics present a challenge to designers of power systems. The increasingly high-performance of microprocessors, FPGAs (Field Programmable Gate Array) and ASICs (Application-Specific Integrated Circuit) require power supplies to comply with very demanding static and dynamic requirements. Specifically, these power supplies are low-voltage/high-current DC-DC converters that need to be designed to exhibit low voltage ripple and low voltage deviation under high slew-rate load transients. Additionally, depending on the application, other requirements need to be met such as to provide to the load ”Dynamic Voltage Scaling” (DVS), where the converter needs to change the output voltage as fast as possible without underdamping, or ”Adaptive Voltage Positioning” (AVP) where the output voltage is slightly reduced the greater the output power. Of course, from the point of view of the industry, the figures of merit of these converters are the cost, efficiency and size/weight. Ideally, the industry needs a converter that is cheaper, more efficient, smaller and that can still meet the dynamic requirements of the application. In this context, several approaches to improve the figures of merit of these power supplies are followed in the industry and academia such as improving the topology of the converter, improving the semiconductor technology and improving the control. Indeed, the control is a fundamental part in these applications as a very fast control makes it easier for the topology to comply with the strict dynamic requirements and, consequently, gives the designer a larger margin of freedom to improve the cost, efficiency and/or size of the power supply. In this thesis, how to design and implement very fast controls for the Buck converter is investigated. This thesis proves that sensing the output voltage is all that is needed to achieve an almost time-optimal response and a unified design guideline for controls that only sense the output voltage is proposed. Then, in order to assure robustness in very fast controls, a very accurate modeling and stability analysis of DC-DC converters is proposed that takes into account sensing networks and critical parasitic elements. Also, using this modeling approach, an optimization algorithm that takes into account tolerances of components and distorted measurements is proposed. With the use of the algorithm, very fast analog controls of the state-of-the-art are compared and their capabilities to achieve a fast dynamic response are positioned de pending on the output capacitor. Additionally, a technique to improve the dynamic response of controllers is also proposed. All the proposals are corroborated by extensive simulations and experimental prototypes. Overall, this thesis serves as a methodology for engineers to design and implement fast and robust controls for Buck-type converters.
Resumo:
El mundo actual es una fuente ilimitada de información. El manejo y análisis de estas enormes cantidades de información es casi imposible, pero también es difícil poder capturar y relacionar diferentes tipos de datos entre sí y, a partir de este análisis, sacar conclusiones que puedan conllevar a la realización, o no, de un conjunto de acciones. Esto hace necesario la implementación de sistemas que faciliten el acceso, visualización y manejo de estos datos; con el objetivo de poder relacionarlos, analizarlos, y permitir al usuario que, de la manera más sencilla posible, pueda sacar conclusiones de estos. De esta necesidad de manejar, visualizar y relacionar datos nació la plataforma Wirecloud. Wirecloud ha sido desarrollado en el laboratorio Computer Networks & Web Technologies Lab (CoNWeT Lab) del grupo CETTICO, ubicado en la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Wirecloud es una plataforma de código abierto que permite, utilizando las últimas tecnologías web, recoger la información que se quiere analizar de diferentes fuentes en tiempo real e, interconectando entre sí una serie de componentes y operadores, realizar una mezcla y procesado de esta información para después usarla y mostrarla de la manera más usable posible al usuario. Un ejemplo de uso real de la plataforma podría ser: utilizar la lista de repartidores de una empresa de envío urgente para conocer cuáles son sus posiciones en tiempo real sobre un mapa utilizando el posicionamiento GPS de sus dispositivos móviles, y poder asignarles el destino y la ruta más óptima; todo esto desde la misma pantalla. El proyecto Wirecloud Mobile corresponde a la versión móvil de la plataforma Wirecloud, cuyo objetivos principales pretenden compatibilizar Wirecloud con el mayor número de sistemas operativos móviles que actualmente hay en el mercado, permitiendo su uso en cualquier parte del mundo; y poder enriquecer los componentes mencionados en el párrafo anterior con las características y propiedades nativas de los dispositivos móviles actuales, como por ejemplo el posicionamiento GPS, el acelerómetro, la cámara, el micrófono, los altavoces o tecnologías de comunicación como el Bluetooth o el NFC.---ABSTRACT---The current world is a limitless source of information. Use and analysis of this huge amount of information is nearly impossible; but it is also difficult being able to capture and relate different kinds of data to each other and, from this analysis, draw conclusions that can lead to the fulfilment or not of a set of relevant actions. This requires the implementation of systems to facilitate the access, visualization and management of this data easier; with the purpose of being capable of relate, analyse, and allow the user to draw conclusions from them. And out of this need to manage, visualize and relate data, the Wirecloud platform was born. Wirecloud has been developed at the Computer Networks & Web Technologies Lab (CoNWeT Lab) of CETTICO group, located at Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. Wirecloud is an open-source platform that allows, using the latest web technologies, to collect the information from different sources in real time and interlinking a set of widgets and operators, make a mixture and processing of this information, so then use it and show it in the most usable way. An example of the actual use of the platform could be: using the list of deliverymen from an express delivery company in order to know, using GPS positioning from their mobile devices, which are their current locations in a map; and be able to assign them the destination and optimum route; all of this from the same display/screen. Wirecloud Mobile Project is the mobile version of the Wirecloud platform, whose main objectives aim to make Wirecloud compatible with the largest amount of mobile operative systems that are currently available, allowing its use everywhere; and enriching and improving the previously mentioned components with the native specifications and properties of the present mobile devices, such as GPS positioning, accelerometer, camera, microphone, built-in speakers, or communication technologies such as Bluetooth or NFC (Near Field Communications).
Resumo:
La industria de la energía eólica marina ha crecido de forma significativa durante los últimos 15 años, y se espera que siga creciendo durante los siguientes. La construcción de torres en aguas cada vez más profundas y el aumento en potencia y tamaño de las turbinas han creado la necesidad de diseñar estructuras de soporte cada vez más fiables y optimizadas, lo que requiere un profundo conocimiento de su comportamiento. Este trabajo se centra en la respuesta dinámica de una turbina marina con cimentación tipo monopilote y sobre la que actúa la fuerza del viento. Se han realizado cálculos con distintas propiedades del suelo para cubrir un rango de rigideces que va desde una arena muy suelta a una muy densa. De este modo se ha analizado la influencia que tiene la rigidez del suelo en el comportamiento de la estructura. Se han llevado a cabo análisis estáticos y dinámicos en un modelo de elementos finitos implementado en Abaqus. El desplazamiento en la cabeza de la torre y la tensión en su base se han obtenido en función de la rigidez del suelo, y con ellos se ha calculado la amplificación dinámica producida cuando la frecuencia natural del sistema suelo‐cimentación torre se aproxima a la frecuencia de la carga. Dos diferentes enfoques a la hora de modelizar el suelo se han comparado: uno utilizando elementos continuos y otro utilizando muelles elásticos no lineales. Por último, un análisis de fiabilidad se ha llevado a cabo con un modelo analítico para calcular la probabilidad de resonancia del sistema, en el que se han considerado las propiedades de rigidez del suelo como variables aleatorias. Offshore wind energy industry has experienced a significant growth over the past 15 years, and it is expected to continue its growth in the coming years. The expansion to increasingly deep waters and the rise in power and size of the turbines have led to a need for more reliable and optimized support designs, which requires an extensive knowledge of the behaviour of these structures. This work focuses on the dynamic response of an offshore wind turbine founded on a monopile and subjected to wind loading. Different soil properties have been considered in order to cover the range of stiffness from a very loose to a very dense sand. In this way, the influence of stiffness on the structure behaviour has been assessed. Static and dynamic analyses have been carried out by means of a finite element model implemented in Abaqus. Head displacement and stress at the tower base have been obtained as functions of soil stiffness, and they have been used to calculate the dynamic amplification that is produced when the natural frequency of the system soil‐foundation‐tower approaches the load frequency. Two different approaches of soil modelling have been compared: soil modelled as a continuum and soil simulated with non linear elastic springs. Finally, a reliability analysis to assess the probability of resonance has been performed with an analytical model, in which soil stiffness properties are considered as stochastic variables.
Resumo:
As tecnologias de sementeira directa e agricultura de precisão podem conciliar-se num novo conceito de sementeira directa de precisão. Desta forma, neste ensaio ambas as tecnologias permitiram provar que variações da resistência de penetração do solo afectam a qualidade da operação de sementeira no que respeita à uniformidade de profundidade de distribuição da semente. A utilização de um equipamento de GPS na georeferenciação de uma sementeira de milho, e a montagem de uma célula de carga e de um sensor LVDT numa das linhas de um semeador mecânico monogrão permitiram avaliar a variação da força exercida sobre o solo pelo braço de sementeira e a respectiva variação de profundidade de deposição da semente. Os resultados mostram uma correlação moderada de 0.4 para as classes de Força de 0-735N, 735-882N e 882-1176N com as classes de profundidades de 0-10mm, 10-20mm e 20-30mm, respectivamente. Apesar de mais ensaios serem necessários para a consolidação dos valores obtidos, atendendo à importância que a sementeira directa tem no panorama dos sistemas de agricultura de conservação em Portugal, estes resultados mostram o interesse no desenvolvimento de sistemas de controlo de pressão dinâmicos nos semeadores de sementeira directa de modo a reduzir as variações encontradas.
Resumo:
El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.
Resumo:
El riesgo de caída por deslizamiento en los edificios es un riesgo muy importante ya que supone numerosas muertes, perdida de días laborales y secuelas, así como importantes costes económicos. Se trata de accidentes difíciles de predecir debido al número de factores que intervienen para que se produzcan, muchos de los cuales son difícilmente controlables, como el calzado del usuario o su comportamiento. Para evitar un resbalón es necesario que la fricción del conjunto pavimento/calzado/contaminante supere el coeficiente de fricción requerido para la estabilidad y que depende de la forma de caminar, la longitud del paso, etc. Por ello, es necesario medir la contribución del pavimento al riesgo de deslizamiento y limitarla adecuadamente. A lo largo de la historia reciente se han diseñado y desarrollado multitud de aparatos con la intención de medir esta contribución en la forma de coeficientes de fricción —dinámicos, estáticos, de transición— sin llegar a un acuerdo sobre cuál es el método más apropiado. La reglamentación española de edificación, que ha sufrido un importante cambio recientemente con la adopción de un nuevo código basado en prestaciones, ha sido innovadora en este campo introduciendo por primera vez una medida contrastable de la contribución del pavimento al riesgo de deslizamiento mediante el ensayo del péndulo de fricción en húmedo. Sin embargo, el desacuerdo a nivel europeo sobre un ensayo único y las limitaciones en las normas de ensayo existentes derivadas de esta falta de consenso, han sido la causa de que la solución aportada por el Código Técnico de la Edificación (CTE) se cimentara en normas que no contemplaban todas las modalidades de ensayo. Esto ha generado algunos problemas de aplicación que han afectado fundamentalmente a los pavimentos pulidos, que han visto prácticamente vetada su utilización en los edificios incluso en las zonas donde, por no existir presencia de agua, el riesgo es menor. El objetivo de esta tesis es analizar estos problemas de aplicación, ligados al ensayo del péndulo de fricción, y tratar de resolverlos optimizando el procedimiento de ensayo empleado, modificando sus condiciones, para representar de forma mucho más adecuada el riesgo que se pretende limitar. Para ello se ha estudiado de forma exhaustiva la literatura científica y las normas y reglamentaciones, tanto españolas como extranjeras. Se han detectado los posibles problemas que podría plantear la introducción del ensayo del péndulo de fricción en seco y se ha diseñado una campaña de ensayos, tanto de coeficiente de fricción con el péndulo, como de la rugosidad superficial, para confirmarlos o desecharlos. El análisis de los resultados de la campaña de ensayos ha permitido validar la modalidad de ensayo planteada y proponer una medida complementaria de la rugosidad superficial que resulte útil para facilitar la evaluación de este riesgo no poco importante. Los resultados de esta tesis han permitido desarrollar una modificación del CTE de próxima aparición y un documento de apoyo que ya la adelanta, y con ello, resolver el problema de aplicación del CTE a los pavimentos pulidos. ABSTRACT Slipping accidents in building environments are a serious problem involving numerous fatal accidents, loss of work days, incapacity and great costs. Prediction of such accidents is difficult due to the number of factors involved, many of which are not controllable, like footwear or users behavior. To prevent a slip the coefficient of friction provided by the combination floor-footwear-contaminant must be greater than the required coefficient of friction for stability, that depends on the step length and the walking speed among other factors. It is then necessary to measure the contribution of the floor to the slipping risk so it can be limited to an adequate extent. In the recent history many apparatuses have been developed in order to measure this contribution in the form of friction coefficients —dynamic, static or even transition COFs— but none of them seems to be internationally accepted as sufficiently valid. The Spanish Building Code, which has recently undergone a big change to a performance based code, has been innovative in this area, introducing for the first time a measurement of this contribution by means of the friction pendulum test. However, due to the European disagreement about an unique test for slip resistance, and to the limitations of the European standards derived from it, the Spanish Building Code relies on standards that do not take into account all possible methods. As a consequence, smooth floors have been seriously affected and cannot be installed in almost any place, not even in dry areas where the risk of slipping is much lower. The aim of this research is to analyze these problems associated with the pendulum test and resolve them proposing some changes to the test conditions in order to represent in a proper manner the real risk that is to be considered: the slip in dry conditions. Relevant scientific literature has been studied as well as Spanish and foreign codes and standards. Potential problems of the pendulum test in dry conditions have been detected and an experiment has been designed to confirm or discard them, testing both friction coefficient and surface roughness. The results of the experiment have permitted to validate the pendulum test in dry conditions and to suggest a complementary measurement of the surface roughness to help evaluate the slip resistance of a floor. These results have also permitted to develop an amendment to the building code that will appear soon. In the meanwhile it has been included in a support document issued by the administration to resolve this urgent problem.
Resumo:
El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.
Resumo:
Los diques de abrigo verticales son estructuras monolíticas que sirven para reflejar el oleaje creando, de este modo, una zona abrigada en el lado tierra. Son estructuras de contención de gravedad, es decir, su peso es el elemento resistente fundamental. Las solicitaciones sobre estas estructuras son de tipo dinámico (oleaje) y consisten, fundamentalmente, en un empuje frontal y una subpresión en la base que varían en el tiempo. Habitualmente, las acciones sobre los diques de abrigo se establecen mediante fórmulas empíricas, que se describen en la presente tesis si bien, para obras de especial importancia, suelen medirse en modelos reducidos de laboratorio. Cuando el cimiento en que han de apoyarse estas estructuras no presenta una resistencia al corte suficiente, el apoyo se realiza en banquetas que redistribuyen la carga y que están formadas por materiales granulares. En la práctica habitual para conocer la estabilidad de estas estructuras frente a un temporal, tras establecer las acciones de cálculo (empuje frontal y subpresión) se efectúa un cálculo pseudoestático en el que se consideran condiciones drenadas o no drenadas del cimiento en función de su permeabilidad. Se conoce que en los suelos saturados, bajo cargas cíclicas, tiende a producirse una elevación de las presiones intersticiales y una reducción de tensiones efectivas así como una degradación del módulo de deformación tangencial en función del número de ciclos de carga, pudiéndose producir el fenómeno conocido como licuefacción (arenas) o movilidad cíclica (suelos más finos). El objeto de la tesis es explorar la posibilidad, con la tecnología actual, de analizar la estabilidad de los diques de abrigo verticales en cuyo cimiento existen suelos blandos, proponiendo un procedimiento para evaluar la estabilidad dinámica en este tipo de obras. Para ello se han revisado los procedimientos actualmente utilizados para definir las acciones de cálculo, los principales modelos de comportamiento dinámicos de suelos saturados disponibles y los procedimientos de cálculo. Una vez investigado el estado del arte sobre este tema, se propone un procedimiento de cálculo en el que, utilizando el programa comercial FLAC, se establecen las acciones cíclicas sobre un dique de abrigo vertical tipo con distintas condiciones de apoyo, aplicando, para el cimiento, un modelo de comportamiento tipo hiperbólico con generación de presiones intersticiales cuyos parámetros pueden obtenerse de ensayos de campo y laboratorio. Por último, una vez descrito el procedimiento, se aplica a un caso real en el que se produjo un fallo en la cimentación que desembocó en el hundimiento de parte de un dique vertical situado en el puerto de Barcelona, presentándose los resultados obtenidos del análisis efectuado y comparándolos con los obtenidos utilizando los métodos de cálculo habituales. Vertical breakwaters are monolithic structures built to reflect sea waves, thereby providing a sheltered area on the land side. They are gravity retaining structures, that is, their own weight is their basic resisting mechanism. Loads acting on these structures are dynamic (waves) and consist essentially in a frontal thrust and an uplift pressure on the base, which both vary over time. Usually, actions in breakwater design are established by empirical formulas, which are described in this thesis. For works of particular importance, such forces are measured in small-scale laboratory tests. When there are no soils with enough shear strength under the planned vertical breakwaters, they usually rest on granular berms which redistribute the load. Nowadays, after establishing the acting forces on the breakwater (front push and uplift pressure), a pseudostatic calculation (with drained or undrained conditions depending on the foundation permeability) is normally done to analyze the stability of these structures against storm waves. It is known that pore pressures tend to rise in saturated soils under cyclic loading and, consequently, there is a reduction of effective stress. A degradation of the shear modulus also occurs depending on the number of load cycles. All of these effects can bring about the phenomenon known as liquefaction in sands or cyclic mobility in fine-grained soils. The aim of the thesis is to explore the possibility that current technology provides to analyze the stability of vertical breakwaters founded on soft soils, and to suggest a method to evaluate the dynamic stability in this type of works. To this end, a review has been made of procedures currently used to define the actions in calculations, the main models of dynamic behaviour of saturated soils available and of calculation procedures. Once the state of the art on this subject has been reviewed, a method of calculation is proposed that uses the commercial program FLAC and is applied to a typical vertical breakwater on a range of different foundation conditions. For the foundation soil, a hyperbolic constitutive model with pore pressure generation has been employed, whose parameters can be obtained from field and laboratory tests. Finally, the described procedure is applied to an actual case where a foundation failure occurred that led to the sinking of several caissons in a vertical breakwater located in the port of Barcelona. The results obtained with the proposed method are compared with those obtained using conventional methods.
Resumo:
La preservación del patrimonio bibliográfico y documental en papel es uno de los mayores retos a los que se enfrentan bibliotecas y archivos de todo el mundo. La búsqueda de soluciones al problema del papel degradado ha sido abordada históricamente desde dos líneas de trabajo predominantes: la conservación de estos documentos mediante la neutralización de los ácidos presentes en ellos con agentes alcalinos, y su restauración mediante el método de laminación fundamentalmente con papel de origen vegetal. Sin embargo, no se ha explorado con éxito la posibilidad de reforzar la celulosa dañada, y el problema sigue sin encontrar una solución satisfactoria. Hasta el día de hoy, el desarrollo de tratamientos basados en biotecnología en la conservación del patrimonio documental ha sido muy escaso, aunque la capacidad de ciertas bacterias de producir celulosa lleva a plantear su uso en el campo de la conservación y restauración del papel. La celulosa bacteriana (CB) es químicamente idéntica a la celulosa vegetal, pero su organización macroscópica es diferente. Sus propiedades únicas (alto grado de cristalinidad, durabilidad, resistencia y biocompatibilidad) han hecho de este material un excelente recurso en diferentes campos. En el desarrollo de esta tesis se ha estudiado el uso de la celulosa bacteriana, de alta calidad, generada por Gluconacetobacter sucrofermentans CECT 7291, para restaurar documentos deteriorados y consolidar los que puedan estar en peligro de degradación, evitando así su destrucción y proporcionando al papel que se restaura unas buenas propiedades mecánicas, ópticas y estructurales. Se desarrollan asimismo protocolos de trabajo que permitan la aplicación de dicha celulosa. En primer lugar se seleccionó el medio de cultivo que proporcionó una celulosa adecuada para su uso en restauración. Para ello se evaluó el efecto que tienen sobre la celulosa generada las fuentes de carbono y nitrógeno del medio de cultivo, manteniendo como parámetros fijos la temperatura y el pH inicial del medio, y efectuando los ensayos en condiciones estáticas. Se evaluó, también, el efecto que tiene en la CB la adición de un 1% de etanol al medio de cultivo. Las capas de celulosa se recolectaron a cuatro tiempos distintos, caracterizando en cada uno de ellos el medio de cultivo (pH y consumo de fuente de carbono), y las capas de CB (pH, peso seco y propiedades ópticas y mecánicas). La mejor combinación de fuentes de carbono y nitrógeno resultó ser fructosa más extracto de levadura y extracto de maíz, con o sin etanol, que proporcionaban una buena relación entre la producción de celulosa y el consumo de fuente de carbono, y que generaban una capa de celulosa resistente y homogénea. La adición de etanol al medio de cultivo, si bien aumentaba la productividad, causaba un descenso apreciable de pH. Las capas de CB obtenidas con los medios de cultivo optimizados se caracterizaron en términos de sus índices de desgarro y estallido, propiedades ópticas, microscopía electrónica de barrido (SEM), difracción de rayos-X, espectroscopía infrarroja con transformada de Fourier (FTIR), grado de polimerización, ángulos de contacto estáticos y dinámicos, y porosimetría de intrusión de mercurio. Por otro lado hay que tener en cuenta que el material restaurado debe ser estable con el tiempo. Por ello esta misma caracterización se efectuó tras someter a las capas de CB a un proceso de envejecimiento acelerado. Los resultados mostraron que la CB resultante tiene un elevado índice de cristalinidad, baja porosidad interna, buenas propiedades mecánicas, y alta estabilidad en el tiempo. Para desarrollar los protocolos de trabajo que permitan la restauración con esta celulosa optimizada, se comienzó con un proceso de selección de los papeles que van a ser restaurados. Se eligieron tres tipos de papeles modelo, hechos con pasta mecánica, química y filtro (antes y después de ser sometidos a un proceso de envejecimiento acelerado), y tres libros viejos adquiridos en el mercado de segunda mano. Estos ejemplares a restaurar se caracterizaron también en términos de sus propiedades mecánicas y fisicoquímicas. El primer protocolo de restauración con CB que se evaluó fue el denominado laminación. Consiste en aplicar un material de refuerzo al documento mediante el uso de un adhesivo. Se seleccionó para ello la CB producida en el medio de cultivo optimizado con un 1% de etanol. Se aplicó un método de purificación alcalino (1 hora a 90 °C en NaOH al 1%) y como adhesivo se seleccionó almidón de trigo. El proceso de laminación se efectuó también con papel japonés (PJ), un material habitualmente utilizado en conservación, para comparar ambos materiales. Se concluyó que no hay diferencias significativas en las características estudiadas entre los dos tipos de materiales de refuerzo. Se caracterizó el material reforzado y, también, después de sufrir un proceso de envejecimiento acelerado. Los papeles laminados con CB mostraban diferencias más marcadas en las propiedades ópticas que los restaurados con PJ, con respecto a los originales. Sin embargo, el texto era más legible cuando el material de restauración era la CB. La mojabilidad disminuía con ambos tipos de refuerzo, aunque en los papeles laminados con CB de manera más marcada e independiente del material a restaurar. Esto se debe a la estructura cerrada de la CB, que también conduce a una disminución en la permeabilidad al aire. Este estudio sugiere que la CB mejora la calidad del papel deteriorado, sin alterar la información que contiene, y que esta mejora se mantiene a lo largo del tiempo. Por tanto, la CB puede ser utilizada como material de refuerzo para laminar, pudiendo ser más adecuada que el PJ para ciertos tipos de papeles. El otro método de restauración que se estudió fue la generación in situ de la CB sobre el papel a restaurar. Para ello se seleccionó el medio de cultivo sin etanol, ya que el descenso de pH que causaba su presencia podría dañar el documento a restaurar. El método de purificación elegido fue un tratamiento térmico (24 horas a 65 °C), menos agresivo para el material a restaurar que el tratamiento alcalino. Se seleccionó la aplicación del medio de cultivo con la bacteria mediante pincel sobre el material a restaurar. Una vez caracterizado el material restaurado, y éste mismo tras sufrir un proceso de envejecimiento acelerado, se concluyó que no hay modificación apreciable en ninguna característica, salvo en la permeabilidad al aire, que disminuye de manera muy evidente con la generación de CB, dando lugar a un material prácticamente impermeable al aire. En general se puede concluir que ha quedado demostrada la capacidad que tiene la celulosa generada por la bacteria Gluconacetobacter sucrofermentans CECT 7291 para ser utilizada como material de refuerzo en la restauración del patrimonio documental en papel. Asimismo se han desarrollado dos métodos de aplicación, uno ex situ y otro in situ, para efectuar esta tarea de restauración. ABSTRACT The preservation of bibliographic and documentary heritage is one of the biggest challenges that libraries and archives around the world have to face. The search for solutions to the problem of degraded paper has historically been focused from two predominants lines of work: the conservation of these documents by the neutralization of acids in them with alkaline agents, and their restoration by lining them with, basically, cellulose from vegetal sources. However, the possibility of strengthening the damaged cellulose has not been successfully explored, and the problem still persists. Until today, the development of biotechnology-based treatments in documentary heritage conservation has been scarce, although the ability of certain bacteria to produce cellulose takes to propose its use in the field of conservation and restoration of paper. The bacterial cellulose (BC) is chemically identical to the plant cellulose, but its macroscopic organization is different. Its unique properties (high degree of crystallinity, durability, strength and biocompatibility), makes it an excellent resource in different fields. The use of high-quality BC generated by Gluconacetobacter sucrofermentans CECT 7291 to restore damaged documents and to consolidate those that may be at risk of degradation, has been studied in this thesis, trying to prevent the document destruction, and to get reinforced papers with good mechanical, optical and structural properties. Protocols that allow the implementation of the BC as a reinforcing material were also developed. First of all, in order to select the culture medium that provides a cellulose suitable for its use in restoration, it has been evaluated the effect that the carbon and nitrogen sources from the culture medium have on the generated BC, keeping the temperature and the initial pH of the medium as fixed parameters, and performing the culture without shaking. The effect of the addition of 1% ethanol to the culture medium on BC properties was also evaluated. The cellulose layers were collected at four different times, characterizing in all of them the culture medium (pH and carbon source consumption), and the BC sheets (pH, dry weight and optical and mechanical properties). The best combination of carbon and nitrogen sources proved to be fructose plus yeast extract and corn steep liquor, with or without ethanol, which provided a good balance between the cellulose production and the consumption of carbon source, and generating BC sheets homogeneous and resistant. The addition of ethanol to the culture medium increased productivity but caused a noticeable decrement in pH. The BC layers generated with these optimized culture media, have been characterized in terms of tear and burst index, optical properties, scanning electron microscopy (SEM), X-ray diffraction, infrared Fourier transform spectroscopy (FTIR), polymerization degree, static and dynamic contact angles, and mercury intrusion porosimetry. Moreover it must be kept in mind that the restored materials should be stable over time. Therefore, the same characterization was performed after subjecting the layers of BC to an accelerated aging process. The results showed that the BC sheets obtained have a high crystallinity index, low internal porosity, good mechanical properties, and high stability over time. To develop working protocols to use this optimized BC in paper restoration, the first step was to select the samples to restore. Three types of model papers, made from mechanical pulp, chemical pulp and filter paper (before and after an accelerated aging process), and three old books purchased in the second hand market, were chosen. These specimens to be restored were also characterized in terms of its mechanical and physicochemical properties. The first protocol of restoration with BC to be evaluated is called linning. It consists on applying a reinforcing material to the document using an adhesive. The BC produced in the optimized culture medium with 1% ethanol was selected. An alkali purification method (1 hour at 90 °C in 1% NaOH) was applied, and wheat starch was selected as adhesive. The linning process was also carried out with Japanese paper (JP), a material commonly used in conservation, in order to compare both materials. It was concluded that there are no significant differences in the characteristics studied of the two types of reinforcing materials. The reinforced materials were characterized before and after undergoing to an accelerated aging. Papers lined with BC showed more marked differences in the optical properties that papers restored with JP. However, the text was more readable when BC was the reinforcing material. Wettability decreased with both types of reinforcement, although in the papers linned with BC it happened more marked and independently of the sample to restore. This is due to the closed structure of BC, which also leads to a decrement in air permeance. This study suggests that BC improves the deteriorated paper quality, without altering the information on it, and that this improvement is maintained over time. Therefore, the BC may be used as reinforcing material for linning, being more suitable than the JP to restore certain types of papers. The other restoration method to be evaluated was the in situ generation of BC over the paper to restore. For this purpose the culture medium without ethanol was selected, as the pH decrement caused by his presence would damage the document to restore. As purification method a heat treatment (24 hours at 65 °C) was chosen, less aggressive to the material to restore than the alkaline treatment. It was decided to apply the culture medium with the bacteria onto the material to restore with a brush. The reinforced material was characterized before and after an accelerated aging process. It was concluded that there was no substantial change in any characteristic, except for air permeance, which decreases very sharply after the generation of BC, getting a substantially air impermeable material. In general, it can be concluded that the ability of BC produced by Gluconacetobacter sucrofermentans CECT 7291 for its use as a reinforcing material in the restoration of paper documentary heritage, has been demonstrated. Also, two restoration methods, one ex situ and another in situ have been developed.