869 resultados para TECHNOLOGICAL ADVANCES
Resumo:
Las técnicas de cirugía de mínima invasión (CMI) se están consolidando hoy en día como alternativa a la cirugía tradicional, debido a sus numerosos beneficios para los pacientes. Este cambio de paradigma implica que los cirujanos deben aprender una serie de habilidades distintas de aquellas requeridas en cirugía abierta. El entrenamiento y evaluación de estas habilidades se ha convertido en una de las mayores preocupaciones en los programas de formación de cirujanos, debido en gran parte a la presión de una sociedad que exige cirujanos bien preparados y una reducción en el número de errores médicos. Por tanto, se está prestando especial atención a la definición de nuevos programas que permitan el entrenamiento y la evaluación de las habilidades psicomotoras en entornos seguros antes de que los nuevos cirujanos puedan operar sobre pacientes reales. Para tal fin, hospitales y centros de formación están gradualmente incorporando instalaciones de entrenamiento donde los residentes puedan practicar y aprender sin riesgos. Es cada vez más común que estos laboratorios dispongan de simuladores virtuales o simuladores físicos capaces de registrar los movimientos del instrumental de cada residente. Estos simuladores ofrecen una gran variedad de tareas de entrenamiento y evaluación, así como la posibilidad de obtener información objetiva de los ejercicios. Los diferentes estudios de validación llevados a cabo dan muestra de su utilidad; pese a todo, los niveles de evidencia presentados son en muchas ocasiones insuficientes. Lo que es más importante, no existe un consenso claro a la hora de definir qué métricas son más útiles para caracterizar la pericia quirúrgica. El objetivo de esta tesis doctoral es diseñar y validar un marco de trabajo conceptual para la definición y validación de entornos para la evaluación de habilidades en CMI, en base a un modelo en tres fases: pedagógica (tareas y métricas a emplear), tecnológica (tecnologías de adquisición de métricas) y analítica (interpretación de la competencia en base a las métricas). Para tal fin, se describe la implementación práctica de un entorno basado en (1) un sistema de seguimiento de instrumental fundamentado en el análisis del vídeo laparoscópico; y (2) la determinación de la pericia en base a métricas de movimiento del instrumental. Para la fase pedagógica se diseñó e implementó un conjunto de tareas para la evaluación de habilidades psicomotoras básicas, así como una serie de métricas de movimiento. La validación de construcción llevada a cabo sobre ellas mostró buenos resultados para tiempo, camino recorrido, profundidad, velocidad media, aceleración media, economía de área y economía de volumen. Adicionalmente, los resultados obtenidos en la validación de apariencia fueron en general positivos en todos los grupos considerados (noveles, residentes, expertos). Para la fase tecnológica, se introdujo el EVA Tracking System, una solución para el seguimiento del instrumental quirúrgico basado en el análisis del vídeo endoscópico. La precisión del sistema se evaluó a 16,33ppRMS para el seguimiento 2D de la herramienta en la imagen; y a 13mmRMS para el seguimiento espacial de la misma. La validación de construcción con una de las tareas de evaluación mostró buenos resultados para tiempo, camino recorrido, profundidad, velocidad media, aceleración media, economía de área y economía de volumen. La validación concurrente con el TrEndo® Tracking System por su parte presentó valores altos de correlación para 8 de las 9 métricas analizadas. Finalmente, para la fase analítica se comparó el comportamiento de tres clasificadores supervisados a la hora de determinar automáticamente la pericia quirúrgica en base a la información de movimiento del instrumental, basados en aproximaciones lineales (análisis lineal discriminante, LDA), no lineales (máquinas de soporte vectorial, SVM) y difusas (sistemas adaptativos de inferencia neurodifusa, ANFIS). Los resultados muestran que en media SVM presenta un comportamiento ligeramente superior: 78,2% frente a los 71% y 71,7% obtenidos por ANFIS y LDA respectivamente. Sin embargo las diferencias estadísticas medidas entre los tres no fueron demostradas significativas. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la definición de sistemas de evaluación de habilidades para cirugía de mínima invasión, a la utilidad del análisis de vídeo como fuente de información y a la importancia de la información de movimiento de instrumental a la hora de caracterizar la pericia quirúrgica. Basándose en estos cimientos, se han de abrir nuevos campos de investigación que contribuyan a la definición de programas de formación estructurados y objetivos, que puedan garantizar la acreditación de cirujanos sobradamente preparados y promocionen la seguridad del paciente en el quirófano. Abstract Minimally invasive surgery (MIS) techniques have become a standard in many surgical sub-specialties, due to their many benefits for patients. However, this shift in paradigm implies that surgeons must acquire a complete different set of skills than those normally attributed to open surgery. Training and assessment of these skills has become a major concern in surgical learning programmes, especially considering the social demand for better-prepared professionals and for the decrease of medical errors. Therefore, much effort is being put in the definition of structured MIS learning programmes, where practice with real patients in the operating room (OR) can be delayed until the resident can attest for a minimum level of psychomotor competence. To this end, skills’ laboratory settings are being introduced in hospitals and training centres where residents may practice and be assessed on their psychomotor skills. Technological advances in the field of tracking technologies and virtual reality (VR) have enabled the creation of new learning systems such as VR simulators or enhanced box trainers. These systems offer a wide range of tasks, as well as the capability of registering objective data on the trainees’ performance. Validation studies give proof of their usefulness; however, levels of evidence reported are in many cases low. More importantly, there is still no clear consensus on topics such as the optimal metrics that must be used to assess competence, the validity of VR simulation, the portability of tracking technologies into real surgeries (for advanced assessment) or the degree to which the skills measured and obtained in laboratory environments transfer to the OR. The purpose of this PhD is to design and validate a conceptual framework for the definition and validation of MIS assessment environments based on a three-pillared model defining three main stages: pedagogical (tasks and metrics to employ), technological (metric acquisition technologies) and analytical (interpretation of competence based on metrics). To this end, a practical implementation of the framework is presented, focused on (1) a video-based tracking system and (2) the determination of surgical competence based on the laparoscopic instruments’ motionrelated data. The pedagogical stage’s results led to the design and implementation of a set of basic tasks for MIS psychomotor skills’ assessment, as well as the definition of motion analysis parameters (MAPs) to measure performance on said tasks. Validation yielded good construct results for parameters such as time, path length, depth, average speed, average acceleration, economy of area and economy of volume. Additionally, face validation results showed positive acceptance on behalf of the experts, residents and novices. For the technological stage the EVA Tracking System is introduced. EVA provides a solution for tracking laparoscopic instruments from the analysis of the monoscopic video image. Accuracy tests for the system are presented, which yielded an average RMSE of 16.33pp for 2D tracking of the instrument on the image and of 13mm for 3D spatial tracking. A validation experiment was conducted using one of the tasks and the most relevant MAPs. Construct validation showed significant differences for time, path length, depth, average speed, average acceleration, economy of area and economy of volume; especially between novices and residents/experts. More importantly, concurrent validation with the TrEndo® Tracking System presented high correlation values (>0.7) for 8 of the 9 MAPs proposed. Finally, the analytical stage allowed comparing the performance of three different supervised classification strategies in the determination of surgical competence based on motion-related information. The three classifiers were based on linear (linear discriminant analysis, LDA), non-linear (support vector machines, SVM) and fuzzy (adaptive neuro fuzzy inference systems, ANFIS) approaches. Results for SVM show slightly better performance than the other two classifiers: on average, accuracy for LDA, SVM and ANFIS was of 71.7%, 78.2% and 71% respectively. However, when confronted, no statistical significance was found between any of the three. Overall, this PhD corroborates the investigated research hypotheses regarding the definition of MIS assessment systems, the use of endoscopic video analysis as the main source of information and the relevance of motion analysis in the determination of surgical competence. New research fields in the training and assessment of MIS surgeons can be proposed based on these foundations, in order to contribute to the definition of structured and objective learning programmes that guarantee the accreditation of well-prepared professionals and the promotion of patient safety in the OR.
Resumo:
Abstract Due to recent scientific and technological advances in information sys¬tems, it is now possible to perform almost every application on a mobile device. The need to make sense of such devices more intelligent opens an opportunity to design data mining algorithm that are able to autonomous execute in local devices to provide the device with knowledge. The problem behind autonomous mining deals with the proper configuration of the algorithm to produce the most appropriate results. Contextual information together with resource information of the device have a strong impact on both the feasibility of a particu¬lar execution and on the production of the proper patterns. On the other hand, performance of the algorithm expressed in terms of efficacy and efficiency highly depends on the features of the dataset to be analyzed together with values of the parameters of a particular implementation of an algorithm. However, few existing approaches deal with autonomous configuration of data mining algorithms and in any case they do not deal with contextual or resources information. Both issues are of particular significance, in particular for social net¬works application. In fact, the widespread use of social networks and consequently the amount of information shared have made the need of modeling context in social application a priority. Also the resource consumption has a crucial role in such platforms as the users are using social networks mainly on their mobile devices. This PhD thesis addresses the aforementioned open issues, focusing on i) Analyzing the behavior of algorithms, ii) mapping contextual and resources information to find the most appropriate configuration iii) applying the model for the case of a social recommender. Four main contributions are presented: - The EE-Model: is able to predict the behavior of a data mining algorithm in terms of resource consumed and accuracy of the mining model it will obtain. - The SC-Mapper: maps a situation defined by the context and resource state to a data mining configuration. - SOMAR: is a social activity (event and informal ongoings) recommender for mobile devices. - D-SOMAR: is an evolution of SOMAR which incorporates the configurator in order to provide updated recommendations. Finally, the experimental validation of the proposed contributions using synthetic and real datasets allows us to achieve the objectives and answer the research questions proposed for this dissertation.
Resumo:
Just as business incubator programs are designed to support the development of fledgling companies, OSA?s new incubator meeting series is structured to encourage the growth of exciting new areas within optics. The first one was devoted to the topic of freeform optics-a field that is actively evolving due to recent technological advances.
Resumo:
There is clear evidence that investment in intelligent transportation system technologies brings major social and economic benefits. Technological advances in the area of automatic systems in particular are becoming vital for the reduction of road deaths. We here describe our approach to automation of one the riskiest autonomous manœuvres involving vehicles – overtaking. The approach is based on a stereo vision system responsible for detecting any preceding vehicle and triggering the autonomous overtaking manœuvre. To this end, a fuzzy-logic based controller was developed to emulate how humans overtake. Its input is information from the vision system and from a positioning-based system consisting of a differential global positioning system (DGPS) and an inertial measurement unit (IMU). Its output is the generation of action on the vehicle’s actuators, i.e., the steering wheel and throttle and brake pedals. The system has been incorporated into a commercial Citroën car and tested on the private driving circuit at the facilities of our research center, CAR, with different preceding vehicles – a motorbike, car, and truck – with encouraging results.
Resumo:
Hoy en día, el desarrollo tecnológico en el campo de los sistemas inteligentes de transporte (ITS por sus siglas en inglés) ha permitido dotar a los vehículos con diversos sistemas de ayuda a la conducción (ADAS, del inglés advanced driver assistance system), mejorando la experiencia y seguridad de los pasajeros, en especial del conductor. La mayor parte de estos sistemas están pensados para advertir al conductor sobre ciertas situaciones de riesgo, como la salida involuntaria del carril o la proximidad de obstáculos en el camino. No obstante, también podemos encontrar sistemas que van un paso más allá y son capaces de cooperar con el conductor en el control del vehículo o incluso relegarlos de algunas tareas tediosas. Es en este último grupo donde se encuentran los sistemas de control electrónico de estabilidad (ESP - Electronic Stability Program), el antibloqueo de frenos (ABS - Anti-lock Braking System), el control de crucero (CC - Cruise Control) y los más recientes sistemas de aparcamiento asistido. Continuando con esta línea de desarrollo, el paso siguiente consiste en la supresión del conductor humano, desarrollando sistemas que sean capaces de conducir un vehículo de forma autónoma y con un rendimiento superior al del conductor. En este trabajo se presenta, en primer lugar, una arquitectura de control para la automatización de vehículos. Esta se compone de distintos componentes de hardware y software, agrupados de acuerdo a su función principal. El diseño de la arquitectura parte del trabajo previo desarrollado por el Programa AUTOPIA, aunque introduce notables aportaciones en cuanto a la eficiencia, robustez y escalabilidad del sistema. Ahondando un poco más en detalle, debemos resaltar el desarrollo de un algoritmo de localización basado en enjambres de partículas. Este está planteado como un método de filtrado y fusión de la información obtenida a partir de los distintos sensores embarcados en el vehículo, entre los que encontramos un receptor GPS (Global Positioning System), unidades de medición inercial (IMU – Inertial Measurement Unit) e información tomada directamente de los sensores embarcados por el fabricante, como la velocidad de las ruedas y posición del volante. Gracias a este método se ha conseguido resolver el problema de la localización, indispensable para el desarrollo de sistemas de conducción autónoma. Continuando con el trabajo de investigación, se ha estudiado la viabilidad de la aplicación de técnicas de aprendizaje y adaptación al diseño de controladores para el vehículo. Como punto de partida se emplea el método de Q-learning para la generación de un controlador borroso lateral sin ningún tipo de conocimiento previo. Posteriormente se presenta un método de ajuste on-line para la adaptación del control longitudinal ante perturbaciones impredecibles del entorno, como lo son los cambios en la inclinación del camino, fricción de las ruedas o peso de los ocupantes. Para finalizar, se presentan los resultados obtenidos durante un experimento de conducción autónoma en carreteras reales, el cual se llevó a cabo en el mes de Junio de 2012 desde la población de San Lorenzo de El Escorial hasta las instalaciones del Centro de Automática y Robótica (CAR) en Arganda del Rey. El principal objetivo tras esta demostración fue validar el funcionamiento, robustez y capacidad de la arquitectura propuesta para afrontar el problema de la conducción autónoma, bajo condiciones mucho más reales a las que se pueden alcanzar en las instalaciones de prueba. ABSTRACT Nowadays, the technological advances in the Intelligent Transportation Systems (ITS) field have led the development of several driving assistance systems (ADAS). These solutions are designed to improve the experience and security of all the passengers, especially the driver. For most of these systems, the main goal is to warn drivers about unexpected circumstances leading to risk situations such as involuntary lane departure or proximity to other vehicles. However, other ADAS go a step further, being able to cooperate with the driver in the control of the vehicle, or even overriding it on some tasks. Examples of this kind of systems are the anti-lock braking system (ABS), cruise control (CC) and the recently commercialised assisted parking systems. Within this research line, the next step is the development of systems able to replace the human drivers, improving the control and therefore, the safety and reliability of the vehicles. First of all, this dissertation presents a control architecture design for autonomous driving. It is made up of several hardware and software components, grouped according to their main function. The design of this architecture is based on the previous works carried out by the AUTOPIA Program, although notable improvements have been made regarding the efficiency, robustness and scalability of the system. It is also remarkable the work made on the development of a location algorithm for vehicles. The proposal is based on the emulation of the behaviour of biological swarms and its performance is similar to the well-known particle filters. The developed method combines information obtained from different sensors, including GPS, inertial measurement unit (IMU), and data from the original vehicle’s sensors on-board. Through this filtering algorithm the localization problem is properly managed, which is critical for the development of autonomous driving systems. The work deals also with the fuzzy control tuning system, a very time consuming task when done manually. An analysis of learning and adaptation techniques for the development of different controllers has been made. First, the Q-learning –a reinforcement learning method– has been applied to the generation of a lateral fuzzy controller from scratch. Subsequently, the development of an adaptation method for longitudinal control is presented. With this proposal, a final cruise control controller is able to deal with unpredictable environment disturbances, such as road slope, wheel’s friction or even occupants’ weight. As a testbed for the system, an autonomous driving experiment on real roads is presented. This experiment was carried out on June 2012, driving from San Lorenzo de El Escorial up to the Center for Automation and Robotics (CAR) facilities in Arganda del Rey. The main goal of the demonstration was validating the performance, robustness and viability of the proposed architecture to deal with the problem of autonomous driving under more demanding conditions than those achieved on closed test tracks.
Resumo:
The cup anemometer has been used widely by the wind energy industry since its early beginning, covering two fundamental aspects: wind mill performance control and wind energy production forecast. Furthermore, despite modern technological advances such as LIDAR and SODAR, the cup anemometer remains clearly the most used instrument by the wind energy industry. Together with the major advantages of this instrument (precision, robustness), some issues must be taken into account by scientists and researchers when using it. Overspeeding, interaction with stream wakes due to allocation on masts and wind- mills, loss of performance due to wear and tear, change of performance due to different climatic conditions, checking of the maintenance status and recalibration, etc. In the present work a review of the research campaigns carried out at the IDR/UPM Institute to analyze cup anemometer performance is included. Several aspects of this instrument are examined: the calibration process, the loss of performances due to aging and wear and tear, the effect of changes of air density, the rotor aerodynamics, and the harmonic terms contained in the anemometer output signal and their possible relation to the anemometer performances.
Resumo:
Los avances tecnológicos actuales que han llevado a una economía globalmente conectada, junto con la creciente tendencia hacia la privatización, globalización y desregulación están dando lugar a nuevos modelos organizativos y a un aumento de la colaboración entre proveedores y clientes, compartiendo información y flujos de proceso. Todo ello ha contribuido directamente a la gran expansión del outsourcing y a que se considere como una herramienta estratégica para las organizaciones. En este entorno y dada la creciente complejidad organizativa, el uso de una metodología para ayudar a la implantación de proyectos de outsourcing se ha convertido en algo casi necesario. En los últimos años se han propuesto algunas metodologías, especialmente para apoyo de las organizaciones cliente de outsourcing, pero no consideramos que sean completas en cuanto a contemplar todos los aspectos necesarios para guiar un proyecto de outsourcing. Es por ello que, en este artículo, proponemos una metodología para gestión de proyectos de outsourcing de TI desde el punto de vista del proveedor que sea completa y fácil de aplicar. Abstract -. Current technological advances that have led to a globally connected economy, together with the increasing trend towards privatization and deregulation, are leading to new organizational models and increased collaboration between suppliers and customers, sharing information and process flows. This has directly contributed to the great expansion of outsourcing, considering it as a strategic tool for organizations. In this environment, and given the increasing organizational complexity, the use of a methodology to assist the implementation of outsourcing projects has become almost necessary. In recent years several methodologies and models have been proposed, especially for supporting client outsourcing organizations, but we do not consider them to be complete, they do not cover all necessary aspects to manage an outsourcing project. That is the reason because we, in this paper, propose a methodology for outsourcing project management from the point of view of the suppliers that was complete and easy to apply.
Resumo:
Son muchos los dominios de aplicación que han surgido en los últimos años con motivo de los avances tecnológicos. Algunos como eHealth, Smart Building o Smart Grid están teniendo una gran aceptación por parte de empresas que incrementan sus inversiones en este tipo de campos. Las redes inalámbricas de sensores y actuadores juegan un papel fundamental en el desarrollo de este tipo de aplicaciones. A través de este tipo de redes inalámbricas es posible monitorizar y actuar sobre un entorno gracias a nodos sensores y actuadores de forma cómoda y sencilla. Las WSANs (Wireless Sensors and Actuators Networks) junto con la robótica y M2M (Machine-to-Machine) están forjando el camino hacia el Internet of Things (IoT), un futuro en el que todo esté conectado entre sí. Cada vez aparecen dispositivos más pequeños y autónomos, que junto con el crecimiento de las redes, propician la interconexión de “el todo”. Este Proyecto Fin de Carrera tiene como objetivo contribuir en este avance, desarrollando parcialmente una solución middleware que abstraiga al usuario de la complejidad del hardware, implementando ciertas funcionalidades ofrecidas por el middleware nSOM desarrollado por la UPM. Para conseguir este objetivo se realizará un estudio del Estado del Arte actual y una comparativa de las diferentes plataformas hardware involucradas en las Redes Inalámbricas de Sensores y Actuadores (Wireless Sensor-Actuator Networks). Este estudio tendrá como fin la elección de una de las plataformas hardware para su futuro uso en un despliegue parcial del mencionado middleware nSOM. Posteriormente, se diseñará e implementará un sistema para ejemplificar un caso de uso sobre dicha plataforma integrando la publicación de las características y servicios de cada nodo final y el envío de peticiones y la recepción de respuestas. Finalmente se obtendrá un conjunto de conclusiones a partir de los resultados obtenidos y se detallarán posibles líneas de trabajo. ABSTRACT. There are many applications domains that have arisen because of technological advances in recent years. Some as eHealth, Smart Building or Smart Grid are having a great acceptance by companies that increase their investments in such fields. Wireless sensors and actuators networks play a fundamental role in the development of such applications. By means of this kind of wireless network it is possible to monitor and act upon an environment with the assistance of sensors and actuators nodes, readily. The WSANs (Wireless Sensors and Actuators Networks) together with robotics and M2M (Machine-to-Machine) are forging the way towards the Internet of Things (IoT), a future in which all of them are connected among themselves. Smaller and more autonomous devices are appearing that, along with the growth of networks, foster the interconnection of ‘the whole’. This Degree Final Project aims to contribute to this breakthrough, developing partially a middleware solution that abstracts the user from the complexity of hardware, implementing certain functionalities offered by the nSOM middleware solution carried out by UPM. To achieve this objective a study of the current state of the art and a comparison of the different hardware platforms involved in the Wireless and Actuators Sensor Networks (Wireless Sensor-Actuator Networks) will be performed. This study will aim the election of one of the hardware platforms for its future use in a partial deployment of the mentioned middleware nSOM. Subsequently, a system will be designed and implemented to exemplify a use case on the platform mentioned before integrating the publication of the features and services of each end node and sending requests and receiving responses. Finally a set of conclusions from the results will be stated and possible lines of future works will be detailed.
Resumo:
Motivado por los últimos hallazgos realizados gracias a los recientes avances tecnológicos y misiones espaciales, el estudio de los asteroides ha despertado el interés de la comunidad científica. Tal es así que las misiones a asteroides han proliferado en los últimos años (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) incentivadas por su enorme interés científico. Los asteroides son constituyentes fundamentales en la evolución del Sistema Solar, son además grandes concentraciones de valiosos recursos naturales, y también pueden considerarse como objectivos estratégicos para la futura exploración espacial. Desde hace tiempo se viene especulando con la posibilidad de capturar objetos próximos a la Tierra (NEOs en su acrónimo anglosajón) y acercarlos a nuestro planeta, permitiendo así un acceso asequible a los mismos para estudiarlos in-situ, explotar sus recursos u otras finalidades. Por otro lado, las asteroides se consideran con frecuencia como posibles peligros de magnitud planetaria, ya que impactos de estos objetos con la Tierra suceden constantemente, y un asteroide suficientemente grande podría desencadenar eventos catastróficos. Pese a la gravedad de tales acontecimientos, lo cierto es que son ciertamente difíciles de predecir. De hecho, los ricos aspectos dinámicos de los asteroides, su modelado complejo y las incertidumbres observaciones hacen que predecir su posición futura con la precisión necesaria sea todo un reto. Este hecho se hace más relevante cuando los asteroides sufren encuentros próximos con la Tierra, y más aún cuando estos son recurrentes. En tales situaciones en las cuales fuera necesario tomar medidas para mitigar este tipo de riesgos, saber estimar con precisión sus trayectorias y probabilidades de colisión es de una importancia vital. Por ello, se necesitan herramientas avanzadas para modelar su dinámica y predecir sus órbitas con precisión, y son también necesarios nuevos conceptos tecnológicos para manipular sus órbitas llegado el caso. El objetivo de esta Tesis es proporcionar nuevos métodos, técnicas y soluciones para abordar estos retos. Las contribuciones de esta Tesis se engloban en dos áreas: una dedicada a la propagación numérica de asteroides, y otra a conceptos de deflexión y captura de asteroides. Por lo tanto, la primera parte de este documento presenta novedosos avances de apliación a la propagación dinámica de alta precisión de NEOs empleando métodos de regularización y perturbaciones, con especial énfasis en el método DROMO, mientras que la segunda parte expone ideas innovadoras para la captura de asteroides y comenta el uso del “ion beam shepherd” (IBS) como tecnología para deflectarlos. Abstract Driven by the latest discoveries enabled by recent technological advances and space missions, the study of asteroids has awakened the interest of the scientific community. In fact, asteroid missions have become very popular in the recent years (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) motivated by their outstanding scientific interest. Asteroids are fundamental constituents in the evolution of the Solar System, can be seen as vast concentrations of valuable natural resources, and are also considered as strategic targets for the future of space exploration. For long it has been hypothesized with the possibility of capturing small near-Earth asteroids and delivering them to the vicinity of the Earth in order to allow an affordable access to them for in-situ science, resource utilization and other purposes. On the other side of the balance, asteroids are often seen as potential planetary hazards, since impacts with the Earth happen all the time, and eventually an asteroid large enough could trigger catastrophic events. In spite of the severity of such occurrences, they are also utterly hard to predict. In fact, the rich dynamical aspects of asteroids, their complex modeling and observational uncertainties make exceptionally challenging to predict their future position accurately enough. This becomes particularly relevant when asteroids exhibit close encounters with the Earth, and more so when these happen recurrently. In such situations, where mitigation measures may need to be taken, it is of paramount importance to be able to accurately estimate their trajectories and collision probabilities. As a consequence, advanced tools are needed to model their dynamics and accurately predict their orbits, as well as new technological concepts to manipulate their orbits if necessary. The goal of this Thesis is to provide new methods, techniques and solutions to address these challenges. The contributions of this Thesis fall into two areas: one devoted to the numerical propagation of asteroids, and another to asteroid deflection and capture concepts. Hence, the first part of the dissertation presents novel advances applicable to the high accuracy dynamical propagation of near-Earth asteroids using regularization and perturbations techniques, with a special emphasis in the DROMO method, whereas the second part exposes pioneering ideas for asteroid retrieval missions and discusses the use of an “ion beam shepherd” (IBS) for asteroid deflection purposes.
Resumo:
En 1966, D. B. Leeson publicó el artículo titulado “A simple model of feedback oscillator noise spectrum” en el que, mediante una ecuación obtenida de forma heurística y basada en parámetros conocidos de los osciladores, proponía un modelo para estimar el espectro de potencia que cuantifica el Ruido de Fase de estos osciladores. Este Ruido de Fase pone de manifiesto las fluctuaciones aleatorias que se producen en la fase de la señal de salida de cualquier oscilador de frecuencia f_0. Desde entonces, los adelantos tecnológicos han permitido grandes progresos en cuanto a la medida del Ruido de Fase, llegando a encontrar una estrecha “zona plana”, alrededor de f_0, conocida con el nombre de Ensanchamiento de Línea (EL) que Leeson no llegó a observar y que su modelo empírico no recogía. Paralelamente han ido surgiendo teorías que han tratado de explicar el Ruido de Fase con mayor o menor éxito. En esta Tesis se propone una nueva teoría para explicar el espectro de potencia del Ruido de Fase de un oscilador realimentado y basado en resonador L-C (Inductancia-Capacidad). Al igual que otras teorías, la nuestra también relaciona el Ruido de Fase del oscilador con el ruido térmico del circuito que lo implementa pero, a diferencia de aquellas, nuestra teoría se basa en un Modelo Complejo de ruido eléctrico que considera tanto las Fluctuaciones de energía eléctrica asociadas a la susceptancia capacitiva del resonador como las Disipaciones de energía eléctrica asociadas a su inevitable conductancia G=1⁄R, que dan cuenta del contacto térmico entre el resonador y el entorno térmico que le rodea. En concreto, la nueva teoría que proponemos explica tanto la parte del espectro del Ruido de Fase centrada alrededor de la frecuencia portadora f_0 que hemos llamado EL y su posterior caída proporcional a 〖∆f〗^(-2) al alejarnos de f_0, como la zona plana o pedestal que aparece en el espectro de Ruido de Fase lejos de esa f_0. Además, al saber cuantificar el EL y su origen, podemos explicar con facilidad la aparición de zonas del espectro de Ruido de Fase con caída 〖∆f〗^(-3) cercanas a la portadora y que provienen del denominado “exceso de ruido 1⁄f” de dispositivos de Estado Sólido y del ruido “flicker” de espectro 1⁄f^β (0,8≤β≤1,2) que aparece en dispositivos de vacío como las válvulas termoiónicas. Habiendo mostrado que una parte del Ruido de Fase de osciladores L-C realimentados que hemos denominado Ruido de Fase Térmico, se debe al ruido eléctrico de origen térmico de la electrónica que forma ese oscilador, proponemos en esta Tesis una nueva fuente de Ruido de Fase que hemos llamado Ruido de Fase Técnico, que se añadirá al Térmico y que aparecerá cuando el desfase del lazo a la frecuencia de resonancia f_0 del resonador no sea 0° o múltiplo entero de 360° (Condición Barkhausen de Fase, CBF). En estos casos, la modulación aleatoria de ganancia de lazo que realiza el Control Automático de Amplitud en su lucha contra ruidos que traten de variar la amplitud de la señal oscilante del lazo, producirá a su vez una modulación aleatoria de la frecuencia de tal señal que se observará como más Ruido de Fase añadido al Térmico. Para dar una prueba empírica sobre la existencia de esta nueva fuente de Ruido de Fase, se diseñó y construyó un oscilador en torno a un resonador mecánico “grande” para tener un Ruido de Fase Térmico despreciable a efectos prácticos. En este oscilador se midió su Ruido de Fase Técnico tanto en función del valor del desfase añadido al lazo de realimentación para apartarlo de su CBF, como en función de la perturbación de amplitud inyectada para mostrar sin ambigüedad la aparición de este Ruido de Fase Técnico cuando el lazo tiene este fallo técnico: que no cumple la Condición Barkhausen de Fase a la frecuencia de resonancia f_0 del resonador, por lo que oscila a otra frecuencia. ABSTRACT In 1966, D. B. Leeson published the article titled “A simple model of feedback oscillator noise spectrum” in which, by means of an equation obtained heuristically and based on known parameters of the oscillators, a model was proposed to estimate the power spectrum that quantifies the Phase Noise of these oscillators. This Phase Noise reveals the random fluctuations that are produced in the phase of the output signal from any oscillator of frequencyf_0. Since then, technological advances have allowed significant progress regarding the measurement of Phase Noise. This way, the narrow flat region that has been found around f_(0 ), is known as Line Widening (LW). This region that Leeson could not detect at that time does not appear in his empirical model. After Leeson’s work, different theories have appeared trying to explain the Phase Noise of oscillators. This Thesis proposes a new theory that explains the Phase Noise power spectrum of a feedback oscillator around a resonator L-C (Inductance-Capacity). Like other theories, ours also relates the oscillator Phase Noise to the thermal noise of the feedback circuitry, but departing from them, our theory uses a new, Complex Model for electrical noise that considers both Fluctuations of electrical energy associated with the capacitive susceptance of the resonator and Dissipations of electrical energy associated with its unavoidable conductance G=1/R, which accounts for the thermal contact between the resonator and its surrounding environment (thermal bath). More specifically, the new theory we propose explains both the Phase Noise region of the spectrum centered at the carrier frequency f_0 that we have called LW and shows a region falling as 〖∆f〗^(-2) as we depart from f_0, and the flat zone or pedestal that appears in the Phase Noise spectrum far from f_0. Being able to quantify the LW and its origin, we can easily explain the appearance of Phase Noise spectrum zones with 〖∆f〗^(-3) slope near the carrier that come from the so called “1/f excess noise” in Solid-State devices and “flicker noise” with 1⁄f^β (0,8≤β≤1,2) spectrum that appears in vacuum devices such as thermoionic valves. Having shown that the part of the Phase Noise of L-C oscillators that we have called Thermal Phase Noise is due to the electrical noise of the electronics used in the oscillator, this Thesis can propose a new source of Phase Noise that we have called Technical Phase Noise, which will appear when the loop phase shift to the resonance frequency f_0 is not 0° or an integer multiple of 360° (Barkhausen Phase Condition, BPC). This Phase Noise that will add to the Thermal one, comes from the random modulation of the loop gain carried out by the Amplitude Automatic Control fighting against noises trying to change the amplitude of the oscillating signal in the loop. In this case, the BPC failure gives rise to a random modulation of the frequency of the output signal that will be observed as more Phase Noise added to the Thermal one. To give an empirical proof on the existence of this new source of Phase Noise, an oscillator was designed and constructed around a “big” mechanical resonator whose Thermal Phase Noise is negligible for practical effects. The Technical Phase Noise of this oscillator has been measured with regard to the phase lag added to the feedback loop to separate it from its BPC, and with regard to the amplitude disturbance injected to show without ambiguity the appearance of this Technical Phase Noise that appears when the loop has this technical failure: that it does not fulfill the Barkhausen Phase Condition at f_0, the resonance frequency of the resonator and therefore it is oscillating at a frequency other than f_0.
Resumo:
En la situación actual donde los sistemas TI sanitarios son diversos con modelos que van desde soluciones predominantes, adoptadas y creadas por grandes organizaciones, hasta soluciones a medida desarrolladas por cualquier empresa de la competencia para satisfacer necesidades concretas. Todos estos sistemas se encuentran bajo similares presiones financieras, no sólo de las condiciones económicas mundiales actuales y el aumento de los costes sanitarios, sino también bajo las presiones de una población que ha adoptado los avances tecnológicos actuales, y demanda una atención sanitaria más personalizable a la altura de esos avances tecnológicos que disfruta en otros ámbitos. El objeto es desarrollar un modelo de negocio orientado al soporte del intercambio de información en el ámbito clínico. El objetivo de este modelo de negocio es aumentar la competitividad dentro de este sector sin la necesidad de recurrir a expertos en estándares, proporcionando perfiles técnicos cualificados menos costosos con la ayuda de herramientas que simplifiquen el uso de los estándares de interoperabilidad. Se hará uso de especificaciones abiertas ya existentes como FHIR, que publica documentación y tutoriales bajo licencias abiertas. La principal ventaja que nos encontramos es que ésta especificación presenta un giro en la concepción actual de la disposición de información clínica, vista hasta ahora como especial por el requerimiento de estándares más complejos que solucionen cualquier caso por específico que sea. Ésta especificación permite hacer uso de la información clínica a través de tecnologías web actuales (HTTP, HTML, OAuth2, JSON, XML) que todo el mundo puede usar sin un entrenamiento particular para crear y consumir esta información. Partiendo por tanto de un mercado con una integración de la información casi inexistente, comparada con otros entornos actuales, hará que el gasto en integración clínica aumente dramáticamente, dejando atrás los desafíos técnicos cuyo gasto retrocederá a un segundo plano. El gasto se centrará en las expectativas de lo que se puede obtener en la tendencia actual de la personalización de los datos clínicos de los pacientes, con acceso a los registros de instituciones junto con datos ‘sociales/móviles/big data’.---ABSTRACT---In the current situation IT health systems are diverse, with models varying from predominant solutions adopted and created by large organizations, to ad-hoc solutions developed by any company to meet specific needs. However, all these systems are under similar financial pressures, not only from current global economic conditions and increased health care costs, but also under pressure from a population that has embraced the current technological advances, and demand a more personalized health care, up to those enjoyed by technological advances in other areas. The purpose of this thesis is to develop a business model aimed at the provision of information exchange within the clinical domain. It is intended to increase competitiveness in the health IT sector without the need for experts in standards, providing qualified technical profiles less expensively with the help of tools that simplify the use of interoperability standards. Open specifications, like FHIR, will be used in order to enable interoperability between systems. The main advantage found within FHIR is that introduces a shift in the current conception of available clinical information. So far seen, the clinical information domain IT systems, as a special requirement for more complex standards that address any specific case. This specification allows the use of clinical information through existing web technologies (HTTP, HTML, OAuth2, JSON and XML), which everyone can use with no particular training to create and consume this information. The current situation in the sector is that the integration of information is almost nonexistent, compared to current trends. Spending in IT health systems will increase dramatically within clinical integration for the next years, leaving the technical challenges whose costs will recede into the background. The investment on this area will focus on the expectations of what can be obtained in the current trend of personalization of clinical data of patients with access to records of institutions with ‘social /mobile /big data’.
Resumo:
Los recientes avances tecnológicos han encontrado un potencial campo de explotación en la educación asistida por computador. A finales de los años 90 surgió un nuevo campo de investigación denominado Entornos Virtuales Inteligentes para el Entrenamiento y/o Enseñanza (EVIEs), que combinan dos áreas de gran complejidad: Los Entornos Virtuales (EVs) y los Sistemas de Tutoría Inteligente (STIs). De este modo, los beneficios de los entornos 3D (simulación de entornos de alto riesgo o entornos de difícil uso, etc.) pueden combinarse con aquéllos de un STIs (personalización de materias y presentaciones, adaptación de la estrategia de tutoría a las necesidades del estudiante, etc.) para proporcionar soluciones educativas/de entrenamiento con valores añadidos. El Modelo del Estudiante, núcleo de un SIT, representa el conocimiento y características del estudiante, y refleja el proceso de razonamiento del estudiante. Su complejidad es incluso superior cuando los STIs se aplican a EVs porque las nuevas posibilidades de interacción proporcionadas por estos entornos deben considerarse como nuevos elementos de información clave para el modelado del estudiante, incidiendo en todo el proceso educativo: el camino seguido por el estudiante durante su navegación a través de escenarios 3D; el comportamiento no verbal tal como la dirección de la mirada; nuevos tipos de pistas e instrucciones que el módulo de tutoría puede proporcionar al estudiante; nuevos tipos de preguntas que el estudiante puede formular, etc. Por consiguiente, es necesario que la estructura de los STIs, embebida en el EVIE, se enriquezca con estos aspectos, mientras mantiene una estructura clara, estructurada, y bien definida. La mayoría de las aproximaciones al Modelo del Estudiante en STIs y en IVETs no consideran una taxonomía de posibles conocimientos acerca del estudiante suficientemente completa. Además, la mayoría de ellas sólo tienen validez en ciertos dominios o es difícil su adaptación a diferentes STIs. Para vencer estas limitaciones, hemos propuesto, en el marco de esta tesis doctoral, un nuevo mecanismo de Modelado del Estudiante basado en la Ingeniería Ontológica e inspirado en principios pedagógicos, con un modelo de datos sobre el estudiante amplio y flexible que facilita su adaptación y extensión para diferentes STIs y aplicaciones de aprendizaje, además de un método de diagnóstico con capacidades de razonamiento no monótono. El método de diagnóstico es capaz de inferir el estado de los objetivos de aprendizaje contenidos en el SIT y, a partir de él, el estado de los conocimientos del estudiante durante su proceso de aprendizaje. La aproximación almodelado del estudiante propuesta ha sido implementada e integrada en un agente software (el agente de modelado del estudiante) dentro de una plataforma software existente para el desarrollo de EVIEs denominadaMAEVIF. Esta plataforma ha sido diseñada para ser fácilmente configurable para diferentes aplicaciones de aprendizaje. El modelado del estudiante presentado ha sido implementado e instanciado para dos tipos de entornos de aprendizaje: uno para aprendizaje del uso de interfaces gráficas de usuario en una aplicación software y para un Entorno Virtual para entrenamiento procedimental. Además, se ha desarrollado una metodología para guiar en la aplicación del esta aproximación de modelado del estudiante a cada sistema concreto.---ABSTRACT---Recent technological advances have found a potential field of exploitation in computeraided education. At the end of the 90’s a new research field emerged, the so-called Intelligent Virtual Environments for Training and/or Education (IVETs), which combines two areas of great complexity: Virtual Environments (VE) and Intelligent Tutoring Systems (ITS). In this way, the benefits of 3D environments (simulation of high risk or difficult-to-use environments, etc.) may be combined with those of an ITS (content and presentation customization, adaptation of the tutoring strategy to the student requirements, etc.) in order to provide added value educational/training solutions. The StudentModel, core of an ITS, represents the student’s knowledge and characteristics, and reflects the student’s reasoning process. Its complexity is even higher when the ITSs are applied on VEs because the new interaction possibilities offered by these environments must be considered as new key information pieces for student modelling, impacting all the educational process: the path followed by the student during their navigation through 3D scenarios; non-verbal behavior such as gaze direction; new types of hints or instructions that the tutoring module can provide to the student; new question types that the student can ask, etc. Thus, it is necessary for the ITS structure, which is embedded in the IVET, to be enriched by these aspects, while keeping a clear, structured and well defined architecture. Most approaches to SM on ITSs and IVETs don’t consider a complete enough taxonomy of possible knowledge about the student. In addition, most of them have validity only in certain domains or they are hard to be adapted for different ITSs. In order to overcome these limitations, we have proposed, in the framework of this doctoral research project, a newStudentModeling mechanism that is based onOntological Engineering and inspired on pedagogical principles, with a wide and flexible data model about the student that facilitates its adaptation and extension to different ITSs and learning applications, as well as a rich diagnosis method with non-monotonic reasoning capacities. The diagnosis method is able to infer the state of the learning objectives encompassed by the ITS and, fromit, the student’s knowledge state during the student’s process of learning. The proposed student modelling approach has been implemented and integrated in a software agent (the student modeling agent) within an existing software platform for the development of IVETs called MAEVIF. This platform was designed to be easily configurable for different learning applications. The proposed student modeling has been implemented and it has been instantiated for two types of learning environments: one for learning to use the graphical user interface of a software application and a Virtual Environment for procedural training. In addition, a methodology to guide on the application of this student modeling approach to each specific system has been developed.
Resumo:
En la actualidad la generación y utilización eficientes de la energía es el vector principal que permite el desarrollo sostenible en el marco ambiental, económico, seguro y rentable. Todo ello genera una necesidad en el ser humano de guiar a los avances tecnológicos hacia una manera cada vez más eficiente de generar nuestras necesidades básicas, como es el caso de la energía. La cogeneración ha sido uno de los resultados positivos en la búsqueda de la eficiencia energética, debido a tratarse de un sistema de producción simultánea de calor y electricidad partiendo inicialmente de un combustible como energía primaria. Es por ello, que en el presente proyecto se estudia, analiza y propone la posibilidad de implantar sistemas de cogeneración en el sector residencial, un sector que podría beneficiarse enormemente de los beneficios que ofrecen dichos sistemas. En una primera parte se analiza la tecnología de cogeneración y sus variantes, como son, la microcogeneración y la trigeneración. También se muestra la evolución legislativa que han sufrido estos sistemas. En una segunda parte se ha tomado un caso modelo, un edificio de 72 viviendas con sistema de calderas centralizado convencional, y se ha estudiado la posibilidad de implantar un sistema de cogeneración. Para ello se han calculado previamente las demandas energéticas del edificio y se han ido proponiendo diferentes modos de operación para cubrir dichas demandas por medio de sistemas de microcogeneración o cogeneración. Finalmente, una vez valoradas las opciones se muestra la elegida y se efectúa un análisis económico ABSTRACT Nowadays the efficient generation of energy is the main vector that allows sustainable development in environmental, economic, safety and cost effectiveness. All this generates a need in humans to lead to new technological advances towards an even more efficient way to generate our basic needs, such as energy. Cogeneration has been one of the positive results in the search for energy efficiency, due to the fact that it is a system of simultaneous production of heat and electricity initially starting from a primary energy fuel. It is for this reason that this project studies, analyzes and proposes the possibility of introducing cogeneration systems in the residential sector, a sector that could benefit greatly from the benefits offered by these systems. In the first part, cogeneration technology and its variants are analyzed, like, micro-cogeneration and trigeneration. The legislative evolutions that have suffered these systems are also displayed. In a second part, a model case has been taken; a building of 72 flats with conventional centralized boiler system, the possibility of introducing a cogeneration system has been studied. Previously the energy demands of the building have been calculated proposing different operating modes to meet those demands through micro-CHP or cogeneration systems. Finally, once the options are valued the chosen one is shown and an economic analysis is performed.
Resumo:
Históricamente la estrategia de localización de la infraestructura religiosa católica en Chile ha estado condicionada por intenciones destinadas a la captación y tutela de feligreses, proceso desarrollado a través de intervenciones que han generado externalidades difíciles de anticipar y posibles de visualizar en un marco temporal mayor. En este contexto la producción e instalación de los templos católicos en distintos lugares de la ciudad condicionaron los territorios y marcaron presencia en su afán por colonizar y mantener el dominio, mecanismo propio de la institución religiosa que se adaptó al medio y a las circunstancias político social para cumplir su misión y mantener el poder. En esta investigación se buscó identificar desde las edificaciones destinadas al culto, la relación escalar entre localización, modo de instalación y morfología que incluye la forma y técnica de construcción, reconociendo la manera cómo modifican los entornos, el efecto que provocan y las expectativas que abren a nuevas intervenciones. El escenario escogido para realizar el estudio correspondió a un período de la historia de la ciudad de Santiago de Chile no documentado en que las circunstancias políticas, económicas, sociales y culturales contribuyeron a que el modo de disposición de las edificaciones de culto condicionaron el desarrollo urbano y orientaron el crecimiento de la ciudad. El período en que se desarrolló el estudio correspondió a la época de mayor riqueza material y cultural de la historia del país y estuvo modelada por las intenciones y planes de desarrollo tendientes a consolidar lo que se ha denominado el modelo Republicano. Escenario en que el espacio público cobró interés y se transformó en el motor de los cambios e indicador de la escala de la ciudad, estableciendo las condiciones para que las distintas corrientes europeas se manifestaran en el hacer arquitectónico cambiando la imagen original de la ciudad colonial. Este proceso que ocurrió sobre la estructura existente, densificó la manzana a través de la subdivisión predial, que complementado con los avances tecnológicos permitieron mayores alturas de edificación, situación que dio origen a nuevas concepciones espaciales, posibles de desarrollar con los recursos materiales, intelectuales y técnicos disponibles. El estudio se centró en la centuria 1850-1950 analizando la forma como la infraestructura religiosa Católica se localizó en el tejido urbano adoptando distintas tipologías edilicias, en una época caracterizada por el eclecticismo arquitectónico. Específicamente se estudiaron las edificaciones que utilizaron reminiscencias góticas, identificando los casos más significativos, estableciendo el contexto en que se originaron e indagando en la significación que tuvieron por la función que cumplieron, considerando emplazamiento y conexión con el entorno construido, conformación, dimensiones, destino y patrocinios. El área de estudio se fundamentó por la concentración de construcciones con la tendencia historicista, producciones que en el corto y mediano plazo orientaron las transformaciones de la ciudad y por la presencia que conservan hasta estos días. Se observó la incidencia de la acción de la Iglesia Católica en las políticas de Estado, orientando las decisiones de planificación y ocupación del territorio, condicionando la localización de los templos a fin de conseguir las mayores coberturas de la población y el mayor rendimiento de las inversiones. En el contexto latinoamericano la construcción de iglesias, templos y catedrales con reminiscencias góticas fue una constante que caracterizó al último cuarto del siglo XIX y las tres primeras décadas del siglo XX. El estudio permitió conocer en términos cuantitativos y cualitativos la producción, destacando la morfología y materialidad caracterizada por la adopción de estrategias contemporáneas estructuralmente exigentes. Se observó la utilización de la arquitectura como un medio de acercamiento a la población, capaz de transformar a los edificios en símbolos barriales, que facilitaron la generación de identidad, al convertirse en los referentes materiales que se destacan, que se recuerdan y que asumen la representatividad de barrios, permaneciendo en el tiempo y convirtiéndose en íconos asociados a la cultura local. En síntesis, la instalación de las infraestructuras religiosas en la ciudad de Santiago fue consecuencia de un modo de producción, que entregó lugares de encuentro y símbolos para la ciudad, a través de la localización de los edificios que buscaron ocupar áreas visibles, relevantes y convocantes, lo que consiguieron mediante la instalación geográfica, central y equidistante de conglomerados residenciales consolidados o en vías de desarrollo, como también a través de edificaciones monumentales y siempre destacadas respecto de su entorno, lo que marcó exclusividad y dominio. La elección de tipos arquitectónicos fue coyuntural a los tiempos e inspirada en intelectuales y profesionales mayoritariamente foráneos que aportaron conocimientos y experiencia para auspiciar edificaciones que fueron reconocidas como señeras y precursoras de la época. La intensidad en el uso de los recursos que demandaron las exigentes estructuras obligó a la iglesia católica a establecer estrategias de financiación destinadas a suplir la falta de recursos provenientes del Estado. Para lo cual convocaron a distintos actores los que participaron desde sus fronteras y en función de sus intereses cubriendo desde el altruismo hasta la rentabilización de su patrimonio. La organización iglesia católica se comporta de la misma manera que cualquier otra organización: busca expandirse, concentrar, controlar y administrar. Busca codificar todo su entorno (Raffestin, 2011), busca trascender y materialmente lo logra desde sus construcciones. ABSTRACT Historically the location strategies of the catholic religious infrastructure in Chile has been conditioned by intentions aimed at attracting and guardianship of parishioners, process developed through interventions that have generated externalities difficult to anticipate and possible to visualize in a in a major temporary frame. In this context, the production and installation of the catholic churches in different places in the city determined the territories and marked presence in their quest to colonize and maintain domain, mechanism of the religious institution that was adapted to the environment and in the political and social circumstances to fulfill its mission and maintain power. This research sought to identify from the buildings intended for worship in a multi-scale relationship between location, the placement mode, morphology and shape and construction technique and the effect caused by them, the way how they alter the environments and the expectations that are open to new interventions. The chosen scenario for the study corresponded to a not documented period in the history of the city of Santiago de Chile in which political, economic, social and cultural circumstances contributed to the form of disposition of the buildings of worship that determined the urban development and guided the growth of the city. The study period was the epoch of largest material and cultural wealth of Chile history and it was modeled by the intentions and development plans tending to consolidate what has been named the Republican ideal. Scenario in which public space gained interest and became the engine of change and indicator of the scale of the city, establishing the conditions for the various European trends manifested themselves in transforming the original image of the colonial city. This process that took place on the existing structure, produced a higher density of the original blocks through the predial compartimentation, which supplemented with technological advances enabled greater building heights, a situation that gave rise to new spatial conceptions, possible of developing with the material resources, intellectuals and technicians available at the moment. The study focused on the century 1850-1950 by analyzing how the Catholic religious infrastructure was located in the urban fabric by adopting different typologies locality, in an epoch characterised by architectural eclecticism. Specifica lly, it is studied the buildings that used gothic reminiscences, identifying the most significant cases, establishing the context in which they originated and inquiring about the significance that they had for the role it played, considering location and connection to the built environment, shaping, dimensions, destination, and sponsorships. The study area was established by the concentration of buildings with this historicist trend, productions that in the short and medium term guided the transformation of the city and the presence that keeps up to these days. It was noted the incidence of the of the Catholic Church actions in guiding State policies, planning decisions and occupation of the territory, as well as conditioning the location of the temples in order to achieve greater coverage of the population and the greatest return on investment. In the context of Latin America the construction of churches, temples and cathedrals with reminiscences gothic was a constant that characterized the last quarter of the nineteenth century and the first three decades of the twentieth century. The study allowed to know in quantitative and qualitative terms the production of the period, highlighting the morphology and materiality characterized by contemporary and structurally challenging strategies. It was noted the use of architecture as a means of approaching to the population, able to transform buildings into neighborhood symbols, which facilitated the production of identity, to become the reference materials that stand out, that will be remembered and that assume the representativeness of neighborhoods, remaining in the time and becoming icons associated with the local culture. In synthesis, the installation of religious infrastructure in the city of Santiago was result of a mode of production, that provided meeting places and symbols for the city, through the location of buildings that sought to occupy visible, relevant and summoning areas, what they obtained by means of the geographical, central and equidistant installation of consolidated residential conglomerates cluster or about to development, as also through always outstanding and monumental buildings with respect to its surroundings, which marked uniqueness and domain. The choice of architectural types was related to the time and inspired by intellectuals and professionals mostly outsiders who contributed with expertise and experience to sponsor buildings were recognized as outstanding and precursor of the time. The intensity of use of the resources that requested the demanding structures forced to the Catholic church to establish funding strategies designed to compensate for the lack of funds from the State. For which convened to different actors who participated from their borders and depending on their interests covering from the altruism up to the rentabilización of its patrimony. The Catholic Church organization behaves the same way as any other organization: seeks to expand, focus, control and manage. Looking for coding the entire environment (Raffestin, 2011), seeks to transcend and succeeds materially from its building.
Resumo:
La hipótesis de partida de esta tesis es que existe una influencia directa entre la técnica que se desarrolla durante el segundo período del s. XIX y el cambio sustancial de los conceptos y de la teoría arquitectónica que se da en esos mismos años. Dicha influencia genera nuevos modelos constructivos que serán la base de la arquitectura moderna. Para llegar a la confirmación de la hipótesis, se han planteado tres objetivos principales que responden a los tres capítulos principales de la misma. En primera instancia, se establecen las condiciones teóricas del debate arquitectónico entre las fechas estudiadas. Se analiza el concepto de modelo y «estilo» para evaluar si, efectivamente, hubo cambio o no. También se analizará si los arquitectos eran conscientes de la necesidad de una nueva arquitectura que respondiese a la funcionalidad que el progreso requería. Para comprobar que dicho cambio se ha producido a todos los niveles hasta el punto de redefinir el modelo constructivo se escoge un ejemplo práctico que cumpla las condiciones necesarias para sustentar o no la tesis y se investiga sobre si sucede o no el cambio. A continuación, se analizará la situación de la técnica y de los avances tecnológicos en el período estudiado. Es importante contrastar que realmente hay un conocimiento y una conciencia verdadera de cambio entre los teóricos y los arquitectos que están construyendo en ese momento. Confirmar que dicha conexión existe es vital para la investigación; para eso, se analizará y se profundizará en las conexiones entre la arquitectura y la ingeniería (o los avances tecnológicos) para entender la implicación de uno con el otro. Con este fin, se han estudiado las distintas publicaciones periódicas de la época; sobre todo la más relevante y la que primero se editó, que fue La revue générale de l’architecture; me he apoyado en ella. Es un documento que mensualmente recoge cambios, avances y debates. Tuvo una grandísima divulgación; todo docente, arquitecto e ingeniero de la época tenía un acceso fácil y directo a dicha publicación. Por último, a raíz de una construcción ideal proyectada por uno de los grandes arquitectos teóricos de la época, se reflexiona sobre si esa arquitectura supone realmente una comprensión y una conciencia de los nuevos modelos arquitectónicos, definidos por una técnica en progreso, o si responde exclusivamente a una utopía arquitectónica como tantas otras se habían esbozado con anterioridad por grandes teóricos. Para poder definir la geometría de este elemento estructural, se ha realizado un modelado tridimensional que permite calcular la estructura a través de un proceso de elementos finitos. El propósito de este cálculo no es exclusivamente saber si la estructura era viable o no en aquella época, sino también comprender si la definición de estos originales elementos estructurales implicaba una concepción nueva de las estructuras tridimensionales y eso significa que empezaba a germinar un cambio sustancial en la teoría de la arquitectura, con la búsqueda de un nuevo modelo constructivo derivado de los avances técnicos. De este modo queda demostrado que el modelo constructivo ha cambiado definitivamente por un modelo mucho más versátil y sobre todo con una gran capacidad de adaptación, esto combinado a su vez con una proliferación de patentes que intentan y buscan una estandarización del modelo constructivo y que no son, en ningún caso, un modelo en sí. Como última conclusión, queda argumentado que en aquella época ya se tenía una gran intuición estructural; a pesar de que el cálculo matemático era todavía algo relativamente nuevo, se manejaban de forma instintiva líneas de cargas, combinación de materiales y nuevas formas, que ayudarán a crear los modelos de los próximos años y que serán la base del cálculo numérico posterior. ABSTRACT The hypothesis of this thesis is that there is a direct influence between the technique developed during the second period of the XIX century and the substantial change in the concepts and in the architectural theory that occurs in those years. This influence develops new building models that will be the basis of modern architecture. To confirm this hypothesis, we present three principal objectives that corresponds to the three principals chapsters of the text. First, we establish the theoretical conditions of the architectural debate between the dates studied. We analyze the concepts of model and “style” to assess whether there was a change or not. We consider as well if architects were aware of the need for a new architecture to respond to the functionality needs that progress demanded. To verify that the change occurred at all levels to the extent of redefining the building model we choose a practical example that fulfills the necessary conditions to support or not the thesis and we investigate whether or not the change happens. Next, we analyze the status of technical and technological advances in the study period of study. It is important to contrast that there is a real knowledge and awareness of change between the theorists and architects who are building at the time. Confirming that that connection exists is vital for the research; for that, we will analyze and deepen into the connections between architecture and engineering (or technological progress) to understand the implication of one into the other. To this end, we have studied various publications of the time; especially the most relevant and the first published, La Revue générale de l’architecture; I have relied on it. This is a monthly document that includes changes, developments and debates. It had a very great disclosure; every teacher, architect and engineer of the time had a direct and easy access to this publication. Finally, following theoretical ideal construction projected by one of the great architects of the time, we reflect on whether that architecture really represents an understanding and awareness of the new architectural models defined by a technique in progress, or if it only responds to an architectural utopia as the ones outlined earlier by the great theorists. To be able to define the geometry of this structural item, we have carried out a three-dimensional modeling that enables us to calculate the structure through a process of finite elements. The purpose of this calculation is not exclusively understanding whether the structure was viable or not at the time, but also understanding if the definition of these original structural elements involved a new concept of three-dimensional structures and if that involved the beginning of a substantial change in theory of architecture, with the search for a new construction model derived from technical advances. In this way it is demonstrated that the building model has definitely changed for a much more versatile one and above all with a high adaptation capacity, this combined in turn with a proliferation of patents that try and seek a standardization of the building model and are not, in any case, a model in itself. As a final conclusion, it is argued that at the time a major structural intuition was present; even though the math calculation was still relatively new, in an instinctively way load lines, combination of materials and new forms were taken into account, that will help to create models in the coming years and which will form the basis of subsequent numerical calculation.