67 resultados para Función del objeto


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El proyecto tiene como objeto analizar desde el punto de vista técnico-económico las posibilidades para mejorar el factor de potencia en los consumos auxiliares de la Central térmica Litoral, perteneciente a Endesa Generación. Debido a un cambio normativo, las tarifas de acceso a las redes de transporte y distribución de energía eléctrica aplicarán ahora también a los consumos propios de las empresas productoras de electricidad dentro del ámbito de aplicación de las tarifas de acceso. Como la energía reactiva se facturará en función del factor de potencia se propone para su compensación la instalación de bancos de condensadores para mejorar el mismo y disminuir la penalización. Para el dimensionamiento de los bancos se han utilizado los consumos horarios de los años 2012 y 2013 de tres fronteras: grupos 1 y 2 de 400 kV y los transformadores auxiliares de arranque (OTAAs) de 6 kV , teniendo en cuenta las peculiaridades de una Central de Generación, ya que sólo serán objeto de estudio (a efecto de penalizaciones) las horas en las que el grupo está parado o arrancando. El resultado final muestra la diferencia en cuanto a los periodos de amortización de una instalación con generación y sin generación, siendo esta última más rentable económicamente. ABSTRACT The goal of this project is to analyse the possibilities to better the power factor in the auxiliary consumption of the Thermal Plant Litoral from an economic and technical viewpoint. Due to a normative changes, the access price rates for the transportation and distribution of electrical energy, will also apply now to the electricity productive companies own consumption within the scope of the access rate. Since reactive power is invoiced based on the potency factor, we propose the installation of capacitor banks to improve the aforementioned power factor as compensation so as to reduce sanctions. We have used the time profiles from 2012 and 2013 to dimension the banks, using 3 borders: Group 1 and 2 (400 kV) and the auxiliary starter transformers (OTAA's) of 6kV, taking into account the special characteristics of a Generation Plant , since we will only study the hours that the group was shut down or powering up (since these are what the penalties cover). The final result shows the difference in regards to repayment periods for both generating and nongenerating installation, being the aforesaid the most economically worthwile of the two

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En personas que padecen una Lesión Medular cervical, la función de los miembros superiores se ve afectada en mayor o menor medida, dependiendo fundamentalmente del nivel de la lesión y de la severidad de la misma. El déficit en la función del miembro superior hace que la autonomía e independencia de las personas se vea reducida en la ejecución de Actividades de la Vida Diaria. En el entorno clínico, la valoración de la función del miembro superior se realiza principalmente con escalas clínicas. Algunas de ellas valoran el nivel de dependencia o independencia en la ejecución de Actividades de la Vida Diaria, como, por ejemplo, el índice de Barthel y la escala FIM (Medida de la Independencia Funcional). Otras escalas, como Jebsen-Taylor Hand Function, miden la función del miembro superior valorando la destreza y la habilidad en la ejecución de determinadas tareas funcionales. Estas escalas son generales, es decir, se pueden aplicar a distintas poblaciones de sujetos y a la presencia de distintas patologías. Sin embargo, existen otras escalas desarrolladas específicamente para valorar una patología concreta, con el objetivo de hacer las evaluaciones funcionales más sensibles a cambios. Un ejemplo es la escala Spinal Cord Independence Measure (SCIM), desarrollada para valorar Lesión Medular. Las escalas clínicas son instrumentos de medida estandarizados, válidos para su uso en el entorno clínico porque se han validado en muestras grandes de pacientes. No obstante, suelen poseer una elevada componente de subjetividad que depende principalmente de la persona que puntúa el test. Otro aspecto a tener en cuenta, es que la sensibilidad de las escalas es alta, fundamentalmente, a cambios groseros en el estado de salud o en la función del miembro superior, de forma que cambios sutiles en el sujeto pueden no ser detectados. Además, en ocasiones, poseen saturaciones en el sistema de puntuación, de forma que mejorías que se puedan producir por encima de un determinado umbral no son detectadas. En definitiva, estas limitaciones hacen que las escalas clínicas no sean suficientes, por sí mismas, para evaluar estrategias motoras del miembro superior durante la ejecución de movimientos funcionales, siendo necesaria la búsqueda de instrumentos de medida que aporten objetividad, complementen las valoraciones y, al mismo tiempo, intenten solventar las limitaciones que poseen las escalas. Los estudios biomecánicos son ejemplos de métodos objetivos, en los que diversas tecnologías se pueden utilizar para recoger información de los sujetos. Una concreción de estos estudios son los estudios cinemáticos. Mediante tecnología optoelectrónica, inercial o electromagnética, estos estudios proporcionan información objetiva acerca del movimiento realizado por los sujetos, durante la ejecución de tareas concretas. Estos sistemas de medida proporcionan grandes cantidades de datos que carecen de una interpretación inmediata. Estos datos necesariamente deben ser tratados y reducidos a un conjunto de variables que, a priori, posean una interpretación más sencilla para ser utilizados en la práctica clínica. Estas han sido las principales motivaciones de esta investigación. El objetivo principal fue proponer un conjunto de índices cinemáticos que, de forma objetiva, valoren la función del miembro superior; y validar los índices propuestos en poblaciones con Lesión Medular, para su uso como instrumentos de valoración en el entorno clínico. Esta tesis se enmarca dentro de un proyecto de investigación: HYPER (Hybrid Neuroprosthetic and Neurorobotic Devices for Functional Compensation and Rehabilitation of Motor Disorders, referencia CSD2009-00067 CONSOLIDER INGENIO 2010). Dentro de este proyecto se lleva a cabo investigación en el desarrollo de modelos, para determinar los requisitos biomecánicos y los patrones de movimiento de los miembros superiores en sujetos sanos y personas con lesión medular. Además, se realiza investigación en la propuesta de nuevos instrumentos de evaluación funcional en el campo de la rehabilitación de los miembros superiores. ABSTRACT In people who have suffered a cervical Spinal Cord Injury, upper limbs function is affected to a greater or lesser extent, depending primarily on the level of the injury and the severity of it. The deficit in the upper limb function reduces the autonomy and independence of persons in the execution of Activities of Daily Living. In the clinical setting, assessment of upper limb function is mainly performed based on clinical scales. Some value the level of dependence or independence in performing activities of daily living, such as the Barthel Index and the FIM scale (Functional Independence Measure). Other scales, such as the Jebsen-Taylor Hand Function, measure upper limb function in terms of the skill and ability to perform specific functional tasks. These scales are general, so can be applied to different populations of subjects and the presence of different pathologies. However, there are other scales developed for a specific injury, in order to make the functional assessments more sensitive to changes. An example is the Spinal Cord Independence Measure (SCIM), developed for people with Spinal Cord Injury. The clinical scales are standardized instruments measure, valid for use in the clinical setting because they have been validated in large patient samples. However, they usually have a high level of subjectivity which mainly depends on the person who scores the test. Another aspect to take into account is the high sensitivity of the scales mainly to gross changes in the health status or upper limb function, so that subtle changes in the subject may not be detected. Moreover, sometimes, have saturations in the scoring system, so that improvements which may occur above a certain threshold are not detected. For these reasons, clinical scales are not enough, by themselves, to assess motor strategies used during movements. So, it’s necessary to find measure instruments that provide objectivity, supplement the assessments and, at the same time, solving the limitations that scales have. Biomechanical studies are examples of objective methods, in which several technologies can be used to collect information from the subjects. One kind of these studies is the kinematic movement analysis. By means of optoelectronics, inertial and electromagnetic technology, these studies provide objective information about the movement performed by the subjects during the execution of specific tasks. These systems provide large quantities of data without easy and intuitive interpretation. These data must necessarily be treated and reduced to a set of variables that, a priori, having a simpler interpretation for their use in the clinical practice. These were the main motivations of this research. The main objective was to propose a set of kinematic indices, or metrics that, objectively, assess the upper limb function and validate the proposed rates in populations with Spinal Cord Injury, for use as assessment tools in the clinical setting. This dissertation is framed within a research project: HYPER (Neurorobotic Devices for Functional Compensation and Rehabilitation of Motor Disorders, grant CSD2009- 00067 CONSOLIDER INGENIO 2010). Within this research project, research is conducted in relation to the biomechanical models development for determining the biomechanical requirements and movement patterns of the upper limb in healthy and people with Spinal Cord Injury. Moreover, research is conducted with respect to the proposed of new functional assessment instruments in the field of upper limb rehabilitation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El análisis del rendimiento en deportes juega un papel esencial en el fútbol profesional. Aunque el estudio del análisis del juego en fútbol se ha utilizado desde diferentes ámbitos y situaciones, todavía existen diferentes aspectos y componentes del juego que siguen sin estar estudiados. En este sentido existen diferentes aspectos que deben de superar los estudios previos centrados en el componente descriptivo tales como el uso de variables/ indicadores de rendimiento que no se han definido ni estudiado, la validez de los métodos observaciones que no han sido testados con los softwares específicos en fútbol, la aplicación y utilidad de los resultados, así como las limitaciones del estudio de las variables situacionales/contextuales. Con el objetivo de cubrir las citadas limitaciones se han diseñado 6 estudios independientes e inter-relacionados que tratan de estudiar los aspectos anteriormente referidos. El primer estudio evalua la fiabilidad inter-observadores de las estadísticas de juego de la empresa privada OPTA Sportsdata, estos datos son la muestra de estudio de la presente tesis doctoral. Dos grupos de observadores experimentados se requieren para analizar un partido de la liga española de manera independiente. Los resultados muestran que los eventos de equipos y porteros codificados por los inter-operadores alcanzan un acuerdo muy bueno (valores kappa entre 0.86 y 0.94). La validez inter-observadores de las acciones de juego y los datos de jugadores individuales se evaluó con elevados niveles de acuerdo (valores del coeficiente de correlación intraclase entre 0.88 hasta 1.00, el error típico estandarizado variaba entre 0.00 hasta 0.37). Los resultados sugieren que las estadísticas de juego registradas por los operadores de la empresa OPTA Sportsdata están bien entrenados y son fiables. El segundo, tercer y cuarto estudio se centran en resaltar la aplicabilidad del análisis de rendimiento en el fútbol así como para explicar en profundidad las influencias de las variables situacionales. Utilizando la técnica de los perfiles de rendimiento de jugadores y equipos de fútbol se puede evaluar y comparar de manera gráfica, fácil y visual. Así mismo, mediante esta técnica se puede controlar el efecto de las variables situacionales (localización del partido, nivel del equipo y del oponente, y el resultado final del partido). Los perfiles de rendimiento de porteros (n = 46 porteros, 744 observaciones) y jugadores de campo (n = 409 jugadores, 5288 observaciones) de la primera division professional de fútbol Española (La Liga, temporada 2012-13), los equipos (n = 496 partidos, 992 observaciones) de la UEFA Champions League (temporadas 2009-10 a 2012-13) fueron analizados registrando la media, desviación típica, mediana, cuartiles superior e inferior y el recuento de valores de cada indicador de rendimiento y evento, los cuales se presentaron en su forma tipificada y normalizada. Los valores medios de los porteros de los equipos de diferentes niveles de La Liga y de los equipos de diferente nivel de la UEFA Champions League cuando jugaban en diferentes contextos de juego y situaciones (variables situacionales) fueron comparados utilizando el ANOVA de un factor y la prueba t para muestras independientes (localización del partido, diferencias entre casa y fuera), y fueron establecidos en los perfiles de red después de unificar todos los registros en la misma escala derivada con valores estandarizados. Mientras que las diferencias de rendimiento entre los jugadores de los mejores equipos (Top3) y los peores (Bottom3) fueron comparados mediante el uso de diferencias en la magnitud del tamaño del efecto. El quinto y el sexto estudio analizaban el rendimiento del fútbol desde un punto de vista de predicción del rendimiento. El modelo linear general y el modelo lineal general mixto fue empleado para analizar la magnitud de las relaciones de los indicadores y estadísticas de juego con el resultado final del partido en función del tipo de partido (partidos ajustados o todos los partidos) en la fase de grupos de la Copa del Mundo 2014 de Brasil (n = 48 partidos, 38 partidos ajustados) y La Liga 2012-13 (n = 320 partidos ajustados). Las relaciones fueron evaluadas mediante las inferencias en la magnitud de las diferencias y se expresaron como partidos extra ganados o perdidos por cada 10 partidos mediante la variable calculada en 2 desviaciones típicas. Los resultados mostraron que, para los 48 partidos de la fase de grupos de la Copa del Mundo 2014, nueve variables tuvieron un efecto positive en la probabilidad de ganar (tiros, tiros a puerta, tiros de contraataque, tiros dentro del área, posesión de balón, pases en corto, media de secuencia de pases, duelos aéreos y entradas), cuatro tuvieron efectos negativos (tiros bloqueados, centros, regates y tarjetas amarillas), y otras 12 variables tenían efectos triviales o poco claros. Mientras que los 38 partidos ajustados, el efecto de duelos aéreos y tarjetas amarillas fueron triviales y claramente negativos respectivamente. En la La Liga, existió un efecto moderado positive para cada equipo para los tiros a puerta (3.4 victorias extras por cada 10 partidos; 99% IC ±1.0), y un efecto positivo reducido para tiros totales (1.7 victorias extrsa; ±1.0). Los efectos de la mayoría de los eventos se han relacionado con la posesión del balón, la cual obtuvo efectos negativos entre equipos (1.2 derrotas extras; ±1.0) pero un efecto positivo pequeño entra equipos (1.7 victorias extras; ±1.4). La localización del partido mostró un efecto positive reducido dentro de los equipos (1.9 victorias extras; ±0.9). Los resultados obtenidos en los perfiles y el modelado del rendimiento permiten ofrecer una información detallada y avanzada para el entrenamiento, la preparación previa a los partidos, el control de la competición y el análisis post-partido, así como la evaluación e identificación del talento de los jugadores. ABSTRACT Match performance analysis plays an important role in the modern professional football. Although the research in football match analysis is well-developed, there are still some issues and problems remaining in this field, which mainly include the lack of operational definitions of variables, reliability issues, applicability of the findings, the lack of contextual/situational variables, and focusing too much on descriptive and comparative analysis. In order to address these issues, six independent but related studies were conducted in the current thesis. The first study evaluated the inter-operator reliability of football match statistics from OPTA Sportsdata Company which is the data resourse of the thesis. Two groups of experienced operators were required to analyse a Spanish league match independently in the experiment. Results showed that team events and goalkeeper actions coded by independent operators reached a very good agreement (kappa values between 0.86 and 0.94). The inter-operator reliability of match actions and events of individual outfield players was also tested to be at a high level (intra-class correlation coefficients ranged from 0.88 to 1.00, standardised typical error varied from 0.00 to 0.37). These results suggest that the football match statistics collected by well-trained operators from OPTA Sportsdata Company are reliable. The second, third and fourth study aims to enhance the applicability of football match performance analysis and to explore deeply the influences of situational variables. By using a profiling technique, technical and tactical performances of football players and teams can be interpreted, evaluated and compared more easily and straightforwardly, meanwhile, influences and effects from situational variables (match location, strength of team and opposition, and match outcome) on the performances can be properly incorporated. Performance profiles of goalkeepers (n = 46 goalkeepers, 744 full match observations) and outfield players (n = 409 players, 5288 full match observations) from the Spanish First Division Professional Football League (La Liga, season 2012-13), teams (n = 496 matches, 992 observations) from UEFA Champions League (seasons 2009-10 to 2012-13) were set up by presenting the mean, standard deviation, median, lower and upper quartiles of the count values of each performance-related match action and event to represent their typical performances and spreads. Means of goalkeeper from different levels of team in La Liga and teams of different strength in UEFA Champions League when playing under different situational conditions were compared by using one-way ANOVA and independent sample t test (for match location, home and away differences), and were plotted into the same radar charts after unifying all the event counts by standardised score. While differences between the performances of outfield players from Top3 and from Bottom3 teams were compared by magnitude-based inferences. The fifth and sixth study aims to move from the descriptive and comparative football match analysis to a more predictive one. Generalised linear modelling and generalised mixed linear modelling were undertaken to quantify relationships of the performance-related match events, actions and variables with the match outcome in different types of games (close games and all games) in the group stage of 2014 Brazil FIFA World Cup (n = 48 games, 38 close games) and La Liga 2012-13 (n = 320 close games). Relationships were evaluated with magnitude-based inferences and were expressed as extra matches won or lost per 10 matches for an increase of two standard deviations of a variable. Results showed that, for all the 48 games in the group stage of 2014 FIFA World Cup, nine variables had clearly positive effects on the probability of winning (shot, shot on target, shot from counter attack, shot from inside area, ball possession, short pass, average pass streak, aerial advantage, and tackle), four had clearly negative effects (shot blocked, cross, dribble and red card), other 12 variabless had either trivial or unclear effects. While for the 38 close games, the effects of aerial advantage and yellow card turned to trivial and clearly negative, respectively. In the La Liga, there was a moderate positive within-team effect from shots on target (3.4 extra wins per 10 matches; 99% confidence limits ±1.0), and a small positive within-team effect from total shots (1.7 extra wins; ±1.0). Effects of most other match events were related to ball possession, which had a small negative within-team effect (1.2 extra losses; ±1.0) but a small positive between-team effect (1.7 extra wins; ±1.4). Game location showed a small positive within-team effect (1.9 extra wins; ±0.9). Results from the established performance profiles and modelling can provide detailed and straightforward information for training, pre-match preparations, in-match tactical approaches and post-match evaluations, as well as for player identification and development. 摘要 比赛表现分析在现代足球中起着举足轻重的作用。尽管如今对足球比赛表现分析的研究已经相对完善,但仍有很多不足之处。这些不足主要体现在:研究中缺乏对研究变量的清晰定义、数据信效度缺失、研究结果的实用性受限、比赛情境因素缺失以及过于集中在描述性和对比性分析等。针对这些问题,本论文通过六个独立而又相互联系的研究,进一步对足球比赛表现分析进行完善。 第一个研究对本论文的数据源--OPTA Sportsdata公司的足球比赛数据的信效度进行了实验检验。实验中,两组数据收集人员被要求对同一场西班牙足球甲级联赛的比赛进行分析。研究结果显示,两组收集人员记录下的球队比赛事件和守门员比赛行为具有高度的一致性(卡帕系数介于0.86和0.94)。收集人员输出的外场球员的比赛行为和比赛事件也具有很高的组间一致性(ICC相关系数介于0.88和1.00,标准化典型误差介于0.00和0.37)。实验结果证明了OPTA Sportsdata公司收集的足球比赛数据具有足够高的信效度。 第二、三、四个研究旨在提升足球比赛表现分析研究结果的实用性以及深度探讨比赛情境因素对足球比赛表现的影响。通过对足球运动员和运动队的比赛技战术表现进行档案创建,可以对运动员和运动队的比赛表现进行简直接而直观的呈现、评价和对比,同时,情境变量(比赛场地、球队和对手实力、比赛结果)对比赛表现的影响也可以被整合到表现档案中。本部分对2012-13赛季西班牙足球甲级联赛的参赛守门员(n = 46球员人次,744比赛场次)和外场球员(n = 409球员人次, 5288比赛场次)以及2009-10至2012-13赛季欧洲足球冠军联赛的参赛球队(n = 496比赛场次)的比赛技战术表现进行了档案创建。在表现档案中,各项比赛技战术指标的均值、标准差、中位数和大小四分位数被用来展现守门员、外场球员和球队的普遍表现和表现浮动性。方差分析(ANOVA)被用来对西甲不同水平球队的守门员、欧冠中不同水平球队在不同比赛情境下的普遍表现(各项指标的均值)进行对比,独立样本t检验被用来对比主客场比赛普遍表现的差异。数据量级推断(magnitude-based inferences)的方法则被用来对西甲前三名和最后三名球队外场球员的普遍表现进行对比分析。所有来自不同水平球队的运动员和不同水平运动队的各项比赛指标皆被转换成了标准分数,从而能把他们在各种不同比赛情境下的普遍表现(各项比赛指标的均值)投到相同的雷达图中进行直观的对比。 第五和第六个研究目的在于进行预测性足球比赛表现分析,从而跨越之前固有的描述性和对比性分析。广义线性模型和广义混合线性模型被用来对2014年巴西世界杯小组赛(n = 48 比赛场次,38小分差场次)和2012-13赛季西甲联赛(n = 320小分差场次)的比赛中各表现相关比赛事件、行为和变量与比赛结果(胜、平、负)的关系进行建模。模型中的关系通过数据量级推断(magnitude-based inferences)的方法来界定,具体表现为某个变量增加两个标准差对比赛结果的影响(每10场比赛中额外取胜或失利的场数)。研究结果显示,在2014年巴西世界杯小组赛的所有48场比赛中,9个变量(射门、射正、反击中射门、禁区内射门、控球、短传、连续传球平均次数、高空球争抢成功率和抢断)与赢球概率有清晰的正相关关系,4个变量(射门被封堵、传中、过人和红牌)与赢球概率有清晰的负相关关系,其他12个被分析的变量与赢球概率的相关关系微小或不清晰。而在38场小分差比赛中,高空球争抢成功率由正相关变为微小关系,黄牌则由微小关系变为清晰的负相关。在西甲联赛中,每一支球队增加两个标准差的“射正球门”可以给每10场比赛带来3.4场额外胜利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“射正球门”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.0场)。其他大多数比赛相关事件与比赛结果的相关关系与“控球”相关联。每一支球队增加两个标准差的“控球”将会给每10场比赛带来1.2场额外失利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“控球”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.4场)。与客场比赛相对,主场能给球队带来1.9 /10场额外胜利(99%置信区间±0.9场)。 比赛表现档案和模型中得出的研究结果可以为俱乐部、足球队、教练组、表现分析师和运动员提供详细而直接的参考信息。这些信息可用于训练指导、赛前备战、赛中技战术调整和赛后技战术表现分析,也可运用于足球运动员选材、培养和发展。

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo principal del trabajo es analizar cuáles son las estrategias de creación de valor más relevantes y exitosas en el mercado de las operadoras de red móvil. Para ello se realiza un estudio de los distintos mercados mundiales, incluyendo un análisis segmentado que permita extraer conclusiones acerca de las estrategias desarrolladas por los diferentes operadores. Tras segmentar en función del crecimiento del producto interior bruto de cada país, y en función al crecimiento del mercado móvil para los años 2010-2013, se han identificado los siguientes grupos con características diferenciadas:  Mercados europeos  Mercados sur de Europa  Mercados competitivos  Mercados confort Partiendo de esta segmentación, se han estudiado con mayor grado de detalle los operadores de cada uno de los mercados, utilizando una serie de variables e indicadores como medidas de la creación/destrucción de valor

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En los últimos años las ventas de vehículos eléctricos han crecido significativamente. Ya hay modelos en el mercado que pueden satisfacer las necesidades reales de movilidad de los posibles compradores, pero se ha detectado que existe mucha reticencia a su adquisición por desconocimiento de su autonomía real. El objetivo de este trabajo de fin de grado es diseñar una aplicación móvil que ayude a la toma de esta decisión. Para ello, se analizará el perfil de movimiento diario de los usuarios, registrando los diferentes trayectos que realicen, midiendo las velocidades y distancias recorridas, así como la localización de las paradas y su duración. Se clasificará a cada usuario en función del porcentaje de trayectos "en modo eléctrico" que pueda realizar. Adicionalmente, y partiendo de los datos registrados, se realizará una comparativa de los costes que tiene un usuario con su vehículo actual, y los que tendría con un modelo eléctrico realizando los mismos trayectos. Cuantos más viajes realice este usuario, mayor será la precisión de los resultados obtenidos por la aplicación.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La radioterapia intraoperatoria (RIO) con electrones es una modalidad de tratamiento contra el cáncer que combina cirugía y radiación terapéutica aplicada a un tumor sin resecar o al lecho tumoral después de una resección. Este tratamiento se planifica con una imagen preoperatoria del paciente. Sería adecuado incluir en la planificación información acerca de la superficie del lecho tumoral ya que la acumulación de fluidos, las superficies cóncavas y las irregularidades en la superficie irradiada modifican significativamente la distribución de la dosis. Existen diversos escáneres de superficie pero el que mejor se podría adaptar al entorno de la RIO sería el que utiliza un dispositivo de holografía conoscópica (ConoProbe, Optimet Metrology Ltd.) ya que permite realizar medidas de distancias en cavidades, en superficies reflectantes y en tejidos biológicos. La holografía conoscópica es una técnica de interferometría basada en la propagación de la luz en cristales birrefringentes. Para obtener las coordenadas 3D de los puntos de la superficie barridos por el dispositivo ConoProbe es necesario utilizar un sistema de posicionamiento como el que se utiliza en el quirófano de la RIO para localizar el aplicador de RIO con el que se conduce el haz de electrones (sistema de posicionamiento óptico OptiTrack, NaturalPoint Inc.). El objetivo de este proyecto fin de grado consistió en desarrollar un sistema de escaneado de superficies y realizar diversas pruebas para evaluar la calidad del sistema desarrollado y su viabilidad en el entorno de la RIO. Para integrar la información del dispositivo ConoProbe y del sistema de posicionamiento OptiTrack se realizó una calibración temporal para sincronizar los datos de ambos dispositivos utilizando la función de correlación cruzada y una calibración espacial para transformar la distancia medida por el dispositivo ConoProbe en coordenadas 3D de la superficie del objeto escaneado. Se plantearon dos métodos para realizar esta calibración espacial, por ajuste de pares de puntos y por ajuste a un plano. La calibración espacial elegida fue la primera ya que presentaba menor error. El error del sistema es inferior a 2 mm siendo un error aceptable en el entorno de la RIO. Diferentes pruebas con diversos materiales y formas han permitido comprobar que el sistema de escaneado funciona incluso con líquidos. En un procedimiento de RIO, el escaneado de la superficie se haría después de colocar el aplicador. En este caso, se puede obtener también la superficie del objeto alrededor de centro del aplicador colocando verticalmente el dispositivo ConoProbe. Es complicado obtener la superficie próxima a las paredes del aplicador debido a que estas afectan al cono de luz reflejado. De todas formas, el sistema de escaneado desarrollado proporciona más información en este escenario que un sistema de escáner 3D de luz estructurada (no se podría escanear nada de la superficie con el aplicador colocado). Esta información es útil para la estimación de la distribución de la dosis real que recibe un paciente en un procedimiento de RIO.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabajo estudia el comportamiento de una matriz de yeso de construcción a la que se le han añadido residuos de construcción y demolición (RCD), residuos de poliestireno extruido (XPS) y residuos cerámicos respectivamente, combinados y en diferentes porcentajes en función del peso del yeso. Los residuos de XPS son producto de una obra en Madrid donde el material fue utilizado como aislamiento térmico y los residuos cerámicos corresponden a trozos de ladrillos toscos encontrados en una obra paralizada en la ciudad de Ávila. Se confeccionaron probetas con porcentajes hasta 3% de XPS y hasta 50% de cerámicos en función del peso del yeso utilizado, como referencia se confeccionaron probetas sin adición de RCD. Fueron ensayadas en laboratorio y se determinaron las características físicas y mecánicas de las mismas. Tras un análisis comparativo se evidencian que la adición de residuos de XPS y residuos cerámicos en conjunto disminuye la densidad seca del material y la absorción de agua por capilaridad, en algunos casos disminuye la conductividad térmica y aumenta la dureza superficial. ABSTRACT: This paper studies the behavior of a building gypsum matrix to which have been added Construction and Demolition waste (CDW), residues of extruded polystyrene (XPS) and ceramic waste respectively, and combined in different percentages depending on the weight of gypsum. XPS waste are the product of a work in Madrid where the material was used as thermal insulation and ceramic waste correspond to pieces of rough bricks found in a paralyzed work in the city of Avila. Specimens were prepared with percentages up to 3% of XPS and up to 50% depending on the weight ceramic gypsum used as reference samples were prepared without addition of CDW. They were tested in laboratory and determined the physical and mechanical characteristics thereof. After a comparative analysis they show that the addition of ceramic waste and waste XPS decreases together dry material density and water absorption by capillary action, in some cases the thermal conductivity decreases and increases surface hardness.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente trabajo se enmarca en el ámbito de la eficiencia energética y contempla la gestión del consumo eléctrico en hogares. Concretamente, para este proyecto fin de grado se propone el desarrollo de un sistema informático que permita el análisis y monitorización del consumo eléctrico y optimización en la contratación del suministro eléctrico en el hogar. El sistema desarrollado permite la monitorización del consumo eléctrico, expresado en kilovatios-hora (kWh), y la monitorización del coste real de dicho consumo, expresado en euros, en función del tipo de tarifa que se tenga contratada en la modalidad del PVPC1 (Precio Voluntario para el Pequeño Consumidor). También se ha desarrollado una interfaz web a través de la cual el usuario tiene acceso a la información y datos del sistema. En dicha web se muestran gráficas de consumo, potencia, voltaje, corriente y coste de la energía por días. Además, se ha dotado al sistema de un generador de alertas que notifica al usuario, vía web y vía correo electrónico, cuando el consumo sobrepasa los límites fijados por él mismo. El usuario, por tanto, podrá definir los valores de alerta de sobreconsumo y visualizar tanto un histórico de las alertas generadas en el pasado como las alertas activas en ese momento. Las alertas se muestran en la gráfica correspondiente dentro de la aplicación web. Por último, se dispone de la opción de exportar las gráficas que son visualizadas en la aplicación web en formato PNG, JPEG, PDF y SVG, además de la posibilidad de imprimirla.---ABSTRACT---This project belongs to the Energy Efficiency field and is aimed at home energy management. Specifically, for this thesis the development of a computer system that allows monitoring and analysis of energy consumption and contracted power optimization is proposed. The developed system allows energy consumption management within households (expressed in kilowatts per hour, kWh) and real cost monitoring (in euros) according to the contract tariff. A web interface has been developed in order to provide the user with power consumption information and control energy tools. In this web application, electric consumption, power, voltage, current and energy cost by day are shown. Besides, an alert generation system has been implemented so that the user can define maximum power consumption values and be informed through email or web when these values are exceeded. The user will be able to check older power alerts as well as the currently active ones. These alerts are shown in a specific graph within the web application. Finally, the user generated graphs can be exported from the web using PNG, JPEG, PDF or SVG image formats as well as be printed from the web.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los diques de abrigo verticales son estructuras monolíticas que sirven para reflejar el oleaje creando, de este modo, una zona abrigada en el lado tierra. Son estructuras de contención de gravedad, es decir, su peso es el elemento resistente fundamental. Las solicitaciones sobre estas estructuras son de tipo dinámico (oleaje) y consisten, fundamentalmente, en un empuje frontal y una subpresión en la base que varían en el tiempo. Habitualmente, las acciones sobre los diques de abrigo se establecen mediante fórmulas empíricas, que se describen en la presente tesis si bien, para obras de especial importancia, suelen medirse en modelos reducidos de laboratorio. Cuando el cimiento en que han de apoyarse estas estructuras no presenta una resistencia al corte suficiente, el apoyo se realiza en banquetas que redistribuyen la carga y que están formadas por materiales granulares. En la práctica habitual para conocer la estabilidad de estas estructuras frente a un temporal, tras establecer las acciones de cálculo (empuje frontal y subpresión) se efectúa un cálculo pseudoestático en el que se consideran condiciones drenadas o no drenadas del cimiento en función de su permeabilidad. Se conoce que en los suelos saturados, bajo cargas cíclicas, tiende a producirse una elevación de las presiones intersticiales y una reducción de tensiones efectivas así como una degradación del módulo de deformación tangencial en función del número de ciclos de carga, pudiéndose producir el fenómeno conocido como licuefacción (arenas) o movilidad cíclica (suelos más finos). El objeto de la tesis es explorar la posibilidad, con la tecnología actual, de analizar la estabilidad de los diques de abrigo verticales en cuyo cimiento existen suelos blandos, proponiendo un procedimiento para evaluar la estabilidad dinámica en este tipo de obras. Para ello se han revisado los procedimientos actualmente utilizados para definir las acciones de cálculo, los principales modelos de comportamiento dinámicos de suelos saturados disponibles y los procedimientos de cálculo. Una vez investigado el estado del arte sobre este tema, se propone un procedimiento de cálculo en el que, utilizando el programa comercial FLAC, se establecen las acciones cíclicas sobre un dique de abrigo vertical tipo con distintas condiciones de apoyo, aplicando, para el cimiento, un modelo de comportamiento tipo hiperbólico con generación de presiones intersticiales cuyos parámetros pueden obtenerse de ensayos de campo y laboratorio. Por último, una vez descrito el procedimiento, se aplica a un caso real en el que se produjo un fallo en la cimentación que desembocó en el hundimiento de parte de un dique vertical situado en el puerto de Barcelona, presentándose los resultados obtenidos del análisis efectuado y comparándolos con los obtenidos utilizando los métodos de cálculo habituales. Vertical breakwaters are monolithic structures built to reflect sea waves, thereby providing a sheltered area on the land side. They are gravity retaining structures, that is, their own weight is their basic resisting mechanism. Loads acting on these structures are dynamic (waves) and consist essentially in a frontal thrust and an uplift pressure on the base, which both vary over time. Usually, actions in breakwater design are established by empirical formulas, which are described in this thesis. For works of particular importance, such forces are measured in small-scale laboratory tests. When there are no soils with enough shear strength under the planned vertical breakwaters, they usually rest on granular berms which redistribute the load. Nowadays, after establishing the acting forces on the breakwater (front push and uplift pressure), a pseudostatic calculation (with drained or undrained conditions depending on the foundation permeability) is normally done to analyze the stability of these structures against storm waves. It is known that pore pressures tend to rise in saturated soils under cyclic loading and, consequently, there is a reduction of effective stress. A degradation of the shear modulus also occurs depending on the number of load cycles. All of these effects can bring about the phenomenon known as liquefaction in sands or cyclic mobility in fine-grained soils. The aim of the thesis is to explore the possibility that current technology provides to analyze the stability of vertical breakwaters founded on soft soils, and to suggest a method to evaluate the dynamic stability in this type of works. To this end, a review has been made of procedures currently used to define the actions in calculations, the main models of dynamic behaviour of saturated soils available and of calculation procedures. Once the state of the art on this subject has been reviewed, a method of calculation is proposed that uses the commercial program FLAC and is applied to a typical vertical breakwater on a range of different foundation conditions. For the foundation soil, a hyperbolic constitutive model with pore pressure generation has been employed, whose parameters can be obtained from field and laboratory tests. Finally, the described procedure is applied to an actual case where a foundation failure occurred that led to the sinking of several caissons in a vertical breakwater located in the port of Barcelona. The results obtained with the proposed method are compared with those obtained using conventional methods.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Sudamérica es una de las zonas con mayor cantidad de bosque seco tropical a nivel mundial. No obstante, estos bosques han sido poco conocidos y la mayoría de estudios han estado orientados hacia los bosques húmedos tropicales. Los bosques secos se han reducido drásticamente y siguen muy amenazados, corriendo el riesgo de desaparecer en los próximos años. Por ello, es fundamental, generar investigación aplicada para la conservación inmediata de los ecosistemas secos tropicales. En Ecuador, la situación no es diferente y las zonas secas catalogadas como biodiversas están en constante amenaza. Los pocos estudios realizados en Ecuador sobre zonas secas, han permitido mejorar nuestro conocimiento referente a la diversidad y abundancia de las especies, relaciones planta-planta y síndromes de dispersión. No existen estudios sobre caracteres morfológicos en frutos y semillas de las especies leñosas de bosque seco. Sin embargo, nuestra comprensión de la dinámica y estructura de las comunidades ecológicas de zonas secas poco estudiadas, puede mejorar rápidamente mediante el estudio y enfoque de rasgos morfofisiológicos funcionales. El objetivo general del presente estudio fue aportar al conocimiento de la ecología y biología de semillas de zonas secas tropicales mediante el análisis y evaluación de rasgos morfofisiológicos de frutos y semillas de una comunidad de especies leñosas. El estudio se realizó en una zona de bosque y matorral seco, ubicados al sur occidente del Ecuador, a una altitud comprendida entre los 250 a 1 200 m s.n.m. caracterizada por una marcada estacionalidad ambiental, con lluvias desde diciembre a abril y una estación seca de mayo a noviembre. Precipitación media anual de 500 mm con una temperatura media anual de 20° a 26 °C. La zona de estudio forma parte de la región Tumbesina compartida entre el sur del Ecuador y el norte del Perú con gran diversidad de especies vegetales endémicas. Para el estudio se colectaron frutos con semillas maduras previamente a su dispersión de entre ocho y diez individuos de 80 especies entre árboles y arbustos más representativos de los bosques secos ecuatorianos. De los frutos colectados se utilizó una muestra al azar de 50 frutos y semillas por especie para los diferentes análisis. Se midió y evaluó 18 rasgos morfológicos y fisiológicos cuantitativos y cualitativos de frutos, semillas y de la especie. Se realizaron diferentes análisis de asociación y correlación entre los rasgos evaluados, con cinco variables ambientales registradas de las 109 parcelas establecidas en el área de estudio, además analizamos el tipo de dormición y comparamos la respuesta germinativa a la deshidratación relacionada con dos comunidades secas, matorral y bosque seco. Los resultados mostraron que las especies presentan gran heterogeneidad en rasgos continuos de las semillas. La variabilidad fue más evidente en rasgos como tamaño, volumen, masa y número de semillas por fruto. Sin embargo, una alta proporción de las especies tiende a producir una semilla por fruto. Además, la mayoría de las especies de bosque seco se caracterizan por no poseer algún tipo de apéndices o areola en sus semillas, forma ovalada y sin endospermo. La reserva nutritiva de las semillas se encuentra especialmente en los cotiledones de los embriones. Se encontraron seis tipos diferentes de embriones y la mayoría de las especies presentó embriones gruesos e invertidos. La dispersión de semillas está dominada por zoocoria en un 38 %, con relación a anemocoria (22 %) y autocoria (19 %). Sin embargo, encontramos que el 70 % de las especies posee frutos secos. Los análisis de dormición en las semillas de bosque seco, mostraron que el 60 % de las especies de bosque seco presentaron semillas con algún tipo de latencia, menor a la encontrada en especies de bosque deciduo tropical y sabanas, sin embargo, la dormición de las especies de bosque seco fue mayor al porcentaje de especies con dormición de bosque semiperenne y selva lluviosa tropical. La dormición física constituyó el 35 % de las especies de bosque seco, seguido del 12 % con dormición fisiológica, mientras que solamente una especie tuvo dormición morfológica. Encontramos que la dormición de las semillas de las especies en estudio se relaciona significativamente con el tipo y función del embrión y con el endospermo. Existieron relaciones significativas entre los rasgos morfológicos de los frutos, semillas, embriones y atributos de los individuos de 46 especies, aunque en algunos casos con coeficientes de correlación bajos. Hubo pocas relaciones entre los rasgo morfológicos de las semillas con las variables ambientales registradas. Solamente el tipo de testa y la presencia de apéndices en las semillas mostraron relación con el pH y la temperatura media del suelo. No obstante usando el modelo fouth corner-RLQ, no se encontraron asociaciones claras ni significativas entre rasgos morfológicos de semillas y frutos con variables ambientales. Al medir el efecto de la deshidratación en las semillas de los dos hábitats secos tropicales: bosque y matorral seco, los resultados determinaron que tanto las semillas de las especies leñosas de ambientes más áridos (matorral seco) están en gran medida pre-adaptadas a la desecación que las especies de ambientes menos áridos (bosque seco). Los tratamientos de deshidratación ejercieron un efecto negativo en los porcentajes de germinación en todas las especies, excepto para C. platanifolia. Los resultados más sorprendentes se registraron para Senna alata que mostró germinación extremadamente baja o incluso sin germinación a contenidos de humedad de la semillas de 0,10 g H2O g de peso seco. Las curvas de germinación difirieron significativamente entre los tratamientos de deshidratación en cada especie. Aportar al conocimiento la fisiología de la deshidratación y los límites de tolerancia de las semillas de bosque y matorral seco ayudará a entender mejor el papel de este rasgo en la ecología de las semillas y dinámica de las comunidades áridas tropicales. El estudio demostró, que la adaptación ecológica de las semillas de las especies leñosas de bosque seco a factores ambientales extremos, puede verse reflejada en una red de interacciones y correlaciones complejas entre los propios rasgos morfológicos y fisiológicos continuos y cuantitativos, sobre todo en rasgos internos de las semillas, quienes ejercerían una mayor influencia en toda la red de interacciones. Si bien, los rasgos de las semillas no mostraron fuertes relaciones con las variables ambientales, posiblemente las asociaciones presentes entre rasgos morfológicos pudiesen predecir en cambio interacciones entre especies y comportamientos y procesos relacionados con la tolerancia a la deshidratación y dormición de las semillas. ABSTRACT South America is one of the areas with the largest number of tropical dry forest in the world. However, these forests have been poorly understood and most studies have been directed to tropical rainforests. Dry forests have been drastically reduced and are very threatened, risking desaparecerer in the next years. It is therefore essential, generate applied research for conservation of tropical dry ecosystems. In Ecuador the situation is no different and dry areas classified as biodiverse are under constant threat. The few studies made in Ecuador on drylands have improved our knowledge concerning the diversity and abundance of species, plant-plant relationships and dispersion syndromes. Morphological studies on fruits and seeds of woody dry forest species do not exist. However, our understanding of the dynamics and structure of ecological communities dryland little studied, may improve quickly through the study and functional approach morphophysiological traits. The overall objective of this study was to contribute to the knowledge of the ecology and biology of tropical dry seeds through analysis and evaluation of morphophysiological traits of fruits and seeds of a community of woody species. The study was conducted in an area of dry scrub forest, located at the southwest of Ecuador, at an altitude between 250 to 1200 m asl. Environmental characterized by a marked seasonality, with rainfall from December to April and a dry season from May to November. Annual rainfall of 500 mm with an average annual temperature of 20° to 26 °C. The study area is part of the shared Tumbesina region between southern Ecuador and northern Peru with a great diversity of endemic plant species. For the study, we collected fruit and seed madure of eight and ten individuos of 80 species of trees and shrub most representated of the Ecuador dry forest. We selected a sample of 50 fruits and seeds for different analysis. We measure and evaluate 18 morphological and physiological traits of fruits, seeds and species. We perform analysis and correlation between traits associated with five environmental variables taken from the 109 plots established in the study area also analyze and compare the germination response to dehydration related to two dry communities, scrub and dry forest. The results showed that the species have great heterogeneity in continuous seed traits. Variability was more evident in features such as size, volume, mass, and number of seeds per fruit. However, a high proportion of species tends to produce a seed per fruit. In addition, most of the species of dry forest is characterized by not having some sort of ppendices or areola in its seeds, oval form and without endosperm. The nutrient reserves of seeds are especially in the cotyledons of the embryos. Six different embryos were found and most of the species presented thick and inverted embryos. Seed dispersal zoochory is dominated by 38 %, relative to anemochory (22 %) and autochory (19 %). However, we found that 70 % of the species has dried fruits. The analysis of dormancy from tropical dry forest, showed that 60 % of species showed seed dormancy, down from species found in tropical deciduous forest and savanna, however dormancy dry forest species was higher than the percentage of forest species dormancy semi-evergreen and tropical rain forest. Physical dormancy corresponds to 35 % of species, followed by 12 % with physiological dormancy, while only one species had morphological dormancy. We found that dormancy of the seeds was significantly related to the type and function of the embryo and the endospemo. There were significant relationships between morphological traits of fruits, seeds, embryos and attributes of individuals of 46 species, although in some cases with low correlation coefficients. There was little relationship between the morphologic traits of the seeds with the registered environmental variables. Only the type of tesla and the presence of appendages on the seeds showed relation to pH and the mean soil temperature. However, using the fourth corner-RLQ model, neither clear nor significant between morphological traits of seeds and fruits associations with environmental variables were found. The effect of dehydration on seeds of two tropical dry forest habitats was evident in dry scrub. The results determined that both the seeds of woody species forest and dry scrub are pre-adapted to drier conditions. Dehydration treatments exerted a negative effect on germination percentage in all species, except for C. platanifolia. However, all species germinated in treatments of extreme dryness, but in low percentages. The most striking results were recorded for Senna alata showed no germination when its moisture content was 0.10 g H2O g dry weight. Germination curves differ significantly between the treatments of dehydration in each species. Contribute to the knowledge of physiology and dehydration tolerance limits seeds dry scrub forest and help you better understand the role of this trait in seed ecology and dynamics of tropical arid communities. The study showed that the ecological adaptation of seeds of woody species of dry forest to extreme environmental factors may be reflected in a complex web of interactions and correlations between morphological and physiological traits continuous and quantitative themselves, especially in internal seed traits, who exerted a major influence on the entire network of interactions. While the seed traits showed strong relationships with environmental variables possibly present associations between morphological traits could predict interactions between species and change behaviors related to desiccation tolerance and seed dormancy processes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El origen de esta tesis considera una lectura (quizás) pendiente: definir críticamente a la monumentalidad en el contexto de la arquitectura moderna. La idea de lo monumental durante la modernidad establece parte de la negación enmarcada en un planteamiento más amplio, basado en el rechazo a todo vínculo con la tradición y la historia. Desde el estatismo del monumento como objeto anacrónico, a la instrumentación de la arquitectura como herramienta simbólica, el proceso transformador más importante para la arquitectura durante el siglo XX contaba con algunas señales que nos daban la pauta para imaginar una realidad conformada por matices y desacuerdos fundamentales. La investigación no pretende contar una nueva historia sobre el periodo moderno, aunque irremediablemente se vale de su registro para presentar la discusión. Así, la idea crítica que sostenemos tiene que ver con las posibilidades estructurales y objetivas del discurso arquitectónico. Un discurso que se analiza en función de tres campos diferenciados, designados como: lo escrito, lo proyectado y lo construido en el periodo de estudio. De esta manera, pensamos que se favorecen las posibilidades dimensionales de la crítica y se amplía el sentido narrativo de la linealidad histórica. Para esta trabajo, la monumentalidad constituye una sustancia de estudio que evidencia las contradicciones, inadvertencias y matices necesarios en la articulación de una visión más compleja sobre los acontecimientos. Convencidos de la eficacia de un modelo dialéctico, que define la condición de lo monumental tanto en una valoración positiva (lo propicio, lo útil, lo verdadero, etc.) como negativa (lo falso, lo ostentoso, lo altisonante, etc.); observaremos que las diferencias alrededor del concepto derivan respectivamente en los significados de monumentalidad y monumentalismo. El contraste y la oposición de ideas expuestas a la luz favorece esa pretensión dimensional de la crítica. De los escritos de Sigfried Giedion -y la Nueva Monumentalidad- a Le Corbusier y la construcción de Chandigarh; o de la crítica anti-monumental de Karel Teige, pasando por el proyecto constructivista de Ivan Leonidov; los distintos episodios referidos en el trabajo encuentran sentido y rechazan las probabilidades arbitrarias y confusas de la selección temática. En ese orden, se busca asignar cierto rigor metodológico e incluso geométrico: la estructura propuesta toma el gran "periodo moderno" en dos bloques temporales, primera-modernidad (alrededor de 1910-1935) y tardo-modernidad (aprox. 1935-1960). En la primera parte se analizan una postura -en mayor medida- reactiva a las manifestaciones de esa hipotética condición monumental, mientras que en el segundo caso la postura se transforma y se perfila un nuevo escenario que anticipará ideológicamente parte de la evidente fractura posmoderna. A su vez, los tres registros anunciados previamente se componen de dos capítulos en función del marco temporal descrito; cada capítulo se desarrolla en tres partes que abundan en los aspectos preliminares de la discusión, luego exponen unos puntos centrales y finalmente orientan un posible recuento. El trabajo se complementa con una parte introductoria que fluye sobre definiciones concretas del monumento, el monumentalismo y la monumentalidad; además de que definirá la orientación de la crítica desarrollada. En una última intervención, a manera de conclusión, se reflexiona sobre el salto temporal, ideológico y estético que la posmodernidad representó para el tema de investigación.   Abstract The purpose of this thesis is to consider a (perhaps) pendant issue: to define monumentality by means of critical approach within the modern context of architecture. The idea of what monumental is during modernity establishes a fraction of the "modern typical denial" based on the rejection of any link to tradition and history. From the anachronistic idea of static monuments, to the orchestration of architecture as a symbolic tool, the most important process of the revolution of architecture during the 20th Century had a few signs that allowed us to imagine a reality conformed by fundamental nuances and disagreements. The aim of this research is not to tell a new story about the modern period, although inexorable it takes note of the register to present the discussion. Therefore, the idea of what we expose as criticism has to do with structural and objective possibilities in the architectural discourse. A speech analyzed in response to three differentiated domains designated here as: the written, the projected and the built during the selected time. In that way, we believe the dimensional possibilities of criticism are favored and the narrative sense of historical process is expanded. In terms of this investigation monumentality constitutes a matter of study that leads us to contradictions, unnoticed issues and necessary gray areas in the articulation of a complex vision about depicted events. We are convinced in the efficiency of a dialectical analysis model in order to define the monumental condition both as a positive value (propitious, useful, truthful, etc.) and a negative one (untrue, ostentatious, pompous, etc.); the idea is to show the differences around respective meanings deriving in terms of monumentality and monumentalism. Contrasting information and the opposition of ideas exposed in this light helped to develop the assumption of dimensional criticism. From Sigfried Giedeon's writings -and the New Monumentality- to Le Corbusier and the construction of Chandigarh; and from Karel Teige's anti-monumental criticism going through the revision of Ivan Leonidov's constructivist project; the variety of episodes referred to this work find some sense and reject the probabilities about confusion and arbitrary in the selection of themes. In order to assign some methodological precision and even geometrical criterion, the proposed structure divides the "great modern time" into two historical blocks: first-modernity (circa 1910-1935) and late-modernity (around 1935-1960). The first part analyzes a -mainly- reactive stance towards the hypothetical expressions of monumental condition, whereas in the second block the rejection tends to be transformed and to project a new scenario that will foresee the ideological postmodern fracture. At the same time, the three registers are composed by two chapters each one will operate depending on the described time frame. Each chapter is organized in three subsequent parts: at first explaining preliminary ideas for discussion, second presenting central points and finally orienting a partial recount. The research is complemented with an introductory episode describing specific definitions concerning the concepts of monument, monumentalism and monumentality; and mainly orienting the developed critique. In a final intervention, as a way of conclusion, we reflect on ideological and aesthetic qualities that postmodern time shift represented for this investigation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.