915 resultados para New methodology
Resumo:
La Aeroelasticidad fue definida por Arthur Collar en 1947 como "el estudio de la interacción mutua entre fuerzas inerciales, elásticas y aerodinámicas actuando sobre elementos estructurales expuestos a una corriente de aire". Actualmente, esta definición se ha extendido hasta abarcar la influencia del control („Aeroservoelasticidad‟) e, incluso, de la temperatura („Aerotermoelasticidad‟). En el ámbito de la Ingeniería Aeronáutica, los fenómenos aeroelásticos, tanto estáticos (divergencia, inversión de mando) como dinámicos (flameo, bataneo) son bien conocidos desde los inicios de la Aviación. Las lecciones aprendidas a lo largo de la Historia Aeronáutica han permitido establecer criterios de diseño destinados a mitigar la probabilidad de sufrir fenómenos aeroelásticos adversos durante la vida operativa de una aeronave. Adicionalmente, el gran avance experimentado durante esta última década en el campo de la Aerodinámica Computacional y en la modelización aeroelástica ha permitido mejorar la fiabilidad en el cálculo de las condiciones de flameo de una aeronave en su fase de diseño. Sin embargo, aún hoy, los ensayos en vuelo siguen siendo necesarios para validar modelos aeroelásticos, verificar que la aeronave está libre de inestabilidades aeroelásticas y certificar sus distintas envolventes. En particular, durante el proceso de expansión de la envolvente de una aeronave en altitud/velocidad, se requiere predecir en tiempo real las condiciones de flameo y, en consecuencia, evitarlas. A tal efecto, en el ámbito de los ensayos en vuelo, se han desarrollado diversas metodologías que predicen, en tiempo real, las condiciones de flameo en función de condiciones de vuelo ya verificadas como libres de inestabilidades aeroelásticas. De entre todas ellas, aquella que relaciona el amortiguamiento y la velocidad con un parámetro específico definido como „Margen de Flameo‟ (Flutter Margin), permanece como la técnica más común para proceder con la expansión de Envolventes en altitud/velocidad. No obstante, a pesar de su popularidad y facilidad de aplicación, dicha técnica no es adecuada cuando en la aeronave a ensayar se hallan presentes no-linealidades mecánicas como, por ejemplo, holguras. En particular, en vuelos de ensayo dedicados específicamente a expandir la envolvente en altitud/velocidad, las condiciones de „Oscilaciones de Ciclo Límite‟ (Limit Cycle Oscillations, LCOs) no pueden ser diferenciadas de manera precisa de las condiciones de flameo, llevando a una determinación excesivamente conservativa de la misma. La presente Tesis desarrolla una metodología novedosa, basada en el concepto de „Margen de Flameo‟, que permite predecir en tiempo real las condiciones de „Ciclo Límite‟, siempre que existan, distinguiéndolas de las de flameo. En una primera parte, se realiza una revisión bibliográfica de la literatura acerca de los diversos métodos de ensayo existentes para efectuar la expansión de la envolvente de una aeronave en altitud/velocidad, el efecto de las no-linealidades mecánicas en el comportamiento aeroelástico de dicha aeronave, así como una revisión de las Normas de Certificación civiles y militares respecto a este tema. En una segunda parte, se propone una metodología de expansión de envolvente en tiempo real, basada en el concepto de „Margen de Flameo‟, que tiene en cuenta la presencia de no-linealidades del tipo holgura en el sistema aeroelástico objeto de estudio. Adicionalmente, la metodología propuesta se valida contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab. Para ello, se plantean las ecuaciones aeroelásticas no-estacionarias de un perfil bidimensional en la formulación espacio-estado y se incorpora la metodología anterior a través de un módulo de análisis de señal y otro módulo de predicción. En una tercera parte, se comparan las conclusiones obtenidas con las expuestas en la literatura actual y se aplica la metodología propuesta a resultados experimentales de ensayos en vuelo reales. En resumen, los principales resultados de esta Tesis son: 1. Resumen del estado del arte en los métodos de ensayo aplicados a la expansión de envolvente en altitud/velocidad y la influencia de no-linealidades mecánicas en la determinación de la misma. 2. Revisión de la normas de Certificación Civiles y las normas Militares en relación a la verificación aeroelástica de aeronaves y los límites permitidos en presencia de no-linealidades. 3. Desarrollo de una metodología de expansión de envolvente basada en el Margen de Flameo. 4. Validación de la metodología anterior contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab/Simulink. 5. Análisis de los resultados obtenidos y comparación con resultados experimentales. ABSTRACT Aeroelasticity was defined by Arthur Collar in 1947 as “the study of the mutual interaction among inertia, elastic and aerodynamic forces when acting on structural elements surrounded by airflow”. Today, this definition has been updated to take into account the Controls („Aeroservoelasticity‟) and even the temperature („Aerothermoelasticity‟). Within the Aeronautical Engineering, aeroelastic phenomena, either static (divergence, aileron reversal) or dynamic (flutter, buzz), are well known since the early beginning of the Aviation. Lessons learned along the History of the Aeronautics have provided several design criteria in order to mitigate the probability of encountering adverse aeroelastic phenomena along the operational life of an aircraft. Additionally, last decade improvements experienced by the Computational Aerodynamics and aeroelastic modelization have refined the flutter onset speed calculations during the design phase of an aircraft. However, still today, flight test remains as a key tool to validate aeroelastic models, to verify flutter-free conditions and to certify the different envelopes of an aircraft. Specifically, during the envelope expansion in altitude/speed, real time prediction of flutter conditions is required in order to avoid them in flight. In that sense, within the flight test community, several methodologies have been developed to predict in real time flutter conditions based on free-flutter flight conditions. Among them, the damping versus velocity technique combined with a Flutter Margin implementation remains as the most common technique used to proceed with the envelope expansion in altitude/airspeed. However, although its popularity and „easy to implement‟ characteristics, several shortcomings can adversely affect to the identification of unstable conditions when mechanical non-linearties, as freeplay, are present. Specially, during test flights devoted to envelope expansion in altitude/airspeed, Limits Cycle Oscillations (LCOs) conditions can not be accurately distinguished from those of flutter and, in consequence, it leads to an excessively conservative envelope determination. The present Thesis develops a new methodology, based on the Flutter Margin concept, that enables in real time the prediction of the „Limit Cycle‟ conditions, whenever they exist, without degrading the capability of predicting the flutter onset speed. The first part of this Thesis presents a review of the state of the art regarding the test methods available to proceed with the envelope expansion of an aircraft in altitude/airspeed and the effect of mechanical non-linearities on the aeroelastic behavior. Also, both civil and military regulations are reviewed with respect aeroelastic investigation of air vehicles. The second part of this Thesis proposes a new methodology to perform envelope expansion in real time based on the Flutter Margin concept when non-linearities, as freeplay, are present. Additionally, this methodology is validated against a Matlab/Slimulink bidimensional aeroelastic model. This model, parametric and interactive, is formulated within the state-space field and it implements the proposed methodology through two main real time modules: A signal processing module and a prediction module. The third part of this Thesis compares the final conclusions derived from the proposed methodology with those stated by the flight test community and experimental results. In summary, the main results provided by this Thesis are: 1. State of the Art review of the test methods applied to envelope expansion in altitude/airspeed and the influence of mechanical non-linearities in its identification. 2. Review of the main civil and military regulations regarding the aeroelastic verification of air vehicles and the limits set when non-linearities are present. 3. Development of a methodology for envelope expansion based on the Flutter Margin concept. 4. A Matlab/Simulink 2D-[aeroelastic model], parametric and interactive, used as a tool to validate the proposed methodology. 5. Conclusions driven from the present Thesis and comparison with experimental results.
Resumo:
In coffee processing the fermentation stage is considered one of the critical operations by its impact on the final quality of the product. However, the level of control of the fermentation process on each farm is often not adequate; the use of sensorics for controlling coffee fermentation is not common. The objective of this work is to characterize the fermentation temperature in a fermentation tank by applying spatial interpolation and a new methodology of data analysis based on phase space diagrams of temperature data, collected by means of multi-distributed, low cost and autonomous wireless sensors. A real coffee fermentation was supervised in the Cauca region (Colombia) with a network of 24 semi-passive TurboTag RFID temperature loggers with vacuum plastic cover, submerged directly in the fermenting mass. Temporal evolution and spatial distribution of temperature is described in terms of the phase diagram areas which characterizes the cyclic behaviour of temperature and highlights the significant heterogeneity of thermal conditions at different locations in the tank where the average temperature of the fermentation was 21.2 °C, although there were temperature ranges of 4.6°C, and average spatial standard deviation of ±1.21ºC. In the upper part of the tank we found high heterogeneity of temperatures, the higher temperatures and therefore the higher fermentation rates. While at the bottom, it has been computed an area in the phase diagram practically half of the area occupied by the sensors of the upper tank, therefore this location showed higher temperature homogeneity
Resumo:
Short-run forecasting of electricity prices has become necessary for power generation unit schedule, since it is the basis of every profit maximization strategy. In this article a new and very easy method to compute accurate forecasts for electricity prices using mixed models is proposed. The main idea is to develop an efficient tool for one-step-ahead forecasting in the future, combining several prediction methods for which forecasting performance has been checked and compared for a span of several years. Also as a novelty, the 24 hourly time series has been modelled separately, instead of the complete time series of the prices. This allows one to take advantage of the homogeneity of these 24 time series. The purpose of this paper is to select the model that leads to smaller prediction errors and to obtain the appropriate length of time to use for forecasting. These results have been obtained by means of a computational experiment. A mixed model which combines the advantages of the two new models discussed is proposed. Some numerical results for the Spanish market are shown, but this new methodology can be applied to other electricity markets as well
Resumo:
Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.
Resumo:
Crowd induced dynamic loading in large structures, such as gymnasiums or stadiums, is usually modelled as a series of harmonic loads which are defined in terms of their Fourier coefficients. Different values of these Fourier coefficients that were obtained from full scale measurements can be found in codes. Recently, an alternative has been proposed, based on random generation of load time histories that take into account phase lags among individuals inside the crowd. Generally the testing is performed on platforms or structures that can be considered rigid because their natural frequencies are higher than the excitation frequencies associated with crowd loading. In this paper we shall present the testing done on a structure designed to be a gymnasium, which has natural frequencies within that range. In this test the gym slab was instrumented with acceleration sensors and different people jumped on a force plate installed on the floor. Test results have been compared with predictions based on the two abovementioned load modelling alternatives and a new methodology for modelling jumping loads has been proposed in order to reduce the difference between experimental and numerical results at high frequency range.
Resumo:
Este trabajo presenta un estudio de campo sobre confort térmico basado en la concepción adaptativa, para la determinación de las temperaturas y rangos de confort térmico de sujetos habituados a espacios enfriados mecánicamente en viviendas con aire acondicionado (AA) en el clima cálido y húmedo de la ciudad de Maracaibo (Venezuela) y las consecuentes implicaciones energéticas que tiene la satisfacción de esa demanda de confortabilidad en el sector residencial de la ciudad. Para la estimación de la temperatura de confort (Tc) y el rango de temperaturas de confort se aplican diferentes metodologías de análisis estadístico, las cuales son comparadas con las respectivas calculadas con el índice PMV; se analizan también otros aspectos asociados a la confortabilidad térmica, tales como las respuestas en las diferentes escalas de valoración de la confortabilidad, las preferencias, experiencias y expectativas térmicas de los sujetos. Las implicaciones energéticas se determinan en base al consumo de la energía eléctrica residencial debido exclusivamente a la variación de la Tc, entre la obtenida inicialmente en espacios naturalmente ventilados (NV) en Maracaibo (Bravo y Gonzalez 2001a) y la determinada ahora en espacios con AA. Para ello, se utiliza una metodología que es el resultado de la modificación parcial de la propuesta por Yamtraipat et al (2006). Entre los resultados y conclusiones derivadas de este estudio se encuentra que el 57 % de las personas prefieren las mismas condiciones confortables experimentadas en los ambientes con AA y solamente un 30 % prefieren experimentar ambientes ligeramente fríos y ligeramente calientes. Mientras tanto, las estimaciones de la Tc, y el respectivo rango, varían de acuerdo a la metodología empleada. Con la convencional metodología adaptativa, la Tc se estima en 25 °C en un amplio rango de 6 °C, entre 22 °C y 28 °C; mientras que con la metodología denominada “método de los promedios de los intervalos de las sensaciones térmicas” (Gómez-Azpeitia et al, 2007), la misma Tc se estima en 24 °C, en un rango estrecho de 22,5 °C a 25,5 °C y en un rango ampliado de 21 °C a 27 °C (amplitud 6 °C), donde se encuentran las tres cuartas partes de las personas del estudio. Ambas Tc son muy próximas a la temperatura operativa optima de 24,5 °C (rango de 23 °C a 26 °C) establecida por las normas internacionales ISO 7730:1994 y ASHRAE 55:1992 para el verano en climas templados. Sin embargo, la Tc estimada con los valores de PMV resulta ser superior en 1 °C y 2 °C a la Tc estimada con la metodología adaptativa (25 °C) y con el metodo de los promedios de los intervalos (24 °C), respectivamente. Con la metodología aplicada y la muestra del estudio se estima que de haberse registrado una Tbsint igual o próxima a 28 C (equivalente a la Tc en espacios NV en Maracaibo) en todos los espacios medidos (con Tbsint entre 19 C y 29 C), el ahorro total de la energía anual seria de 1.648,1 GWh en un ano respecto al consumo de AA en el año 2007 (2.522,3 GWh en un ano), mientras que el ahorro de energía asumiendo Tbsint de 24 C y de 25 C, resultan en 651,9 GWh en un ano y 425,7 GWh en un ano, respectivamente. Esto significa respectivos consumos adiciones de energía eléctrica equivalentes al 60,4 % y 74,2 %. Finalmente, los hábitos o conductas adoptadas por las personas de este estudio, sumado a las predominantes manifestaciones de confortabilidad en ambientes enfriados mecánicamente, redundan en mayores adaptaciones a condiciones de frio y exigencias de temperaturas de confort más bajas, con su consecuente consumo energético para proveerlas. ABSTRACT This investigation presents a study on thermal comfort following the adaptive approach for the determination of the thermal comfort temperatures and ranges of subjects accustomed to mechanically refrigerated spaces in dwellings with air conditioning (AA) systems in the hot and humid weather of the city of Maracaibo (Venezuela) and the ensuing energy use implications it has on the satisfaction of such demand of comfortability in the residential sector of the city. For the estimation of the comfort temperature (Tc) and the range of comfort temperatures different statistical analysis methodologies were used, which are then compared to the respective values calculated with the PMV index, also discusses other aspects related with thermal comfortability were analyzed, such as the responses on the different scales of perception of thermal comfortability, preferences, experiences and expectations of the analyzed subjects. The energetic implications are determined through the residential energy consumption related exclusively with the variation of the Tc between the originally calculated for naturally ventilated (NV) spaces in Maracaibo (Bravo y Gonzalez 2001a) and the one calculated on the present study with AA. For this, a new methodology was developed by partially modifying the Yamtraipat et al (2006) proposal. Among the results and conclusions of this study are that 57 % of the studied subjects prefer the same comfortable conditions experienced on AA environments and only a 30 % prefer to experience slightly cooler or warmer environments. Also, estimations of the Tc and its respective range vary according to the used methodology. With the conventional adaptive methodology, the Tc is estimated in 25 °C with a wide range of 6 °C, between 22 °C and 28 °C, while using the “thermal sensation intervals averages method” (Gomez-Azpeitia et al, 2007) the Tc is estimated in 24 °C on a narrow range between 22.5 °C and 25.5 °C and a widened range of 21 °C to 27 °C (6 °C in amplitude), a range where . of the studied subjects are located. Both Tc are very close to the optimum operation temperature of 24.5 °C (with a range between 23 °C and 26 °C) established on the ISO 7730:1994 and ASHRAE 55:1992 international norms for the summer on warm climates. However, the estimated Tc with the PMV indexes results to be 1 °C and 2 °C above the Tc estimated with the adaptive methodology (25 °C) and the thermal sensation intervals averages method (24 °C), respectively. With the applied methodology and this study sample, its estimated that if a Tbsint equal or close to 28 °C (equivalent to the Tc in NV spaces in Maracaibo) was registered in all measured spaces (with Tbsint between 19 °C and 29 °C) the total yearly energy savings would be of 1.648,1 GWh in a year with respect to the AA consumption in the year 2007 (2.522.3 GWh in a year), while the energy savings assuming a Tbinst of 24 °C and 25 °C result in 651.9 GWh and 425.7 Gwh in a year, respectively. This means that the respective additional electrical energy consumption amount to 60.4 % and 74.2 %, respectively. Finally, the habits or behaviors adopted by the subjects analyzed on this study, added to the predominant manifestations of comfortability in mechanically refrigerated environments result in greater adaptations to colder conditions and lower thermal comfort temperature demands, with the consequential increase in power consumption to meet them.
Resumo:
This summary presents a methodology for supporting the development of AOSAs following the MDD paradigm. This new methodology is called PRISMA and allows the code generation from models which specify functional and non-functional requirements.
Resumo:
A new language recognition technique based on the application of the philosophy of the Shifted Delta Coefficients (SDC) to phone log-likelihood ratio features (PLLR) is described. The new methodology allows the incorporation of long-span phonetic information at a frame-by-frame level while dealing with the temporal length of each phone unit. The proposed features are used to train an i-vector based system and tested on the Albayzin LRE 2012 dataset. The results show a relative improvement of 33.3% in Cavg in comparison with different state-of-the-art acoustic i-vector based systems. On the other hand, the integration of parallel phone ASR systems where each one is used to generate multiple PLLR coefficients which are stacked together and then projected into a reduced dimension are also presented. Finally, the paper shows how the incorporation of state information from the phone ASR contributes to provide additional improvements and how the fusion with the other acoustic and phonotactic systems provides an important improvement of 25.8% over the system presented during the competition.
Resumo:
El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.
Resumo:
Durante las últimas décadas el objetivo principal de la silvicultura y la gestión forestal en Europa ha pasado de ser la producción de madera a ser la gestión sostenible de los ecosistemas, por lo que se deben considerar todos los bienes y servicios que proporcionan los bosques. En consecuencia, es necesario contar con información forestal periódica de diversos indicadores forestales a nivel europeo para apoyar el desarrollo y la implementación de políticas medioambientales y que se realice una gestión adecuada. Para ello, se requiere un seguimiento intensivo sobre el estado de los bosques, por lo que los Inventarios Forestales Nacionales (IFN), (principal fuente de información forestal a gran escala), han aumentado el número de variables muestreadas para cumplir con los crecientes requerimientos de información. Sin embargo, las estimaciones proporcionadas por los diferentes países no son fácilmente comparables debido a las diferencias en las definiciones, los diseños de muestreo, las variables medidas y los protocolos de medición. Por esto, la armonización de los datos que proporcionan los diferentes países es fundamental para la contar con una información forestal sólida y fiable en la Unión europea (UE). La presente tesis tiene dos objetivos principales: (i) establecer el diseño de una metodología para evaluar la biodiversidad forestal en el marco del Inventario forestal nacional de España teniendo en cuenta las diferentes iniciativas nacionales e internacionales, con el objetivo de producir estimaciones comparables con las de otros países de la UE y (ii) armonizar los indicadores más relevantes para satisfacer los requerimientos nacionales e internacionales. Como consecuencia del estudio realizado para alcanzar el primer objetivo, la metodología diseñada para estimar la biodiversidad fue adoptada por el Tercer Inventario forestal nacional. Ésta se componía de indicadores agrupados en: cobertura del suelo, composición de árboles y especies de arbustos, riqueza de especies herbáceas y helechos, especies amenazadas, estructura, madera muerta, y líquenes epífitos. Tras el análisis del diseño metodológico y de los datos proporcionados, se observó la conveniencia de modificarla con el fin de optimizar los costes, viabilidad, calidad y cantidad de los datos registrados. En consecuencia, en el Cuarto Inventario Forestal Nacional se aplica una metodología modificada, puesto que se eliminó el muestreo de especies herbáceas y helechos, de líquenes epífitos y de especies amenazadas, se modificaron los protocolos de la toma de datos de estructura y madera muerta y se añadió el muestreo de especies invasoras, edad, ramoneo y grado de naturalidad de la masa. En lo que se refiere al segundo objetivo, se ha avanzado en la armonización de tres grupos de variables considerados como relevantes en el marco de los IFN: los indicadores de vegetación no arbórea (que juegan un papel relevante en los ecosistemas, es donde existe la mayor diversidad de plantas y hasta ahora no se conocían los datos muestreados en los IFN), la determinación de los árboles añosos (que tienen un importante papel como nicho ecológico y su identificación es especialmente relevante para la evaluación de la biodiversidad forestal) y el bosque disponible para el suministro de madera (indicador básico de los requerimientos internacionales de información forestal). Se llevó a cabo un estudio completo de la posible armonización de los indicadores de la vegetación no arbórea en los IFN. Para ello, se identificaron y analizaron las diferentes definiciones y diseños de muestreo empleados por los IFN, se establecieron definiciones de referencia y se propusieron y analizaron dos indicadores que pudiesen ser armonizados: MSC (mean species cover) que corresponde a la media de la fracción de cabida cubierta de cada especie por tipo de bosque y MTC (mean total cover). Se estableció una nueva metodología que permite identificar los árboles añosos con los datos proporcionados por los inventarios forestales nacionales con el objetivo de proporcionar una herramienta eficaz para facilitar la gestión forestal considerando la diversidad de los sistemas forestales. Se analizó el concepto de "bosque disponible para el suministro de madera" (FAWS) estudiando la consistencia de la información internacional disponible con el fin de armonizar su estimación y de proporcionar recomendaciones para satisfacer los requerimientos europeos. Como resultado, se elaboró una nueva definición de referencia de FAWS (que será adoptada por el proceso paneuropeo) y se analiza el impacto de la adopción de esta nueva definición en siete países europeos. El trabajo realizado en esta tesis, puede facilitar el suministrar y/o armonizar parcial o totalmente casi la mitad de los indicadores de información forestal solicitados por los requerimientos internacionales (47%). De éstos, prácticamente un 85% tienen relación con los datos inventariados empleando la metodología propuesta para la estimación de la biodiversidad forestal, y el resto, con el establecimiento de la definición de bosque disponible para el suministro de madera. No obstante, y pese a que esta tesis supone un avance importante, queda patente que las necesidades de información forestal son cambiantes y es imprescindible continuar el proceso de armonización de los IFN europeos. ABSTRACT Over the last few decades, the objectives on forestry and forest management in Europe have shifted from being primarily focused on wood production to sustainable ecosystem management, which should consider all the goods and services provided by the forest. Therefore, there is a continued need for forest indicators and assessments at EU level to support the development and implementation of a number of European environmental policies and to conduct a proper forest management. To address these questions, intensive monitoring on the status of forests is required. Therefore, the scope of National Forest Inventories (NFIs), (primary source of data for national and large-area assessments), has been broadened to include new variables to meet these increasing information requirements. However, estimates produced by different countries are not easily comparable because of differences in NFI definitions, plot configurations, measured variables, and measurement protocols. As consequence, harmonizing data produced at national level is essential for the production of sound EU forest information. The present thesis has two main aims: (i) to establish a methodology design to assess forest biodiversity in the frame of the Spanish National Forest Inventory taking into account the different national and international initiatives with the intention to produce comparable estimates with other EU countries and (ii) to harmonize relevant indicators for national and international requirements. In consequence of the work done related to the first objective, the established methodology to estimate forest biodiversity was adopted and launched under the Third National Forest Inventory. It was composed of indicators grouped into: cover, woody species composition, richness of herbaceous species and ferns, endangered species, stand structure, dead wood, and epiphytic lichens. This methodology was analyzed considering the provided data, time costs, feasibility, and requirements. Consequently, in the ongoing Fourth National Forest Inventory a modified methodology is applied: sampling of herbaceous species and ferns, epiphytic lichens and endangered species were removed, protocols regarding structure and deadwood were modified, and sampling of invasive species, age, browsing impact and naturalness were added. As regards the second objective, progress has been made in harmonizing three groups of variables considered relevant in the context of IFN: Indicators of non-tree vegetation (which play an important role in forest ecosystems, it is where the highest diversity of plants occur and so far the related sampled data in NFIs were not known), the identification of old-growth trees (which have an important role as ecological niche and its identification is especially relevant for the assessment of forest biodiversity) and the available forest for wood supply (basic indicator of international forestry information requirements). A complete analysis of ground vegetation harmonization possibilities within NFIs frame was carried on by identifying and analyzing the different definitions and sampling techniques used by NFIs, providing reference definitions related to ground vegetation and proposing and analyzing two ground vegetation harmonized indicators: “Mean species cover” (MSC) and “Mean total cover” (MTC) for shrubs by European forest categories. A new methodology based on NFI data was established with the aim to provide an efficient tool for policy makers to estimate the number of old-growth trees and thus to be able to perform the analysis of the effect of forest management on the diversity associated to forest systems. The concept of “forest available for wood supply” (FAWS) was discussed and clarified, analyzing the consistency of the available international information on FAWS in order to provide recommendations for data harmonization at European level regarding National Forest Inventories (NFIs). As a result, a new reference definition of FAWS was provided (which will be adopted in the pan-European process) and the consequences of the use of this new definition in seven European countries are analyzed. The studies carried on in this thesis, can facilitate the supply and/or harmonization partially or fully of almost half of the forest indicators (47%) needed for international requirements. Of these, nearly 85% are related to inventoried data using the proposed methodology for the estimation of forest biodiversity, and the rest, with the establishment of the definition of forest available for wood supply. However, despite this thesis imply an important development, forest information needs are changing and it is imperative to continue the process of harmonization of European NFIs.
Resumo:
En esta tesis se desarrolla una metodología alternativa para la determinación de la dureza Brinell a partir de imágenes obtenidas mediante microscopía confocal, que se ha mostrado robusta para mejorar los resultados de medición del diámetro en condiciones de reproducibilidad. Las validaciones realizadas evidencian su posibilidad real de implementación, especialmente para la certificación de patrones de dureza. Los estudios experimentales realizados ponen de manifiesto que la medición del diámetro de una huella de dureza Brinell, siguiendo la metodología tradicional, depende de la posición del patrón, de las características del equipo empleado y del propio operador. Dicha medida resulta crítica y las dificultades para identificar el borde de la huella incorporan a menudo una fuente adicional de incertidumbre difícil de soslayar. En esta investigación se han desarrollado dos modelos matemáticos que permiten identificar de forma unívoca el diámetro de la huella en el punto donde se produce el límite de contacto entre el indentador y el material de la probeta durante la realización del ensayo. Ambos modelos han sido implementados en Matlab® y se ha verificado su validez mediante datos sintéticos. Asimismo, se ha realizado una validación experimental sobre patrones de dureza certificados, empleando un microscopio confocal marca Leica, modelo DCM 3D disponible en el Laboratorio de Investigación de Materiales de Interés Tecnológico (LIMIT) de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI – UPM). Dicha validación ha puesto de manifiesto la utilidad de esta nueva metodología por cuanto permite caracterizar las huellas, estimar las incertidumbres de medida y garantizar la trazabilidad metrológica de los resultados. ABSTRACT This PhD thesis presents an alternative methodology to determine the Brinell hardness from the images obtained by confocal microscopy that has proved to be robust to improve the results of indentation diameter measurements in reproducibility conditions. The validations carried out show the real possibility of its implementation, especially for calibration of hardness reference blocks. Experimental studies performed worldwide show that the measurement of the indentation diameter in a Brinell hardness test depends, when the traditional methodology is applied, on the position of the test block, the equipment characteristics and the operator. This measurement is critical and the difficulties to identify the edge of the indentation often bring an additional source of uncertainty with them that is hard to avoid. In this research two specific mathematical models have been developed to identify unambiguously the indentation diameter at the point where the edge of the boundary between the indenter and the test block is found during the test. Both models have been implemented on Matlab® and their validity has been verified by synthetic data An additional experimental validation with calibrated hardness reference blocks has been carried out using a Leica-brand confocal microscope, model DCM 3D, available in the Laboratory for Research on Materials of Technological Interest (LIMIT in its Spanish acronym) of the Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI-UPM). This validation has shown the utility of this new methodology since it allows to characterize the indentation, to estimate the measurement uncertainties and to ensure the metrological traceability of the results.
Resumo:
El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.
Resumo:
El Daño Cerebral (DC) se refiere a cualquier lesión producida en el cerebro y que afecta a su funcionalidad. Se ha convertido en una de las principales causas de discapacidad neurológica de las sociedades desarrolladas. Hasta la más sencilla de las actividades y acciones que realizamos en nuestro día a día involucran a los procesos cognitivos. Por ello, la alteración de las funciones cognitivas como consecuencia del DC, limita no sólo la calidad de vida del paciente sino también la de las persona de su entorno. La rehabilitación cognitiva trata de aumentar la autonomía y calidad de vida del paciente minimizando o compensando los desórdenes funciones causados por el episodio de DC. La plasticidad cerebral es una propiedad intrínseca al sistema nervioso humano por la que en función a la experiencia se crean nuevos patrones de conectividad. El propósito de la neurorrehabilitación es precisamente modular esta propiedad intrínseca a partir de ejercicios específicos, los cuales podrían derivar en la recuperación parcial o total de las funciones afectadas. La incorporación de la tecnología a las terapias de rehabilitación ha permitido desarrollar nuevas metodologías de trabajo. Esto ha ayudado a hacer frente a las dificultades de la rehabilitación que los procesos tradicionales no logran abarcar. A pesar del gran avance realizado en los Ãoltimos años, todavía existen debilidades en el proceso de rehabilitación; por ejemplo, la trasferencia a la vida real de las habilidades logradas durante la terapia de rehabilitación, así como su generalización a otras actividades cotidianas. Los entornos virtuales pueden reproducir situaciones cotidianas. Permiten simular, de forma controlada, los requisitos conductuales que encontramos en la vida real. En un contexto terapéutico, puede ser utilizado por el neuropsicólogo para corregir en el paciente comportamientos patológicos no deseados, realizar intervenciones terapéuticas sobre Actividades de Vida Diaria que estimulen conductas adaptativas. A pesar de que las tecnologías actuales tienen potencial suficiente para aportar nuevos beneficios al proceso de rehabilitación, existe cierta reticencia a su incorporación a la clínica diaria. A día de hoy, no se ha podido demostrar que su uso aporte una mejorar significativa con respecto a otro tipo de intervención; en otras palabras, no existe evidencia científica de la eficacia del uso de entornos virtuales interactivos en rehabilitación. En este contexto, la presente Tesis Doctoral trata de abordar los aspectos que mantienen a los entornos virtuales interactivos al margen de la rutina clínica diaria. Se estudian las diferentes etapas del proceso de rehabilitación cognitiva relacionado con la integración y uso de estos entornos: diseño de las actividades, su implementación en el entorno virtual, y finalmente la ejecución por el paciente y análisis de los respectivos datos. Por tanto, los bloques en los que queda dividido el trabajo de investigación expuesto en esta memoria son: 1. Diseño de las AVD. La definición y configuración de los elementos que componen la AVD permite al terapeuta diseñar estrategias de intervención terapéutica para actuar sobre el comportamiento del paciente durante la ejecución de la actividad. En esta parte de la tesis se pretende formalizar el diseño de las AVD de tal forma que el terapeuta pueda explotar el potencial tecnológico de los entornos virtuales interactivos abstrayéndose de la complejidad implícita a la tecnología. Para hacer viable este planteamiento se propone una metodología que permita modelar la definición de las AVD, representar el conocimiento implícito en ellas, y asistir al neuropsicólogo durante el proceso de diseño de la intervención clínica. 2. Entorno virtual interactivo. El gran avance tecnológico producido durante los Ãoltimos años permite reproducir AVD interactivas en un contexto de uso clínico. El objetivo perseguido en esta parte de la Tesis es el de extraer las características potenciales de esta solución tecnológica y aplicarla a las necesidades y requisitos de la rehabilitación cognitiva. Se propone el uso de la tecnología de Vídeo Interactivo para el desarrollo de estos entornos virtuales. Para la evaluación de la misma se realiza un estudio experimental dividido en dos fases con la participación de sujetos sanos y pacientes, donde se valora su idoneidad para ser utilizado en terapias de rehabilitación cognitiva. 3. Monitorización de las AVD. El uso de estos entornos virtuales interactivos expone al paciente ante una gran cantidad de estímulos e interacciones. Este hecho requiere de instrumentos de monitorización avanzado que aporten al terapeuta información objetiva sobre el comportamiento del paciente, lo que le podría permitir por ejemplo evaluar la eficacia del tratamiento. En este apartado se propone el uso de métricas basadas en la atención visual y la interacción con el entorno para conocer datos sobre el comportamiento del paciente durante la AVD. Se desarrolla un sistema de monitorización integrado con el entorno virtual que ofrece los instrumentos necesarios para la evaluación de estas métricas para su uso clínico. La metodología propuesta ha permitido diseñar una AVD basada en la definición de intervenciones terapéuticas. Posteriormente esta AVD has sido implementada mediante la tecnología de vídeo interactivo, creando así el prototipo de un entorno virtual para ser utilizado por pacientes con déficit cognitivo. Los resultados del estudio experimental mediante el cual ha sido evaluado demuestran la robustez y usabilidad del sistema, así como su capacidad para intervenir sobre el comportamiento del paciente. El sistema monitorización que ha sido integrado con el entorno virtual aporta datos objetivos sobre el comportamiento del paciente durante la ejecución de la actividad. Los resultados obtenidos permiten contrastar las hipótesis de investigación planteadas en la Tesis Doctoral, aportando soluciones que pueden ayudar a la integración de los entornos virtuales interactivos en la rutina clínica. Esto abre una nueva vía de investigación y desarrollo que podría suponer un gran progreso y mejora en los procesos de neurorrehabilitación cognitiva en daño cerebral. ABSTRACT Brain injury (BI) refers to medical conditions that occur in the brain, altering its function. It becomes one of the main neurological disabilities in the developed society. Cognitive processes determine individual performance in Activities of Daily Living (ADL), thus, the cognitive disorders after BI result in a loss of autonomy and independence, affecting the patient’s quality of life. Cognitive rehabilitation seeks to increase patients’ autonomy and quality of life minimizing or compensating functional disorders showed by BI patients. Brain plasticity is an intrinsic property of the human nervous system whereby its structure is changed depending on experience. Neurorehabilitation pursuits a precise modulation of this intrinsic property, based on specific exercises to induce functional changes, which could result in partial or total recovery of the affected functions. The new methodologies that can be approached by applying technologies to the rehabilitation process, permit to deal with the difficulties which are out of the scope of the traditional rehabilitation. Despite this huge breakthrough, there are still weaknesses in the rehabilitation process, such as the transferring to the real life those skills reached along the therapy, and its generalization to others daily activities. Virtual environments reproduce daily situations. Behavioural requirements which are similar to those we perceive in real life, are simulated in a controlled way. In these virtual environments the therapist is allowed to interact with patients without even being present, inhibiting unsuitable behaviour patterns, stimulating correct answers throughout the simulation and enhancing stimuli with supplementary information when necessary. Despite the benefits which could be brought to the cognitive rehabilitation by applying the potential of the current technologies, there are barriers for widespread use of interactive virtual environments in clinical routine. At present, the evidence that these technologies bring a significant improvement to the cognitive therapies is limited. In other words, there is no evidence about the efficacy of using virtual environments in rehabilitation. In this context, this work aims to address those issues which keep the virtual environments out of the clinical routine. The stages of the cognitive rehabilitation process, which are related with the use and integration of these environments, are analysed: activities design, its implementation in the virtual environment, and the patient’s performance and the data analysis. Hence, the thesis is comprised of the main chapters that are listed below: 1. ADL Design.Definition and configuration of the elements which comprise the ADL allow the therapist to design intervention strategies to influence over the patient behaviour along the activity performance. This chapter aims to formalise the AVD design in order to help neuropsychologists to make use of the interactive virtual environments’ potential but isolating them from the complexity of the technology. With this purpose a new methodology is proposed as an instrument to model the ADL definition, to manage its implied knowledge and to assist the clinician along the design process of the therapeutic intervention. 2. Interactive virtual environment. Continuous advancements make the technology feasible for re-creating rehabilitation therapies based on ADL. The goal of this stage is to analyse the main features of virtual environments in order to apply them according to the cognitive rehabilitation’s requirements. The interactive video is proposed as the technology to develop virtual environments. Experimental study is carried out to assess the suitability of the interactive video to be used by cognitive rehabilitation. 3. ADL monitoring system. This kind of virtual environments bring patients in front lots of stimuli and interactions. Thus, advanced monitoring instruments are needed to provide therapist with objective information about patient’s behaviour. This thesis chapter propose the use of metrics rely on visual patients’ visual attention and their interactions with the environment. A monitoring system has been developed and integrated with the interactive video-based virtual environment, providing neuropsychologist with the instruments to evaluate the clinical force of this metrics. Therapeutic interventions-based ADL has been designed by using the proposed methodology. Interactive video technology has been used to develop the ADL, resulting in a virtual environment prototype to be use by patients who suffer a cognitive deficits. An experimental study has been performed to evaluate the virtual environment, whose overcomes show the usability and solidity of the system, and also its capacity to have influence over patient’s behaviour. The monitoring system, which has been embedded in the virtual environment, provides objective information about patients’ behaviour along their activity performance. Research hypothesis of the Thesis are proven by the obtained results. They could help to incorporate the interactive virtual environments in the clinical routine. This may be a significant step forward to enhance the cognitive neurorehabilitation processes in brain injury.
Resumo:
La arquitectura judicial puede considerarse como la manifestación construida de uno de los aspectos fundamentales que definen una cultura, periodo histórico, o ámbito geográfico, que es la administración de justicia en cada sociedad. La Ley y el Derecho requieren unos ámbitos espaciales singulares en los que desarrollar los procesos que culminan con el acto judicial, el contraste de versiones e investigaciones que tienen como objetivo la búsqueda de la verdad por encima de todo. La arquitectura se configura como el escenario en el que tiene lugar el juicio, y ha de contribuir en este noble cometido. El conocimiento de la arquitectura judicial requiere -en primera instancia- un análisis arquitectónico, pero además esta visión se puede y se tiene que enriquecer con los enfoques que la propia práctica jurídica ha de aportar, y que en gran medida condicionan su creación y proyecto, en todo lo relativo a funcionalidad y simbología. Sin olvidar que nuestra formación es fundamentalmente arquitectónica, cabe plantear que el área de conocimiento a la que va dirigida esta investigación también se abre en diversas vías, que parten de la confluencia de aspectos legales, arquitectónicos, urbanos, y simbológicos. Además, todos estos aspectos son planteados en relación con las particularidades de una región concreta, Aragón, donde la ley ha tenido sus propias manifestaciones y códigos, donde la arquitectura y la ciudad se han contextualizado en un lugar concreto, y donde la simbología ha tenido su manera particular de transmitirse. Respecto a los objetivos que esta tesis plantea, podemos plantear en un primer estadio el análisis del carácter de la arquitectura judicial, como concepto y expresión amplia que manifiesta la función del edificio y su traducción en una simbología propia, y que queda vinculado, por lo tanto, a la funcionalidad de los procedimientos que en él tienen lugar y a la solemnidad alegórica de la Justicia. Para llevar a cabo este estudio se pretende establecer una metodología de estudio propia, que surge de considerar como valores formativos del tipo de arquitectura judicial a la tríada de valores urbanos, funcionales, y simbólicos. En primer lugar se evaluará la repercusión urbana de la arquitectura judicial, conforme a su consideración de equipamiento publico representativo de una sociedad. Se analizará, por lo tanto, si se dan posiciones urbanas concretas o arbitrarias, y si éstas se pueden tratar como una constante histórica. En segundo lugar, la especificidad y delicadeza de los usos que alberga llevan consigo planteamientos funcionales absolutamente complejos y específicos. Se considera que merece la pena analizarlos para evaluar si son propios de este tipo de arquitectura, así como su posible origen e implicación en la construcción del espacio judicial. En tercer lugar, se analizarán los edificios judiciales desde su consideración de soporte de una gran cantidad de materializaciones de simbológicas, no sólo desde un punto de vista iconográfico, sino además vinculadas a los procesos y ordenamientos judiciales, que se traducen en la construcción de espacios con una fuerte carga simbólica y escenográfica. En un segundo estadio se analiza la validez de la aplicación de dichos valores en el estudio de una serie de casos concretos de la arquitectura judicial en el territorio de Aragón en el siglo XX. Se buscará con ello la posibilidad de establecer variantes geográficas y temporales al tipo propias de esta comunidad, con unas particularidades forales que pueden dar lugar a ellas, así como posibles líneas evolutivas, o por el contrario, la imposibilidad de establecer pautas y relaciones a partir del análisis de los casos concretos y su valoración global. ABSTRACT Judicial architecture can be seen as the built manifestation of one of the key aspects that define a culture, a historical period, or a geographic scope, which is the administration of justice in every society. Law requires specific spaces to develop its own proceedings, that culminate with the judicial act. It is the contrast of versions and investigations that have an objective, the search for the truth. Architecture is configured as the stage in which the trial takes place, and has to contribute to this noble task. The knowledge of the judicial architecture requires -in the first instance - an architectural analysis, but in addition this vision can be enriched by some questions from the legal practice. They determine project decissions, specially functional and symbologycal aspects. Our main visión of the theme is architectural, but this research is also opened in many ways, that com from the confluence of legal, architectural, urban, and simbologic aspects In addition, all these questios are considered in relation to the peculiarities of a specific region, Aragon, where the law has its own manifestations and codes, where the architecture and the city have been contextualized in a particular way, and where the symbology has its particular way to be transmitted. About the objectives that this thesis purposes, we can suggest in a first stage the analysis of the character of the judicial architecture, as a concept that expresses the function of a building, and its translation into a particular symbology, allegorical to the solemnity of the Justice. To carry out the investigation proccess is neccesary to define a new methodology. It comes form considering the formative values of the judicial architecture, developed on the triad of urban, functional, and symbolic, values. Firstly, we analyse the urban aspects of judicial architecture, according to its consideration as a main public equipment of a society. Therefore we can search for specific or arbitrary urban locations of the courts, and if they can be considered as historic constants. Secondly, we analyse the specificity an complexity of the judicial uses, their possible origin, and involvement in the construction of judicial space. Thirdly, we analyse the court as scenographic stage, that support lots of symbolic elements and aspects linked to legal system. The second stage applies the values methodology on judicial architecture in Aragon in the twentieth century, with the possibility of establishing geographical and temporal variants os the court type in this community, or on the contrary, the inability to establish patterns and relationships from the analysis of specific cases and their overall rating.
Resumo:
La valoración de inmuebles urbanos y más cuando se afronta desde un punto de vista masivo, no es una actividad sencilla. Tanto la legislación vigente en España como los estándares de valoración internacionales establecen que los valores deben de estar referenciados al valor de mercado, pero el mercado inmobiliario se caracteriza por su limitada transparencia y porque el producto es relativamente ilíquido. En este contexto, parece necesario acometer el estudio de nuevas herramientas que faciliten el establecer con mayor seguridad el valor de los inmuebles. El análisis de los factores que determinan el precio de los inmuebles permite identificar aquellas características que más inciden en el mismo, como son su tamaño, uso, tipología, calidad, antigüedad y localización. A partir de ellas y a través del estudio de la estructura urbana, localizando las zonas homogéneas y analizando las variables de su producto inmobiliario, se ha desarrollado una nueva metodología basada en el tipo edificatorio como estrategia para la valoración territorial. A lo largo de este trabajo, cuyo ámbito de análisis se ha centrado en los municipios de la Comunidad de Madrid, mediante el análisis comparado de sus características, se va a exponer cómo el tipo de estructura urbana influye significativamente en la calidad de los resultados que se obtienen. También se va a incidir en la sensibilidad de los mismos a los diferentes métodos de tratamiento de datos y de análisis matemático y estadístico. Con todo, se puede afirmar que la utilización de la metodología que se propone facilita, mejora y apoya la valoración de inmuebles, siendo posible su aplicación directa tanto para la valoración masiva de inmuebles como en la individualizada. ABSTRACT The valuation of urban property and more so when one is confronted with it from a massive point of view, is not an easy task. Taking into consideration Spain‟s current regulations as well as the international valuation standards, they establish that the values must be referred to the market value, but the real-estate market is characterised by its limited transparency and because the product is relatively illiquid. Under these circumstances, it seems necessary to undertake the study of new tools that facilitate the obtention of more accurate and secure valuation of real estate assets. The analysis of the factors that determine the price of property allow us to identify those characteristics that influence it most, such as size, use, typology, quality, age and location. Taking these points into consideration and through the study of urban structure, localising the homogeneous areas and analysing the variables of its real-estate product, a new methodology has been developed based on the type of building as well as on the local valuation strategy. Throughout this work, whose scope of analysis has been focussed on the municipalities of the Autonomous Region of Madrid through a comparative analysis of its characteristics, it will be shown how the type of urban structure can significantly influence the quality of the results that are obtained. It will also affect their sensitivity to the different methods of data processing, and of mathematical and statistical analysis. In all, one can confirm that using the methodology that is being proposed facilitates, improves and supports the valuation of properties, enabling its direct application for the mass valuation of property as well as for the individual one.