23 resultados para Classification of Banach spaces


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multi-junction solar cells are widely used in high-concentration photovoltaic systems (HCPV) attaining the highest efficiencies in photovoltaic energy generation. This technology is more dependent on the spectral variations of the impinging Direct Normal Irradiance (DNI) than conventional photovoltaics based on silicon solar cells and consequently demands a deeper knowledge of the solar resource characteristics. This article explores the capabilities of spectral indexes, namely, spectral matching ratios (SMR), to spectrally characterize the annual irradiation reaching a particular location on the Earth and to provide the necessary information for the spectral optimization of a MJ solar cell in that location as a starting point for CPV module spectral tuning. Additionally, the relationship between such indexes and the atmosphere parameters, such as the aerosol optical depth (AOD), precipitable water (PW), and air mass (AM), is discussed using radiative transfer models such as SMARTS to generate the spectrally-resolved DNI. The network of ground-based sun and sky-scanning radiometers AERONET (AErosol RObotic NETwork) is exploited to obtain the atmosphere parameters for a selected bunch of 34 sites worldwide. Finally, the SMR indexes are obtained for every location, and a comparative analysis is carried out for four architectures of triple junction solar cells, covering both lattice match and metamorphic technologies. The differences found among cell technologies are much less significant than among locations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral, bajo el título “La transformación de la fachada en la arquitectura del siglo XX. Evolución de los elementos arquitectónicos hacia el espacio único”, examina –siguiendo el método deductivo mediante investigación documental y de campo– los principales mecanismos proyectuales que han originado una transformación arquitectónica en la fachada. El término fachada, leído normalmente como sinónimo de arquitectura, ha sido analizado bajo taxonomías historiográficas, sociopolíticas, formales, compositivas o materiales. Más allá de estas clasificaciones, esta investigación determina cómo han evolucionado los elementos arquitectónicos hacia el espacio único, transformando con ello tanto la realidad física como el concepto de fachada. Proyectar, como diría Robert Venturi1. 1966, tanto desde el exterior al interior como desde el interior al exterior, produce las tensiones necesarias que ayudan a generar la arquitectura. De ahí la importancia del estudio de la transformación de la fachada como faccia, máscara, disfraz o sistema de representación, a la fachada como un diafragma activo, como un espacio de relación o como un límite donde se produce una experiencia arquitectónica con nuevos significados. El término fachada, del latín facies y del italiano facciata, fue creado como tal durante el siglo XVI, aunque como elemento arquitectónico es una realidad clásica y un concepto humanista reinventado en el Renacimiento. A principios del siglo XX la fachada se transforma radicalmente, con la aparición del vidrio plano de grandes dimensiones, y se despoja de su carga historicista. La transparencia literal hace desaparecer (negar) la fachada. La fachada se construye con nuevos materiales, nuevas tecnologías, y responde a un espacio global que espera a ser colonizado por una sociedad en constante mutación; un espacio que irá siendo cada vez más complejo a lo largo del siglo pasado y que tendrá como una de sus principales consecuencias un mayor grado de abstracción en la fachada. Para desarrollar con mayor precisión las intenciones de este trabajo se analiza la acepción de fachada en la que se encuadra la línea de investigación de la tesis doctoral. Siguiendo las indicaciones del Profesor Kenneth Frampton, se ha optado por dedicar precisamente a este análisis el primer capítulo, de precedentes, con el fin de hacer una relectura de la fachada barroca en clave contemporánea. La fachada barroca se estudia como un punto de inflexión, y origen de la transformación, frente al clasicismo de siglos precedentes. Se plantea por tanto como el primero de los mecanismos proyectuales motivo de estudio. Estos mecanismos han sido sometidos a una clasificación que responde a diversos tipos de espacio arquitectónico que han provocado la transformación de la fachada, analizando cada uno de ellos con un filtro bajo el cual se ha desarrollado un estudio pormenorizado. De esta manera se examinan la transformación compositiva de la fachada por medio del espacio dinámico (capítulo 00_precedentes) en San Carlo alle Quattro Fontane de Francesco Borromini, la transformación constructiva de la fachada por medio del espacio membrana (capítulo 01) en la Villa Tugendhat de Mies van der Rohe, la transformación diagramática de la fachada por medio del espacio pliegue (capítulo 02) en la terminal portuaria de Yokohama de FOA, la transformación tecnológica de la fachada por medio del espacio estructura (capítulo 03) en la mediateca de Sendai de Toyo Ito y, finalmente, la transformación fenomenológica de la fachada por medio del espacio múltiple (capítulo 04) en el pabellón de vidrio del Museo Toledo de SANAA. La investigación se completa con el análisis de una serie de textos que acompañan a cada uno de los capítulos, generando así un cuerpo de conocimiento global junto al análisis documental y las visitas de campo de cada uno de los casos de estudio considerados. ABSTRACT This doctoral thesis entitled “The Transformation of the Façade in Twentieth Century Architecture. The Evolution of Architectural Elements Towards a Single Space“ employs a deductive methodology incorporating both archival and field research, to examine the main design strategies that have given rise to the architectural transformation of the façade. The term façade, usually read as a synonym for architecture, has been analyzed under historiographic, sociopolitical, formal, compositive and material taxonomies. Far beyond these classifications, this study determines how architectural elements have evolved towards a single space, consequently transforming both the physical reality and the concept of façade. As Robert Venturi would say,1 to design from the inside-out and from the outside-in can create valid tensions that help generate architecture, hence the importance of this study of the transformation of the façade as a faccia, a mask, disguise or representation system, to the façade as an active diaphragm, a connective space or a limit within which architectural events with new meaning take place. The term fachada (Spanish for façade), from the Latin facies and the Italian facciata, appeared as such during the sixteenth century, although as an architectural element it is a classical ingredient and a humanist concept reinvented during the Renaissance. At the beginning of the 20th century, the façade is radically transformed with the introduction of large format plate glass, stripping it of its historicist content. Literal transparency causes the façade to disappear. The façade is built with new materials, new technologies, responding to a global space to be occupied by an everchanging society. It is a space that becomes increasingly more complex throughout the last century and which will have, as a consequence, a larger degree of abstraction in the façade. In order to more precisely focus this investigation, the meaning of the façade has been scrutinized. Following Professor Kenneth Frampton’s advice, the first chapter -Precedents- is precisely dedicated to this analysis, in order to understand the baroque façade read in a contemporary manner. The baroque façade has been studied as a turning point, the origin of the transformation of the façade, as compared to the classicism of previous centuries. For this reason it is considered the first design strategy to be studied. These strategeies have been sorted into a classification of architectural spaces that have caused the transformation of the façade, all of which having been analyzed using a methodology allowing for detailed study. Thus, this investigation examines the compositional transformation of the façade by means of a dynamic space (chapter 00: Precedents) in San Carlo alle Quattro Fontane by Francesco Borromini, the constructive transformation of the façade by means of a membrane space (chapter 01) in the Tugendhat Villa by Mies van der Rohe, the diagrammatic transformation of the façade by means of a folded space (chapter 02) in the Yokohama International Port Terminal by FOA, the technological transformation of the façade by means of a structure space (chapter 03) in the Sendai Mediathèque by Toyo Ito, and finally, the technological transformation of the façade by means of multiple space (chapter 04) in the Glass Pavilion of the Toledo Museum of Art by SANAA. The research is supplemented by the analysis of a series of texts presented alongside each chapter; creating a global body of knowledge together alongside the documentary analysis and on site analysis of each of the case studies considered.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the last years significant efforts have been devoted to the development of advanced data analysis tools to both predict the occurrence of disruptions and to investigate the operational spaces of devices, with the long term goal of advancing the understanding of the physics of these events and to prepare for ITER. On JET the latest generation of the disruption predictor called APODIS has been deployed in the real time network during the last campaigns with the new metallic wall. Even if it was trained only with discharges with the carbon wall, it has reached very good performance, with both missed alarms and false alarms in the order of a few percent (and strategies to improve the performance have already been identified). Since for the optimisation of the mitigation measures, predicting also the type of disruption is considered to be also very important, a new clustering method, based on the geodesic distance on a probabilistic manifold, has been developed. This technique allows automatic classification of an incoming disruption with a success rate of better than 85%. Various other manifold learning tools, particularly Principal Component Analysis and Self Organised Maps, are also producing very interesting results in the comparative analysis of JET and ASDEX Upgrade (AUG) operational spaces, on the route to developing predictors capable of extrapolating from one device to another.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Let E be an infinite dimensional complex Banach space. We prove the existence of an infinitely generated algebra, an infinite dimensional closed subspace and a dense subspace of entire functions on E whose non-zero elements are functions of unbounded type. We also show that the τδ topology on the space of all holomorphic functions cannot be obtained as a countable inductive limit of Fr´echet spaces. RESUMEN. Sea E un espacio de Banach complejo de dimensión infinita y sea H(E) el espacio de funciones holomorfas definidas en E. En el artículo se demuestra la existencia de un álgebra infinitamente generada en H(E), un subespacio vectorial en H(E) cerrado de dimensión infinita y un subespacio denso en H(E) cuyos elementos no nulos son funciones de tipo no acotado. También se demuestra que el espacio de funciones holomorfas con la topología ? no es un límite inductivo numberable de espacios de Fréchet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The article shows a range of contemporary phenomena linked with urban space and the increasing citizens? interactivity in the network. The sources for theory and reflection are related to the ongoing research project ?Interactive Atlas of urban habitability" which is based on citizen participation in the sensitive description of the urban environment. It addresses a classification of variables related to the desires of urban habitability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Light Detection and Ranging (LIDAR) provides high horizontal and vertical resolution of spatial data located in point cloud images, and is increasingly being used in a number of applications and disciplines, which have concentrated on the exploit and manipulation of the data using mainly its three dimensional nature. Bathymetric LIDAR systems and data are mainly focused to map depths in shallow and clear waters with a high degree of accuracy. Additionally, the backscattering produced by the different materials distributed over the bottom surface causes that the returned intensity signal contains important information about the reflection properties of these materials. Processing conveniently these values using a Simplified Radiative Transfer Model, allows the identification of different sea bottom types. This paper presents an original method for the classification of sea bottom by means of information processing extracted from the images generated through LIDAR data. The results are validated using a vector database containing benthic information derived by marine surveys.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Context: Replication plays an important role in experimental disciplines. There are still many uncertain- ties about how to proceed with replications of SE experiments. Should replicators reuse the baseline experiment materials? How much liaison should there be among the original and replicating experiment- ers, if any? What elements of the experimental configuration can be changed for the experiment to be considered a replication rather than a new experiment? Objective: To improve our understanding of SE experiment replication, in this work we propose a classi- fication which is intend to provide experimenters with guidance about what types of replication they can perform. Method: The research approach followed is structured according to the following activities: (1) a litera- ture review of experiment replication in SE and in other disciplines, (2) identification of typical elements that compose an experimental configuration, (3) identification of different replications purposes and (4) development of a classification of experiment replications for SE. Results: We propose a classification of replications which provides experimenters in SE with guidance about what changes can they make in a replication and, based on these, what verification purposes such a replication can serve. The proposed classification helped to accommodate opposing views within a broader framework, it is capable of accounting for less similar replications to more similar ones regarding the baseline experiment. Conclusion: The aim of replication is to verify results, but different types of replication serve special ver- ification purposes and afford different degrees of change. Each replication type helps to discover partic- ular experimental conditions that might influence the results. The proposed classification can be used to identify changes in a replication and, based on these, understand the level of verification.