48 resultados para Reproducibilidad


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las microbalanzas de cristal de cuarzo (QCM), son mecanismos piezoeléctricos, para transformarlos en sensores químicos es necesario recubrirlos con una capa de material capaz de capturar las moléculas del ambiente. Cuando una masa es adsorbida sobre la superficie del cristal, la frecuencia de oscilación cambia en proporción a la cantidad de masa (Di Natale et al. 1997). La respuesta de los sensores depende de numerosos factores que pueden ser difíciles de controlar, tales como la temperatura y la humedad del gas portador. Todos estos factores producen cambios en la selectividad de los sensores que afectan a la reproducibilidad de las medidas. A pesar de la existencia de numerosos estudios no existe ningún procedimiento establecido para la calibración de las QCM en relación con la sensibilidad necesaria en los sensores para el aseguramiento de la calidad en pera o en otras frutas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema de la tesis se centra en el pensamiento de Walter Benjamin y en el concepto de percepción distraída, desarrollado en el ensayo La obra de arte en la época de su reproducibilidad técnica (1936). El título percepción dispersa deriva de una profundización de los conceptos benjaminianos en términos lingüísticos, adoptando otros significados de la palabra distracción que relacionan este concepto a cuestiones de ámbito espacial y atmosférico. Benjamin sostiene que la arquitectura, en una época en la que se desarrollan y se difunden nuevas técnicas de reproducción/ comunicación, no se puede percibir solo de manera visual sino también táctil, interrelacionando la difusión de nuevas técnicas de reproducción, la tensión entre diferentes modalidades perceptivas y la arquitectura: según él, la dispersión de la vista a favor de la percepción táctil/háptica es un rasgo característico de una sociedad en la que se desarrollan y se difunden nuevas técnicas de reproducción. La tesis profundiza en estos temas, actualizando el concepto de distracción/dispersión para valorar las repercusiones de esta intuición en el ámbito de una parte de la producción arquitectónica contemporánea: se propone una contextualización histórica y una conceptual, relativas a los proyectos recientes de algunos de los autores que profundizan en el impacto de las nuevas tecnologías en el ámbito del proyecto de arquitectura. La hipótesis que se quiere demostrar es que se está desarrollando una tendencia que lleva proyectos o edificios de alto nivel tecnológico y informático desde un ámbito de (supuesto) predominio de la percepción visual, hasta una arquitectura que proporciona experiencias multisensoriales: espacios que se pueden medir con el movimiento, los músculos y el tacto, que desarrollan un conjunto de sensaciones táctiles/hápticas y no solo visuales. Finalmente se quiere verificar si, revertiendo siglos de evolución visual, la visión táctil y cercana siga siendo uno de los polos dialécticos que estructuran la experiencia de la arquitectura, como previsto por Benjamin hace 75 años. ABSTRACT The thesis focuses on the thought of Walter Benjamin and the concept of distracted perception, developed in the essay The Work of Art in the Age of Mechanical Reproduction (1936). The title derives from a linguistic approach to this concept which further explores the meaning of the word distraction, finally relating this kind of perception to spatial and atmospheric issues. Benjamin argues that architecture, thanks to the development of new reproduction/communication technologies, cannot be perceived exclusively in a visual way but also in a tactile way, interrelating new technologies of reproduction, perceptual modalities and architecture: according to him, the dispersion of the view in favor of tactile/ haptic perception is a fundamental characteristic of a technologically developed society. The thesis explores these issues, updating the concept of distraction/dispersion to assess its implications in the works of some architects that are exploring with their buildings the impact of new communication technologies in the field of architectural design. The hypothesis at the base of this work is that we are facing a new trend in this particular field: many of the most advanced buildings provide multisensory experience, and define spaces that can be better perceived with the sense of touch (haptic sense), going beyond a mere visual perception. Finally the thesis wants to verify if, reversing centuries of visual evolution, tactile and close vision remains one of the dialectical poles that stay at the base of the experience of architecture, as foreseen by Benjamin 75 years ago. ABSTRACT La tesi si basa sul pensiero di Walter Benjamin e sul concetto di percezione distratta, sviluppato nel saggio La opera d’arte nell’epoca della sua riproducibilità tecnica (1936). Il titolo, percezione dispersa, deriva da un approfondimento dei concetti benjaminiani in termini linguistici, adottando ulteriori significati della parola che il filosofo utilizza per indicare la distrazione e che relazionano questo termine a questioni di ambito spaziale ed atmosferico. Benjamin sostiene che l’architettura, in un’epoca nella quale si sviluppano e si diffondono nuove tecniche di riproduzione (o meglio: nuove tecnologie di comunicazione), non possa essere percepita solamente in maniera visuale, ma anche tattile, mettendo in relazione la diffusione di nuove tecnologie, la tensione tra differenti modalità percettive e l’architettura: secondo Benjamin, la dispersione della vista a favore di una ricezione tattile/aptica della realtà è una caratteristica tipica di quei momenti storici nei quali si manifestano grandi trasformazioni di ambito sociale e culturale dovute allo sviluppo di nuove tecnologie di comunicazione. La tesi approfondisce questi temi, aggiornando il concetto di distrazione/dispersione per valutarne le ripercussioni su una certa parte della produzione architettonica contemporanea: si propone una contestualizzazione storica ed una concettuale, relative ai progetti di alcuni architetti che lavorano da tempo sull’impatto delle nuove tecnologie nell’ambito del progetto di architettura. La ipotesi che si dimostra con questa tesi è che si sta sviluppando una contro-tendenza tattile, a seguito della quale molti degli edifici tecnologicamente ed informaticamente più avanzati strutturano la relazione con i propri utenti sulla base di esperienze multisensoriali, definendo spazi che possono essere percepiti attraverso una percezione aptica, piuttosto che visuale. In definitiva la tesi verifica che, superando secoli di evoluzione visuale, la visione tattile e ravvicinata e - più in generale - una percezione di tipo aptico continuano ad essere uno dei poli dialettici che strutturano l’esperienza dell’architettura, come previsto da Benjamin più di 75 anni fa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se desarrolla una metodología alternativa para la determinación de la dureza Brinell a partir de imágenes obtenidas mediante microscopía confocal, que se ha mostrado robusta para mejorar los resultados de medición del diámetro en condiciones de reproducibilidad. Las validaciones realizadas evidencian su posibilidad real de implementación, especialmente para la certificación de patrones de dureza. Los estudios experimentales realizados ponen de manifiesto que la medición del diámetro de una huella de dureza Brinell, siguiendo la metodología tradicional, depende de la posición del patrón, de las características del equipo empleado y del propio operador. Dicha medida resulta crítica y las dificultades para identificar el borde de la huella incorporan a menudo una fuente adicional de incertidumbre difícil de soslayar. En esta investigación se han desarrollado dos modelos matemáticos que permiten identificar de forma unívoca el diámetro de la huella en el punto donde se produce el límite de contacto entre el indentador y el material de la probeta durante la realización del ensayo. Ambos modelos han sido implementados en Matlab® y se ha verificado su validez mediante datos sintéticos. Asimismo, se ha realizado una validación experimental sobre patrones de dureza certificados, empleando un microscopio confocal marca Leica, modelo DCM 3D disponible en el Laboratorio de Investigación de Materiales de Interés Tecnológico (LIMIT) de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI – UPM). Dicha validación ha puesto de manifiesto la utilidad de esta nueva metodología por cuanto permite caracterizar las huellas, estimar las incertidumbres de medida y garantizar la trazabilidad metrológica de los resultados. ABSTRACT This PhD thesis presents an alternative methodology to determine the Brinell hardness from the images obtained by confocal microscopy that has proved to be robust to improve the results of indentation diameter measurements in reproducibility conditions. The validations carried out show the real possibility of its implementation, especially for calibration of hardness reference blocks. Experimental studies performed worldwide show that the measurement of the indentation diameter in a Brinell hardness test depends, when the traditional methodology is applied, on the position of the test block, the equipment characteristics and the operator. This measurement is critical and the difficulties to identify the edge of the indentation often bring an additional source of uncertainty with them that is hard to avoid. In this research two specific mathematical models have been developed to identify unambiguously the indentation diameter at the point where the edge of the boundary between the indenter and the test block is found during the test. Both models have been implemented on Matlab® and their validity has been verified by synthetic data An additional experimental validation with calibrated hardness reference blocks has been carried out using a Leica-brand confocal microscope, model DCM 3D, available in the Laboratory for Research on Materials of Technological Interest (LIMIT in its Spanish acronym) of the Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI-UPM). This validation has shown the utility of this new methodology since it allows to characterize the indentation, to estimate the measurement uncertainties and to ensure the metrological traceability of the results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La reproducibilidad de estudios y resultados científicos es una meta a tener en cuenta por cualquier científico a la hora de publicar el producto de una investigación. El auge de la ciencia computacional, como una forma de llevar a cabo estudios empíricos haciendo uso de modelos matemáticos y simulaciones, ha derivado en una serie de nuevos retos con respecto a la reproducibilidad de dichos experimentos. La adopción de los flujos de trabajo como método para especificar el procedimiento científico de estos experimentos, así como las iniciativas orientadas a la conservación de los datos experimentales desarrolladas en las últimas décadas, han solucionado parcialmente este problema. Sin embargo, para afrontarlo de forma completa, la conservación y reproducibilidad del equipamiento computacional asociado a los flujos de trabajo científicos deben ser tenidas en cuenta. La amplia gama de recursos hardware y software necesarios para ejecutar un flujo de trabajo científico hace que sea necesario aportar una descripción completa detallando que recursos son necesarios y como estos deben de ser configurados. En esta tesis abordamos la reproducibilidad de los entornos de ejecución para flujos de trabajo científicos, mediante su documentación usando un modelo formal que puede ser usado para obtener un entorno equivalente. Para ello, se ha propuesto un conjunto de modelos para representar y relacionar los conceptos relevantes de dichos entornos, así como un conjunto de herramientas que hacen uso de dichos módulos para generar una descripción de la infraestructura, y un algoritmo capaz de generar una nueva especificación de entorno de ejecución a partir de dicha descripción, la cual puede ser usada para recrearlo usando técnicas de virtualización. Estas contribuciones han sido aplicadas a un conjunto representativo de experimentos científicos pertenecientes a diferentes dominios de la ciencia, exponiendo cada uno de ellos diferentes requisitos hardware y software. Los resultados obtenidos muestran la viabilidad de propuesta desarrollada, reproduciendo de forma satisfactoria los experimentos estudiados en diferentes entornos de virtualización. ABSTRACT Reproducibility of scientific studies and results is a goal that every scientist must pursuit when announcing research outcomes. The rise of computational science, as a way of conducting empirical studies by using mathematical models and simulations, have opened a new range of challenges in this context. The adoption of workflows as a way of detailing the scientific procedure of these experiments, along with the experimental data conservation initiatives that have been undertaken during last decades, have partially eased this problem. However, in order to fully address it, the conservation and reproducibility of the computational equipment related to them must be also considered. The wide range of software and hardware resources required to execute a scientific workflow implies that a comprehensive description detailing what those resources are and how they are arranged is necessary. In this thesis we address the issue of reproducibility of execution environments for scientific workflows, by documenting them in a formalized way, which can be later used to obtain and equivalent one. In order to do so, we propose a set of semantic models for representing and relating the relevant information of those environments, as well as a set of tools that uses these models for generating a description of the infrastructure, and an algorithmic process that consumes these descriptions for deriving a new execution environment specification, which can be enacted into a new equivalent one using virtualization solutions. We apply these three contributions to a set of representative scientific experiments, belonging to different scientific domains, and exposing different software and hardware requirements. The obtained results prove the feasibility of the proposed approach, by successfully reproducing the target experiments under different virtualization environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo fin de master “Análisis de la precisión en la medida del tiempo de reverberación y de los parámetros asociados” tiene como objetivo primordial la evaluación de los parámetros y métodos utilizados para la obtención de estos, a través del tiempo de reverberación, tanto de forma global, conjunto de todos los métodos, como cada uno de ellos por separado. Un objetivo secundario es la evaluación de la incertidumbre en función del método de medición usado. Para realizarlo, se van a aprovechar las mediciones realizadas para llevar a cabo el proyecto fin de carrera [1], donde se medía el tiempo de reverberación en dos recintos diferentes usando el método del ruido interrumpido y el método de la respuesta impulsiva integrada con señales distintas. Las señales que han sido utilizadas han sido señales impulsivas de explosión de globos, disparo de pistola, claquetas y, a través de procesado digital, señales periódicas pseudoaleatorias MLS y barridos de tonos puros. La evaluación que se realizará a cada parámetro ha sido extraída de la norma UNE 89002 [2], [3]y [4]. Se determinará si existen valores aberrantes tanto por el método de Grubbs como el de Cochran, e interesará conocer la veracidad, precisión, repetibilidad y reproducibilidad de los resultados obtenidos. Los parámetros que han sido estudiados y evaluados son el tiempo de reverberación con caída de 10 dB, (T10), con caída de 15 dB (T15), con caída de 20 dB (T20), con caída de 30 dB (T30), el tiempo de la caída temprana (EDT), el tiempo final (Ts), claridad (C20, C30, C50 y C80) y definición (D50 y D80). Dependiendo de si el parámetro hace referencia al recinto o si varía en función de la relación entre la posición de fuente y micrófono, su estudio estará sujeto a un procedimiento diferente de evaluación. ABSTRACT. The master thesis called “Analysis of the accuracy in measuring the reverberation time and the associated parameters” has as the main aim the assessment of parameters and methods used to obtain these through reverberation time, both working overall, set of all methods, as each of them separately. A secondary objective is to evaluate the uncertainty depending on the measurement method used. To do this, measurements of [1] will be used, where they were carried on in two different spaces using the interrupted noise method and the method of impulse response integrated with several signals. The signals that have been used are impulsive signals such as balloon burst, gunshot, slates and, through digital processing, periodic pseudorandom signal MLS and swept pure tone. The assessment that will be made to each parameter has been extracted from the UNE 89002 [2], [3] and [4]. It will determine whether there are aberrant values both through Grubbs method and Cochran method, to say so, if a value is inconsistent with the rest of the set. In addition, it is interesting to know the truthfulness, accuracy, repeatability and reproducibility of results obtained from the first part of this rule. The parameters that are going to be evaluated are reverberation time with 10 dB decay, (T10), with 15 dB decay (T15), with 20 dB decay (T20), with 30 dB decay (T30), the Early Decay Time (EDT), the final time (Ts), clarity (C20, C30, C50 y C80) and definition (D50 y D80). Depending on whether the parameter refers to the space or if it varies depending on the relationship between source and microphone positions, the study will be related to a different evaluation procedure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este estudio se valida y calibra un nuevo sistema hiperespectral formado por una cámara y un espectrógrafo para la medida de propiedades de color y espectrales con elevada resolución espacial. En primer lugar se analiza la respuesta del sistema en términos de repetitividad y reproducibilidad con respecto a un espectrofotómetro convencional. Por otro lado, se proporciona la exactitud del sistema en relación a patrones de longitud de onda y fotométricos. Los resultados obtenidos ponen de manifiesto las ventajas de este tipo de dispositivos para ser utilizados en aplicaciones industriales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analizar limitaciones del estudio de fluorosis dentaria en pesquisas transversales. MÉTODOS: Se utilizaron datos de estudios de de Condiciones de Salud Bucal de la Población Brasileña (SBBrasil 2003) y de la Investigación Nacional de la Salud Bucal (SBBrasil 2010). La estimativa de tendencia epidemiológica de la fluorosis en la población de 12 años, aspectos de la confiabilidad de los datos, así como la precisión de las estimativas, fueron evaluadas en estas dos investigaciones. La distribución de la prevalencia de la fluorosis fue hecha de acuerdo con los dominios de estudio (capitales y regiones) y el año estudiado. Se expresaron también los intervalos de confianza (IC95%) para la prevalencia simple (sin considerar las fases de la gravedad). RESULTADOS: La prevalencia de la fluorosis dentaria presentó una variación considerable, de 0 a 61% en 2003 y de 0 a 59% en 2010. Se observaron inconsistencias en los datos en términos individuales (por año y por dominio) y en el comportamiento de la tendencia. Considerando la expectativa de prevalencia y los datos disponibles en las dos investigaciones, el tamaño mínimo de la muestra debería ser de 1.500 individuos para obtener intervalos de 3,4% y 6,6% de confianza, considerando un coeficiente de variación mínimo de 15%. Dada la subjetividad en la naturaleza de su clasificación, exámenes de fluorosis dentaria pueden presentar más variación de los realizados para otras condiciones de salud bucal. El poder para establecer diferencias entre los dominios del estudio con la muestra de SBBrasil 2010 es bastante limitado. CONCLUSIONES: No fue posible analizar la tendencia de la fluorosis dentaria en Brasil con base en los estudios de 2003 y 2010; esos datos son sólo indicadores exploratorios de la prevalencia de la fluorosis. La comparación se hace imposible por el hecho de haber sido utilizado modelos de análisis diferentes en las dos pesquisas. La investigación de la fluorosis dentaria en pesquisas de base poblacional no es viable técnica y económicamente, la realización de estudios epidemiológicos localizados con plan de muestreo es más adecuada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis es un estudio dedicado a la optimización y desarrollo de sistemas del tipo juntura túnel. La metodología utilizada para la realización de la tesis consistió, en primer lugar, en la optimización de las componentes independientes de la juntura túnel: electrodo y barrera aislante. Posteriormente se optimizaron los procesos de fabricación para el desarrollo y caracterización de dispositivos del tipo juntura túnel en su forma final. En la primera parte de la tesis se analizan detalladamente los resultados obtenidos de la caracterización eléctrica y topografica de barreras aislantes en sistemas electrodo - barrera. Los sistemas bicapas estudiados, GdBa_2Cu_3_7/SrTiO_3, Nb/Ba_0,05Sr_0,95TiO_3 y YBa_2Cu_3O_7/SrTiO_3, fueron caracterizados utilizando un microscopio de fuerza atómica en modo conductor. Se propuso un modelo fenomenológico basado en los resultados experimentales, que permitió la obtención de parámetros críticos para el desarrollo de dispositivos del tipo juntura túnel con nuevas funcionalidades. La información obtenida de la caracterización de los sistemas bicapas (homogeneidad de crecimiento, baja densidad de defectos y de pinholes) indican un muy buen control de los parámetros de crecimiento de las barreras. Por otro lado, se obtuvo un buen comportamiento aislante para espesores mayores a 2 nm sin la presencia de pinholes en la barrera. La similitud en la estequiometría de las barreras (SrTiO_3) permitió comparar los distintos sistemas estudiados en términos de conductividad eléctrica. Se verificó que el modelo fenomenológico permite comparar la conductividad eléctrica de los sistemas mediante uno de los parámetros definidos en el modelo fenomenológico (obtenido de los ajustes lineales de las curvas I(V)). De los 3 sistemas estudiados, las bicapas GdBa_2Cu_3O_7/SrTiO_3 presentaron un mayor valor de longitud de atenuación de los portadores de carga a través de la barrera y una muy baja densidad de defectos superficiales. Las bicapas YBa_2Cu_3O_7/SrTiO_3 y Nb/Ba_0,05Sr_0,95TiO_3 permitieron validar el modelo fenomenológico propuesto para el análisis de la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor. La segunda parte de la tesis abarca conceptos de magnetismo y microfabricación para el desarrollo de junturas túnel magnéticas. Durante la caracterización de las películas ferromagnéticas individuales de Co_90Fe_10 (CoFe) se logró aumentar valor del campo coercitivo de films de 10 nm de espesor al incrementar la temperatura de depósito. Esto se debe a un aumento del tamaño de grano de los films. El aumento de la temperatura del sustrato durante el crecimiento influye en la morfología y las propiedades magnéticas de los films de CoFe favoreciendo la formación de granos y la pérdida del eje preferencial de magnetización. Estos resultados permitieron la fabricación de sistemas Co_90Fe_10/M_gO/Co_90Fe_10 con distintas orientaciones relativas accesibles con campo magnético para el estudio del acople magnético entre los films de CoFe. La caracterización eléctrica de estos sistemas, particularmente la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor, indicó que las propiedades de transporte eléctrico de las junturas presentan un alto grado de reproducibilidad. Se analizó además la inuencia del sustrato utilizado en la corriente túnel que atraviesa la barrera aislante. Por otro lado, se discuten los fenómenos relacionados a la optimización de las propiedades magnéticas de electrodos ferromagnéticos para la fabricación de junturas túnel Co_90Fe_10/MgO/Co_90Fe_10 y Co_90Fe_10/MgO /Fe_20Ni_80. En particular, se estudió el acople magnético entre capas ferromagnéticas y la inuencia del sustrato utilizado para el crecimiento de las tricapas. La optimización de los electrodos magnéticos involucró el análisis de la inuencia de la presencia de un aislante entre dos capas magnéticas en el acople de los electrodos. Se logró el desacople de films de 10 nm de Co_90Fe_10 y Fe_20Ni_80 separados por un espaciador de MgO de 2 nm. Finalmente se detallan los pasos para la fabricación de una red de junturas túnel magnéticas y su caracterización eléctrica a bajas temperaturas. El sistema estudiado fue la tricapa Co_90Fe_10 (10 nm)/M_gO (8 nm)/ Fe_20Ni_80 (10 nm) crecido sobre un sustrato de M_gO. La caracterización eléctrica confirmó la buena calidad de la junturas fabricadas. Las junturas obtenidas presentaron un comportamiento altamente resistivo (~ MΩ). Las mediciones de la corriente túnel en función de la temperatura permitieron descartar la presencia de pinholes en la barrera. El transporte de los portadores de carga es por efecto túnel a través de la barrera aislante. Las curvas de conductancia diferencial permitieron calcular el valor medio de la altura de la barrera de potencial (φ = 3.1 eV) a partir del modelo de Brinkman. Los resultados obtenidos en cada uno de los capítulos se complementan y son relevantes para la optimización de junturas túnel, debido a que brindan información crítica para su correcto funcionamiento. En la presente tesis se lograron obtener los primeros avances para la fabricación de arreglos de junturas túnel que permitan el desarrollo de dispositivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis es un estudio dedicado a la optimización y desarrollo de sistemas del tipo juntura túnel. La metodología utilizada para la realización de la tesis consistió, en primer lugar, en la optimización de las componentes independientes de la juntura túnel: electrodo y barrera aislante. Posteriormente se optimizaron los procesos de fabricación para el desarrollo y caracterización de dispositivos del tipo juntura túnel en su forma final. En la primera parte de la tesis se analizan detalladamente los resultados obtenidos de la caracterización eléctrica y topografica de barreras aislantes en sistemas electrodo - barrera. Los sistemas bicapas estudiados, GdBa_2Cu_3_7/SrTiO_3, Nb/Ba_0,05Sr_0,95TiO_3 y YBa_2Cu_3O_7/SrTiO_3, fueron caracterizados utilizando un microscopio de fuerza atómica en modo conductor. Se propuso un modelo fenomenológico basado en los resultados experimentales, que permitió la obtención de parámetros críticos para el desarrollo de dispositivos del tipo juntura túnel con nuevas funcionalidades. La información obtenida de la caracterización de los sistemas bicapas (homogeneidad de crecimiento, baja densidad de defectos y de pinholes) indican un muy buen control de los parámetros de crecimiento de las barreras. Por otro lado, se obtuvo un buen comportamiento aislante para espesores mayores a 2 nm sin la presencia de pinholes en la barrera. La similitud en la estequiometría de las barreras (SrTiO_3) permitió comparar los distintos sistemas estudiados en términos de conductividad eléctrica. Se verificó que el modelo fenomenológico permite comparar la conductividad eléctrica de los sistemas mediante uno de los parámetros definidos en el modelo fenomenológico (obtenido de los ajustes lineales de las curvas I(V)). De los 3 sistemas estudiados, las bicapas GdBa_2Cu_3O_7/SrTiO_3 presentaron un mayor valor de longitud de atenuación de los portadores de carga a través de la barrera y una muy baja densidad de defectos superficiales. Las bicapas YBa_2Cu_3O_7/SrTiO_3 y Nb/Ba_0,05Sr_0,95TiO_3 permitieron validar el modelo fenomenológico propuesto para el análisis de la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor. La segunda parte de la tesis abarca conceptos de magnetismo y microfabricación para el desarrollo de junturas túnel magnéticas. Durante la caracterización de las películas ferromagnéticas individuales de Co_90Fe_10 (CoFe) se logró aumentar valor del campo coercitivo de films de 10 nm de espesor al incrementar la temperatura de depósito. Esto se debe a un aumento del tamaño de grano de los films. El aumento de la temperatura del sustrato durante el crecimiento influye en la morfología y las propiedades magnéticas de los films de CoFe favoreciendo la formación de granos y la pérdida del eje preferencial de magnetización. Estos resultados permitieron la fabricación de sistemas Co_90Fe_10/M_gO/Co_90Fe_10 con distintas orientaciones relativas accesibles con campo magnético para el estudio del acople magnético entre los films de CoFe. La caracterización eléctrica de estos sistemas, particularmente la respuesta corriente - voltaje obtenida con el microscopio de fuerza atómica en modo conductor, indicó que las propiedades de transporte eléctrico de las junturas presentan un alto grado de reproducibilidad. Se analizó además la inuencia del sustrato utilizado en la corriente túnel que atraviesa la barrera aislante. Por otro lado, se discuten los fenómenos relacionados a la optimización de las propiedades magnéticas de electrodos ferromagnéticos para la fabricación de junturas túnel Co_90Fe_10/MgO/Co_90Fe_10 y Co_90Fe_10/MgO /Fe_20Ni_80. En particular, se estudió el acople magnético entre capas ferromagnéticas y la inuencia del sustrato utilizado para el crecimiento de las tricapas. La optimización de los electrodos magnéticos involucró el análisis de la inuencia de la presencia de un aislante entre dos capas magnéticas en el acople de los electrodos. Se logró el desacople de films de 10 nm de Co_90Fe_10 y Fe_20Ni_80 separados por un espaciador de MgO de 2 nm. Finalmente se detallan los pasos para la fabricación de una red de junturas túnel magnéticas y su caracterización eléctrica a bajas temperaturas. El sistema estudiado fue la tricapa Co_90Fe_10 (10 nm)/M_gO (8 nm)/ Fe_20Ni_80 (10 nm) crecido sobre un sustrato de M_gO. La caracterización eléctrica confirmó la buena calidad de la junturas fabricadas. Las junturas obtenidas presentaron un comportamiento altamente resistivo (~ MΩ). Las mediciones de la corriente túnel en función de la temperatura permitieron descartar la presencia de pinholes en la barrera. El transporte de los portadores de carga es por efecto túnel a través de la barrera aislante. Las curvas de conductancia diferencial permitieron calcular el valor medio de la altura de la barrera de potencial (φ = 3.1 eV) a partir del modelo de Brinkman. Los resultados obtenidos en cada uno de los capítulos se complementan y son relevantes para la optimización de junturas túnel, debido a que brindan información crítica para su correcto funcionamiento. En la presente tesis se lograron obtener los primeros avances para la fabricación de arreglos de junturas túnel que permitan el desarrollo de dispositivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Determinar la fiabilidad test-retest, la consistencia interna y la validez predictiva de los constructos de la versión mexicana del cuestionario Pro Children Project (PCHP), que evalúa factores psicosociales personales y ambientales asociados a el consumo de fruta y verdura en niños escolares de 10 a12 años. Métodos: Diseño test-retest con un intervalo de 14 días. Una muestra de 957 niños de ocho escuelas primarias completaron el cuestionario de 82 ítems en el 2012 en Ciudad Juárez, Chihuahua, México. Resultados: La confiabilidad test-retest fue moderada (coeficiente de correlación intraclase (CCI) > 0,60) en todos los constructos de fruta y de verdura en un rango de 0,60 a 0,68. El promedio de valores Alfa de Cronbach fueron de bajos a altos (rango: 0,54 a 0,92), comparables al estudio original. La validez predictiva fue de moderada a buena en un rango de correlaciones de Spearman de 0,23 a 0,60 en factores personales y de 0,14 a 0,40 en factores ambientales. Conclusión: Los resultados demuestran una fiabilidad y validez suficiente de la versión mexicana del cuestionario PCHP para la evaluación global de factores psicosociales personales y ambientales asociados a el consumo de fruta y verdura en niños escolares de 10 a 12 años. Finalmente, se discuten las implicaciones para la aplicación de este instrumento en contextos escolares y las pautas a seguir para futuras investigaciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Propósito y Método del estudio: En este trabajo se estudió la influencia del método de síntesis en las propiedades fisicoquímicas, fotocatalíticas y fotoelectroquímicas del BaBiO3 y el Sr2Bi2O5. En primera instancia, se realizó la síntesis de los materiales por la técnica de estado sólido (pos-tratamiento con molienda mecánica) e hidrotermal. Para la síntesis en hidrotermal se exploraron 3 diferentes temperaturas: 130, 150, 170 °C. Los materiales obtenidos fueron caracterizados mediante Difracción de Rayos-X (DRX), Espectroscopía de Reflectancia Difusa (ERD), Microscopía Electrónica de Barrido (MEB) y Fisisorción de Nitrógeno. Posteriormente se realizó la evaluación de las propiedades fotocatalíticas de los materiales obtenidos en la degradación de rodamina B. Las pruebas fotocatalíticas se realizaron en un reactor tipo Batch, utilizando una lámpara de Xenón de 6000 K. El estudio fotocatalítico finalizó con el cálculo de parámetros cinéticos tales como la constante de velocidad aparente (k) y tiempo de vida media (t1/2). Los resultados mostraron que el BaBiO3 sintetizado por reacción de estado sólido presentó la mayor eficiencia fotocatalitica. Para incrementar la eficiencia fotocatalitica de los materiales sintetizados se adicionaron superficialmente partículas de NiO en porcentajes de 3, 5 y 10 % al bismutato de estroncio y bario, utilizando para ello el método de impregnación. Los materiales fueron caracterizados y probados en la degradación de rodamina B. Por otro lado, para conocer el grado de eficiencia de los materiales se realizó el estudio fotoelectroquímico para determinar la posición de las bandas de conducción y valencia de cada uno de ellos. El grado de mineralización de la rodamina B se analizó mediante análisis de Carbón Orgánico Total (COT) y adicionalmente se realizaron pruebas de reproducibilidad para determinar la estabilidad de los materiales ante la exposición de ciclos sucesivos de irradiación. Contribuciones y conclusiones: Se lograron obtener los Bismutatos de Estroncio y Bario mediante la reacción en estado sólido a 800 y 900 °C. Mientras que por el método de hidrotermal se obtuvieron los materiales a 130, 150 y 170°C, seguido de un tratamiento térmico a 700°C. Los resultados de electroquímica mostraron que el material de Sr2Bi2O5 es apto para generar procesos de oxidación y reducción. La adición de NiO no proporcionó mejora en la eficiencia fotocatalítica, lo que se atribuyó a las aglomeraciones de partículas sobre la superficie de los materiales. Los materiales obtenidos por estado sólido presentaron la mayor actividad fotocatalítica en degradación de rodamina B, comparados con los obtenidos por el método de hidrotermal, por lo que el factor que domina la actividad fotocatalítica de estos materiales fue principalmente la cristalinidad. Además los materiales presentaron buena estabilidad ante ciclos sucesivos de irradiación y mostraron un buen grado de mineralización de la rodamina B.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción: La cirugía conservadora constituye hoy el tratamiento estándar en el ca. mama. La recurrencia local debe evitarse en la medida de lo posible, en tanto en cuanto condiciona un mayor estrés para la paciente, la obligatoriedad de tratamientos más agresivos, y una disminución de la supervivencia. Para ello, la obtención de márgenes libres es un factor clave. Pese a todos los esfuerzos por obtener dichos márgenes libres en un único acto quirúrgico, sigue existiendo una alta tasa de reintervenciones para su obtención. La ARF es un procedimiento aún en investigación sobre la que existen pocos datos relativos a los detalles de la técnica y su reproductibilidad, así como su eficacia en la obtención de márgenes libres y menos aún sobre persistencia de enfermedad, recurrencia local y repercusión sobre la supervivencia, para lo que se necesitaran estudios con amplios grupos de pacientes y tiempo de seguimiento. Nosotros nos proponemos aportar datos relativos a la ARF, centrados en un protocolo de la técnica de aplicación de la ARF, valoración de la utilidad de la ARF en la obtención de margen libres y repercusión de la ARF sobre las complicaciones y el resultado estético. Material y métodos: Estudio longitudinal de una cohorte prospectiva a las que se le realiza cirugía conservadora seguida de radiofrecuencia, y una cohorte retrospectiva a las que se le realiza cirugía conservadora sin aplicación de radiofrecuencia. Análisis descriptivo de los resultados y comparativo del grupo a estudio respecto a grupo control. Resultados: Se ha realizado ARF a un total de 14 pacientes, con el empleo de un terminal de electrodo simple, lo que aporta gran versatilidad y reproducibilidad a la técnica, y obteniendo un 100% de márgenes libres. Se ha registrado una reintervención por microcalcificaciones evidenciadas en mamografía de control. No se han registrado complicaciones específicas de la técnica. Se han obtenido un total de 92,8% de resultados buenos ó excelentes. En el análisis comparativo, no se han encontrado diferencias estadísticamente significativas respecto a tasa de reintervenciones, resultados cosméticos ó complicaciones. Conclusiones: 1. La ARF ha demostrado en el grupo de estudio una eficacia del 100% en relación con negatividad o no viabilidad de células tumores en todos los márgenes extirpados. 2. La ARF contribuye a aumentar el margen quirúrgico oncológico de seguridad en cirugía conservadora del cáncer de mama, hecho de especial interés en subgupos de mayor riesgo de recurrencia local. 3. La ARF ha demostrado ser una técnica segura con una tasa de complicaciones generales similares al tratamiento estándar, no existiendo en nuestra serie ninguna complicación específica atribuible a la técnica. 4. La elección del terminal con electrodo simple nos permite mayor versatilidad, adaptando el procedimiento y técnica quirúrgica según el tamaño de la lesión para conseguir el efecto deseado. 5. Asimismo la utilización del terminal con electrodo simple nos permite ampliar indicaciones de la ARF al poder incluir lesiones cercanas a piel y pectoral sin riesgo de quemaduras. 6. La aplicación de radiofrecuencia en márgenes y su exéresis no ha afectado el resultado cosmético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes La transición demográfica produce el crecimiento de la población de adultos mayores en América Latina y, de manera particular, en los países andinos. Es por eso que la OMS propone como instrumento para medir la actividad física el Cuestionario Internacional de Actividad Física (IPAQ). Objetivo: Validar el cuestionario Internacional de Actividad Física (IPAQ) en la población adulta mayor del área urbana del Cantón Cuenca en el año 2015. Metodología Este estudio evaluó la confiabilidad del Cuestionario Internacional de Actividad Física (IPAQ), mediante el cual se midieron los niveles de actividad física en 378 adultos mayores del área urbana del cantón Cuenca. El cuestionario se aplicó en dos ocasiones con un lapso de una semana. La tabulación de datos se realizó en Excel y SPSS. Para los resultados se empleó el alfa de cronbach y la correlacion intraclase. Resultados Los valores de correlación intraclase y el Alfa de Cronbach para el IPAQ 1 y el IPAQ 2 son superiores a 0,7. Estos valores muestran que es confiable y los resultados son consistentes. La estadística no arrojó diferencias significativas entre ambos controles. En la edad ha medida que ésta aumenta, la actividad física disminuye. El estado civil por sí solo no muestra asociación estadística con la actividad física. El nivel de instrucción no parece ser un acápite que defina el nivel de actividad física de las personas. La ocupación o no de las personas sí determina el nivel de actividad física