750 resultados para Intrasubject repeatability


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo fin de master “Análisis de la precisión en la medida del tiempo de reverberación y de los parámetros asociados” tiene como objetivo primordial la evaluación de los parámetros y métodos utilizados para la obtención de estos, a través del tiempo de reverberación, tanto de forma global, conjunto de todos los métodos, como cada uno de ellos por separado. Un objetivo secundario es la evaluación de la incertidumbre en función del método de medición usado. Para realizarlo, se van a aprovechar las mediciones realizadas para llevar a cabo el proyecto fin de carrera [1], donde se medía el tiempo de reverberación en dos recintos diferentes usando el método del ruido interrumpido y el método de la respuesta impulsiva integrada con señales distintas. Las señales que han sido utilizadas han sido señales impulsivas de explosión de globos, disparo de pistola, claquetas y, a través de procesado digital, señales periódicas pseudoaleatorias MLS y barridos de tonos puros. La evaluación que se realizará a cada parámetro ha sido extraída de la norma UNE 89002 [2], [3]y [4]. Se determinará si existen valores aberrantes tanto por el método de Grubbs como el de Cochran, e interesará conocer la veracidad, precisión, repetibilidad y reproducibilidad de los resultados obtenidos. Los parámetros que han sido estudiados y evaluados son el tiempo de reverberación con caída de 10 dB, (T10), con caída de 15 dB (T15), con caída de 20 dB (T20), con caída de 30 dB (T30), el tiempo de la caída temprana (EDT), el tiempo final (Ts), claridad (C20, C30, C50 y C80) y definición (D50 y D80). Dependiendo de si el parámetro hace referencia al recinto o si varía en función de la relación entre la posición de fuente y micrófono, su estudio estará sujeto a un procedimiento diferente de evaluación. ABSTRACT. The master thesis called “Analysis of the accuracy in measuring the reverberation time and the associated parameters” has as the main aim the assessment of parameters and methods used to obtain these through reverberation time, both working overall, set of all methods, as each of them separately. A secondary objective is to evaluate the uncertainty depending on the measurement method used. To do this, measurements of [1] will be used, where they were carried on in two different spaces using the interrupted noise method and the method of impulse response integrated with several signals. The signals that have been used are impulsive signals such as balloon burst, gunshot, slates and, through digital processing, periodic pseudorandom signal MLS and swept pure tone. The assessment that will be made to each parameter has been extracted from the UNE 89002 [2], [3] and [4]. It will determine whether there are aberrant values both through Grubbs method and Cochran method, to say so, if a value is inconsistent with the rest of the set. In addition, it is interesting to know the truthfulness, accuracy, repeatability and reproducibility of results obtained from the first part of this rule. The parameters that are going to be evaluated are reverberation time with 10 dB decay, (T10), with 15 dB decay (T15), with 20 dB decay (T20), with 30 dB decay (T30), the Early Decay Time (EDT), the final time (Ts), clarity (C20, C30, C50 y C80) and definition (D50 y D80). Depending on whether the parameter refers to the space or if it varies depending on the relationship between source and microphone positions, the study will be related to a different evaluation procedure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dynamic blood oxygenation level-dependent functional MRI was applied at 7 T in the rat olfactory bulb (OB) with pulsed delivery of iso-amyl acetate (IAA) and limonene. Acquisition times for single-slice and whole OB data were 8 and 32 s, respectively, with spatial resolution of 220 × 220 × 250 μm. On an intrasubject basis, short IAA exposures of 0.6 min separated by 3.5-min intervals induced reproducible spatial activity patterns (SAPs) in the olfactory nerve layer, glomerular layer, and external plexiform layer. During long exposures (≈10 min), the initially dominant dorsal SAPs declined in intensity and area, whereas in some OB regions, the initially weak ventral/lateral SAPs increased first and then decreased. The SAPs of different concentrations were topologically similar, which implies that whereas an odor at various concentrations activates the same subsets of receptor cells, different concentrations are assessed and discriminated by variable magnitudes of laminarspecific activations. IAA and limonene reproducibly activated different subsets of receptor cells with some overlaps. Whereas qualitative topographical agreement was observed with results from other methods, the current dynamic blood oxygenation level-dependent functional MRI results can provide quantitative SAPs of the entire OB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Diante das mudanças nos hábitos de consumo alimentar da população brasileira, suplementos vitamínicos e alimentos enriquecidos são veículos comumente empregados para atender as necessidades de ingestão de micronutrientes. A diversidade de suplementos vitamínicos comercializados atualmente leva à necessidade de desenvolvimento de métodos analíticos de fácil execução e alta produtividade. Informações confiáveis sobre os teores de vitaminas poderão ser obtidas somente com métodos analíticos validados. Objetivos: Validar metodologias analíticas e avaliar o teor de vitaminas antioxidantes em suplementos adquiridos no comércio do município de São Paulo - Brasil, o efeito do armazenamento nestes compostos e confrontar os valores analisados com os valores declarados na rotulagem. Métodos: As metodologias analíticas para determinação de vitaminas antioxidantes por cromatografia líquida de alta eficiência com detector de arranjo de diodos (CLAE-DAD) e de vitamina C por titulação potenciométrica foram validadas para as matrizes sólidas, oleosas e líquidas de suplementos vitamínicos. A estabilidade das vitaminas foi avaliada a cada 6 meses durante 12 meses de armazenamento e a avaliação da rotulagem foi realizada de acordo com as legislações vigentes no Brasil. Resultados: Para os métodos cromatográficos, os limites de detecção (LDs) e de quantificação (LQs) variaram entre 0,3 e 4,3 µg/mL, e entre 0,5 e 14,0 µg/mL respectivamente. As recuperações dos padrões adicionados nas matrizes variaram entre 92 por cento e 109 por cento e entre 86 por cento e 108 por cento no material de referência. A repetitividade foi calculada pelo desvio padrão relativo (RSD), apresentando valores entre 0,2 por cento e 9,6 por cento . Para a determinação de vitamina C pelo método potenciométrico, o LD e o LQ foram respectivamente 1 mg e 3 mg; a recuperação no material de referência foi de 99,8 por cento e a precisão variou entre 0,4 e 3,9 por cento . Das 57 amostras avaliadas, 59 por cento e 35 por cento apresentaram teores de vitaminas A e E respectivamente, abaixo dos valores declarados no rótulo; por outro lado, 20 por cento das amostras apresentaram teores de vitamina E acima dos valores declarados. Em relação aos teores de vitamina C, 60 por cento das amostras estavam de acordo com os valores declarados. O estudo da estabilidade demonstrou degradação significativa das vitaminas A, E e C em aproximadamente 90 por cento das amostras com 12 meses de armazenamento. Na avaliação da rotulagem dos suplementos vitamínicos, 47 das amostras apresentaram uma ou mais irregularidades. Conclusão: Os métodos propostos se mostraram adequados para análise de diferentes matrizes de suplementos vitamínicos. Os resultados das análises de vitaminas nestes produtos mostraram a necessidade urgente de monitoramento em conjunto com ações de fiscalização, pois verificou-se que a maioria das amostras não atenderam a legislação, principalmente quanto aos teores declarados na informação nutricional da rotulagem. A sobredosagem de vitaminas pode ser necessária para manter os teores declarados durante o armazenamento, porém, a quantidade adicional de vitamina a ser incluída no suplemento deve estar dentro de limites seguros e depende de cada amostra, pois além da matriz, diversos fatores relacionados aos compostos e à embalagem também podem influenciar na estabilidade das vitaminas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Medidas de espectroscopia gama de alta resolução têm diversas aplicações. Aplicações envolvendo medidas de radioisótopos de meia-vida curta podem apresentar problemas de baixa precisão nas contagens quando a fonte radioativa está distante do detector e de perda de acurácia por efeitos de tempo morto e empilhamento de pulsos em situação de altas taxas de contagens. Um modo de minimizar esses problemas é alterando a posição da fonte radioativa durante o processo de medição, aproximando-a do detector conforme sua atividade diminui e assim maximizando o número de contagens medidas. Neste trabalho, foi desenvolvido o Movimentador de Amostras Radioativas Automatizado (MARA), um aparato de baixo custo, feito com materiais de baixo número atômico e leve, projetado e construído para auxiliar nas medidas de espectroscopia gama, capaz de controlar a distância entre a fonte e o detector, permitindo inclusive que ocorra alteração dessa distância durante o processo de medição. Por ser automatizado ele otimiza o tempo do operador, que tem total liberdade para criar suas rotinas de medidas no dispositivo, além de evitar que o mesmo tome uma parcela da dose radioativa. Foi também feita uma interface que permite controle do MARA e a programação do sistema de aquisição de dados. Foram realizados testes para otimização da operação do sistema MARA e foi verificada a segurança de operação do MARA, não apresentando nenhuma falha durante seus testes. Foi aplicado o teste de repetitividade, por meio de medições com uma fonte calibrada de 60Co, e verificou-se que o sistema de movimentação de prateleiras automatizado reproduziu os resultados do sistema estático com confiabilidade de 95%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram avaliados processos alternativos de dessalinização visando a recuperação e reuso da água contida em salmouras concentradas, sendo o processo de cristalização assistida por destilação por membranas (MDC) investigado com profundidade. Foi desenvolvido um modelo diferencial para o processo de destilação por membranas por contato direto (DCMD), contemplando métodos termodinâmicos rigorosos para sistemas aquosos de eletrólitos fortes, bem como mecanismos de transferência de calor e massa e efeitos de polarização de temperatura e concentração característicos deste processo de separação. Com base em simulações realizadas a partir do modelo matemático assim desenvolvido, foram investigados os principais parâmetros que influenciam o projeto de um módulo de membranas para DCMD. O modelo foi posteriormente estendido com equações de balanço de massa e energia adicionais para incluir a operação de cristalização e desta forma representar o processo de MDC. De posse dos resultados das simulações e do modelo estendido, foi desenvolvido um método hierárquico para o projeto de processos de MDC, com o objetivo de conferir características de rastreabilidade e repetibilidade a esta atividade. Ainda a partir do modelo MDC foram discutidos aspectos importantes em MDC como a possibilidade de nucleação e crescimento de cristais sobre a superfície das membranas, bem como o comportamento do processo com sais com diferentes características de solubilidade e largura da zona metaestável. Verificou-se que para sais cuja solubilidade varia muito pouco com a temperatura e que possuem zona metaestável com pequena largura, caso do NaCl, a operação com resfriamento no cristalizador não é viável pois aumenta excessivamente o consumo energético do processo, sendo nesses casos preferível a operação \"isotérmica\" - sem resfriamento no cristalizador - e o convívio com a possibilidade de nucleação no interior do módulo. No extremo oposto, observou-se que para sais com grande variabilidade da solubilidade com a temperatura, um pequeno resfriamento no cristalizador é suficiente para garantir condições de subsaturação no interior do módulo, sem grande ônus energético para o processo. No caso de sais com pequena variabilidade da solubilidade com a temperatura, mas com largura da zona metaestável elevada, existe certo ônus energético para a operação com resfriamento do cristalizador, porém não tão acentuado como no caso de sais com zona metaestável estreita. Foi proposto um fluxograma alternativo para o processo de MDC, onde foi introduzido um circuito de pré-concentração da alimentação antes do circuito de cristalização, para o caso de alimentação com soluções muito diluídas. Este esquema proporcionou um aumento do fluxo permeado global do processo e consequentemente uma redução na área total de membrana requerida. Verificou-se que através do processo com préconcentração da alimentação de 5% até 10% em massa - no caso de dessalinização de uma solução de NaCl - foi possível reduzir-se a área total da membrana em 27,1% e o consumo energético específico do processo em 10,6%, quando comparado ao processo sem pré-concentração. Foram desenvolvidas ferramentas úteis para o projeto de processos de dessalinização por MDC em escala industrial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O microrreator faz parte de conjunto de dispositivos de uma nova e promissora tecnologia, que podem ser chamados de micro fabricados, atuante em campos como a da química, biológica, farmacêutica, engenharia química e biotecnologia. Trata-se de um dispositivo que possibilita reação química, tais como os reatores convencionais, mas com dimensões menores, com canais na escala micrométrica. A tecnologia de miniaturização de dispositivos para reações químicas vem se expandindo promovendo uma importante evolução, com microssistemas que abrange dispositivos mais eficazes, com configuração e geometrias específicas e menor consumo de energia, onde reações com elevadas taxas de transporte podem ser usadas para muitas finalidades diferentes, tais como, reações rápidas, mistura, reações sensíveis à temperatura, temperatura de homogeneização, ou até mesmo precipitação de nano partículas. Devido sua escala ser extremamente reduzida em relação à escala macro, oferecem um sistema que permite uma investigação do processo em um curto espaço de tempo, sendo muito útil para o rastreio de substratos, enzimas, condições de reação, bem como a determinação de parâmetros cinéticos. O presente trabalho teve por objetivo estudar a biodegradação enzimática de 2,4,6-Triclorofenol, com a utilização das enzimas Lacase e Soybean Peroxidase em microrreator da Syrris com volume de 250 ?l, que permite o estudo de cinéticas muito rápidas. Para as análises de degradação utilizou-se duas enzimas, a Lacase em concentrações de 0,05; 0,1 e 0,2 mg/ml; e a Soybean Peroxidase em concentrações de 0,0005; 0,001 e 0,002 mg/ml com a adição de Peróxido de Hidrogênio. Através dos ensaios realizados obteve-se dados experimentais da reação enzimática, possibilitando a verificação da taxa inicial de reação e sua cinética. Posteriormente, realizou-se as análises em simulação utilizando os dados experimentais, que através de um sistema de EDOs estimando inicialmente as constantes cinéticas k1, k2 e k3 usando a ferramenta ESTIMA, onde apresentaram duas respostas, uma resposta típica de mínimos quadrados, e a outra resposta que a velocidade inicial, que foi melhor representada pelos parâmetros obtidos. O método empregado na degradação do substrato, o microrreator mostrou-se eficiente, permitindo a detecção de baixo consumo de substrato para a determinação da taxa inicial, em curto tempo de residência. Perante os ensaios realizados com Lacase e Soybean Peroxidase, o microrreator é também um equipamento eficaz na repetitividade e na reprodutibilidade dos dados obtidos em diferentes concentrações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os mecanismos amplamente utilizados em aplicações industriais são de tipo serial, porém há algum tempo vem sendo desenvolvidos estudos sobre as vantagens que os mecanismos de arquitetura paralela oferecem em contraposição com os seriais. Rigidez, precisão, altas frequências naturais e velocidade são algumas características que os mecanismos paralelos atribuem a máquinas já consolidadas na indústria, destinadas principalmente nas operações de manipulação (pick and place). Nesse sentido, é relevante o estudo sobre a funcionalidade em outros tipos de operação como a usinagem e, particularmente o fresamento. Para isto, devem-se ainda explorar e desenvolver as capacidades dos mecanismos paralelos em relação à rigidez e à precisão nas operações mencionadas. Foi desenvolvido previamente o projeto e montagem do protótipo de uma máquina fresadora de arquitetura paralela. Também aracterizado pela redundância na atuação para o posicionamento da ferramenta. Com este intuito, pretende-se no trabalho atual, avaliar o erro estático de posicionamento da ferramenta por métodos experimentais, quantificar os deslocamentos, realizar um mapeamento experimental em diversas configurações dos membros. Por outro lado, pretende-se adaptar um modelo numérico simplificado que possa prever as deformações elásticas em diversas configurações, que contemple o efeito de juntas lineares flexíveis e que de alguma forma ajude a identificar as principais fontes de erro. Para tal, foram elaboradas rotinas de programação que através da cinemática inversa e o uso do método dos elementos finitos tentem prever o que de fato acontece nos experimentos. Foi proposta também uma implementação alternativa para o controle do mecanismo através de um software CNC e a conversão de coordenadas cartesianas em coordenadas dos atuadores, isto ajudaria na geração do código G. Finalmente, foram elaboradas algumas trajetórias que tentam avaliar a exatidão e repetitividade do mecanismo além de descrever outras trajetórias livres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fast, simple and environmentally friendly ultrasound-assisted dispersive liquid-liquid microextraction (USA-DLLME) procedure has been developed to preconcentrate eight cyclic and linear siloxanes from wastewater samples prior to quantification by gas chromatography-mass spectrometry (GC-MS). A two-stage multivariate optimization approach has been developed employing a Plackett-Burman design for screening and selecting the significant factors involved in the USA-DLLME procedure, which was later optimized by means of a circumscribed central composite design. The optimum conditions were: extractant solvent volume, 13 µL; solvent type, chlorobenzene; sample volume, 13 mL; centrifugation speed, 2300 rpm; centrifugation time, 5 min; and sonication time, 2 min. Under the optimized experimental conditions the method gave levels of repeatability with coefficients of variation between 10 and 24% (n=7). Limits of detection were between 0.002 and 1.4 µg L−1. Calculated calibration curves gave high levels of linearity with correlation coefficient values between 0.991 and 0.9997. Finally, the proposed method was applied for the analysis of wastewater samples. Relative recovery values ranged between 71–116% showing that the matrix had a negligible effect upon extraction. To our knowledge, this is the first time that combines LLME and GC-MS for the analysis of methylsiloxanes in wastewater samples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A novel method is reported, whereby screen-printed electrodes (SPELs) are combined with dispersive liquid–liquid microextraction. In-situ ionic liquid (IL) formation was used as an extractant phase in the microextraction technique and proved to be a simple, fast and inexpensive analytical method. This approach uses miniaturized systems both in sample preparation and in the detection stage, helping to develop environmentally friendly analytical methods and portable devices to enable rapid and onsite measurement. The microextraction method is based on a simple metathesis reaction, in which a water-immiscible IL (1-hexyl-3-methylimidazolium bis[(trifluoromethyl)sulfonyl]imide, [Hmim][NTf2]) is formed from a water-miscible IL (1-hexyl-3-methylimidazolium chloride, [Hmim][Cl]) and an ion-exchange reagent (lithium bis[(trifluoromethyl)sulfonyl]imide, LiNTf2) in sample solutions. The explosive 2,4,6-trinitrotoluene (TNT) was used as a model analyte to develop the method. The electrochemical behavior of TNT in [Hmim][NTf2] has been studied in SPELs. The extraction method was first optimized by use of a two-step multivariate optimization strategy, using Plackett–Burman and central composite designs. The method was then evaluated under optimum conditions and a good level of linearity was obtained, with a correlation coefficient of 0.9990. Limits of detection and quantification were 7 μg L−1 and 9 μg L−1, respectively. The repeatability of the proposed method was evaluated at two different spiking levels (20 and 50 μg L−1), and coefficients of variation of 7 % and 5 % (n = 5) were obtained. Tap water and industrial wastewater were selected as real-world water samples to assess the applicability of the method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: To evaluate choroidal thickness in young subjects using Enhanced Depth Imaging Spectral Domain Optical Coherence Tomography (EDI SD-OCT) describing volume differences between all the defined areas of the Early Treatment Diabetic Retinopathy Study (ETDRS). Design: Prospective, clinical study. Methods: Seventy-nine eyes of 95 healthy, young (23.8±3.2years), adult volunteers were prospectively enrolled. Manual choroidal segmentation on a 25-raster horizontal scan protocol was performed. The measurements of the nine subfields defined by the ETDRS were evaluated. Results: Mean subfoveal choroidal thickness was 345.67±81.80μm and mean total choroidal volume was 8.99±1.88mm3. Choroidal thickness and volume were higher at the superior and temporal areas compared to inferior and nasal sectors of the same diameter respectively. Strong correlations between subfoveal choroidal thickness and axial length (AL) and myopic refractive error were obtained, r = -0.649, p<0.001 and r = 0.473, p<0.001 respectively. Emmetropic eyes tended to have thicker subfoveal choroidal thickness (381.94±79.88μm versus 307.04±64.91μm) and higher total choroidal volume than myopic eyes (9.80± 1.87mm3 versus 8.14±1.48mm3). The estimation of the variation of the subfoveal choroidal thickness with the AL was-43.84μm/mm. In the myopic group, the variation of the subfoveal choroidal thickness with the myopic refractive error was -10.45μm/D. Conclusions: This study establishes for the first time a normal database for choroidal thickness and volume in young adults. Axial length, and myopic ammetropy are highly associated with choroidal parameters in healthy subjects. EDI SD-OCT exhibited a high degree of intraobserver and interobserver repeatability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A novel approach is presented, whereby gold nanostructured screen-printed carbon electrodes (SPCnAuEs) are combined with in-situ ionic liquid formation dispersive liquid–liquid microextraction (in-situ IL-DLLME) and microvolume back-extraction for the determination of mercury in water samples. In-situ IL-DLLME is based on a simple metathesis reaction between a water-miscible IL and a salt to form a water-immiscible IL into sample solution. Mercury complex with ammonium pyrrolidinedithiocarbamate is extracted from sample solution into the water-immiscible IL formed in-situ. Then, an ultrasound-assisted procedure is employed to back-extract the mercury into 10 µL of a 4 M HCl aqueous solution, which is finally analyzed using SPCnAuEs. Sample preparation methodology was optimized using a multivariate optimization strategy. Under optimized conditions, a linear range between 0.5 and 10 µg L−1 was obtained with a correlation coefficient of 0.997 for six calibration points. The limit of detection obtained was 0.2 µg L−1, which is lower than the threshold value established by the Environmental Protection Agency and European Union (i.e., 2 µg L−1 and 1 µg L−1, respectively). The repeatability of the proposed method was evaluated at two different spiking levels (3 and 10 µg L−1) and a coefficient of variation of 13% was obtained in both cases. The performance of the proposed methodology was evaluated in real-world water samples including tap water, bottled water, river water and industrial wastewater. Relative recoveries between 95% and 108% were obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectives: To design and validate a questionnaire to measure visual symptoms related to exposure to computers in the workplace. Study Design and Setting: Our computer vision syndrome questionnaire (CVS-Q) was based on a literature review and validated through discussion with experts and performance of a pretest, pilot test, and retest. Content validity was evaluated by occupational health, optometry, and ophthalmology experts. Rasch analysis was used in the psychometric evaluation of the questionnaire. Criterion validity was determined by calculating the sensitivity and specificity, receiver operator characteristic curve, and cutoff point. Testeretest repeatability was tested using the intraclass correlation coefficient (ICC) and concordance by Cohen’s kappa (k). Results: The CVS-Q was developed with wide consensus among experts and was well accepted by the target group. It assesses the frequency and intensity of 16 symptoms using a single rating scale (symptom severity) that fits the Rasch rating scale model well. The questionnaire has sensitivity and specificity over 70% and achieved good testeretest repeatability both for the scores obtained [ICC 5 0.802; 95% confidence interval (CI): 0.673, 0.884] and CVS classification (k 5 0.612; 95% CI: 0.384, 0.839). Conclusion: The CVS-Q has acceptable psychometric properties, making it a valid and reliable tool to control the visual health of computer workers, and can potentially be used in clinical trials and outcome research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A novel and environment friendly analytical method is reported for total chromium determination and chromium speciation in water samples, whereby tungsten coil atomic emission spectrometry (WCAES) is combined with in situ ionic liquid formation dispersive liquid–liquid microextraction (in situ IL-DLLME). A two stage multivariate optimization approach has been developed employing a Plackett–Burman design for screening and selection of the significant factor involved in the in situ IL-DLLME procedure, which was later optimized by means of a circumscribed central composite design. The optimum conditions were complexant concentration: 0.5% (or 0.1%); complexant type: DDTC; IL anion: View the MathML sourcePF6−; [Hmim][Cl] IL amount: 60 mg; ionic strength: 0% NaCl; pH: 5 (or 2); centrifugation time: 10 min; and centrifugation speed: 1000 rpm. Under the optimized experimental conditions the method was evaluated and proper linearity was obtained with a correlation coefficient of 0.991 (5 calibration standards). Limits of detection and quantification for both chromium species were 3 and 10 µg L−1, respectively. This is a 233-fold improvement when compared with chromium determination by WCAES without using preconcentration. The repeatability of the proposed method was evaluated at two different spiking levels (10 and 50 µg L−1) obtaining coefficients of variation of 11.4% and 3.6% (n=3), respectively. A certified reference material (SRM-1643e NIST) was analyzed in order to determine the accuracy of the method for total chromium determination and 112.3% and 2.5 µg L−1 were the recovery (trueness) and standard deviation values, respectively. Tap, bottled mineral and natural mineral water samples were analyzed at 60 µg L−1 spiking level of total Cr content at two Cr(VI)/Cr(III) ratios, and relative recovery values ranged between 88% and 112% showing that the matrix has a negligible effect. To our knowledge, this is the first time that combines in situ IL-DLLME and WCAES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Measurement of joint kinematics can provide knowledge to help improve joint prosthesis design, as well as identify joint motion patterns that may lead to joint degeneration or injury. More investigation into how the hip translates in live human subjects during high amplitude motions is needed. This work presents a design of a non-invasive method using the registration between images from conventional Magnetic Resonance Imaging (MRI) and open MRI to calculate three dimensional hip joint kinematics. The method was tested on a single healthy subject in three different poses. MRI protocols for the conventional gantry, high-resolution MRI and the open gantry, lowresolution MRI were developed. The scan time for the low-resolution protocol was just under 6 minutes. High-resolution meshes and low resolution contours were derived from segmentation of the high-resolution and low-resolution images, respectively. Low-resolution contours described the poses as scanned, whereas the meshes described the bones’ geometries. The meshes and contours were registered to each other, and joint kinematics were calculated. The segmentation and registration were performed for both cortical and sub-cortical bone surfaces. A repeatability study was performed by comparing the kinematic results derived from three users’ segmentations of the sub-cortical bone surfaces from a low-resolution scan. The root mean squared error of all registrations was below 1.92mm. The maximum range between segmenters in translation magnitude was 0.95mm, and the maximum deviation from the average of all orientations was 1.27◦. This work demonstrated that this method for non-invasive measurement of hip kinematics is promising for measuring high-range-of-motion hip motions in vivo.