981 resultados para QSAR-2D
Resumo:
Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.
Resumo:
Rupture of aortic aneurysms (AA) is a major cause of death in the Western world. Currently, clinical decision upon surgical intervention is based on the diameter of the aneurysm. However, this method is not fully adequate. Noninvasive assessment of the elastic properties of the arterial wall can be a better predictor for AA growth and rupture risk. The purpose of this study is to estimate mechanical properties of the aortic wall using in vitro inflation testing and 2D ultrasound (US) elastography, and investigate the performance of the proposed methodology for physiological conditions. Two different inflation experiments were performed on twelve porcine aortas: 1) a static experiment for a large pressure range (0 – 140 mmHg); 2) a dynamic experiment closely mimicking the in vivo hemodynamics at physiological pressures (70 – 130 mmHg). 2D raw radiofrequency (RF) US datasets were acquired for one longitudinal and two cross-sectional imaging planes, for both experiments. The RF-data were manually segmented and a 2D vessel wall displacement tracking algorithm was applied to obtain the aortic diameter–time behavior. The shear modulus G was estimated assuming a Neo-Hookean material model. In addition, an incremental study based on the static data was performed to: 1) investigate the changes in G for increasing mean arterial pressure (MAP), for a certain pressure difference (30, 40, 50 and 60 mmHg); 2) compare the results with those from the dynamic experiment, for the same pressure range. The resulting shear modulus G was 94 ± 16 kPa for the static experiment, which is in agreement with literature. A linear dependency on MAP was found for G, yet the effect of the pressure difference was negligible. The dynamic data revealed a G of 250 ± 20 kPa. For the same pressure range, the incremental shear modulus (Ginc) was 240 ± 39 kPa, which is in agreement with the former. In general, for all experiments, no significant differences in the values of G were found between different image planes. This study shows that 2D US elastography of aortas during inflation testing is feasible under controlled and physiological circumstances. In future studies, the in vivo, dynamic experiment should be repeated for a range of MAPs and pathological vessels should be examined. Furthermore, the use of more complex material models needs to be considered to describe the non-linear behavior of the vascular tissue.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
Surgeons may use a number of cutting instruments such as osteotomes and chisels to cut bone during an operative procedure. The initial loading of cortical bone during the cutting process results in the formation of microcracks in the vicinity of the cutting zone with main crack propagation to failure occuring with continued loading. When a material cracks, energy is emitted in the form of Acoustic Emission (AE) signals that spread in all directions, therefore, AE transducers can be used to monitor the occurrence and development of microcracking and crack propagation in cortical bone. In this research, number of AE signals (hits) and related parameters including amplitude, duration and absolute energy (abs-energy) were recorded during the indentation cutting process by a wedge blade on cortical bone specimens. The cutting force was also measured to correlate between load-displacement curves and the output from the AE sensor. The results from experiments show AE signals increase substantially during the loading just prior to fracture between 90% and 100% of maximum fracture load. Furthermore, an amplitude threshold value of 64dB (with approximate abs-energy of 1500 aJ) was established to saparate AE signals associated with microcracking (41 – 64dB) from fracture related signals (65 – 98dB). The results also demonstrated that the complete fracture event which had the highest duration value can be distinguished from other growing macrocracks which did not lead to catastrophic fracture. It was observed that the main crack initiation may be detected by capturing a high amplitude signal at a mean load value of 87% of maximum load and unsteady crack propagation may occur just prior to final fracture event at a mean load value of 96% of maximum load. The author concludes that the AE method is useful in understanding the crack initiation and fracture during the indentation cutting process.
Resumo:
1
Resumo:
3
Resumo:
2
Resumo:
FUNDAMENTO: A ecocardiografia consiste em método muito útil para seleção e avaliação de resposta à terapia de ressincronização cardíaca (TRC). O eco 3D já tem seu papel estabelecido na avaliação dos volumes ventriculares e fração de ejeção ventricular esquerda (FEVE) com excelente correlação de resultados quando comparado à RNM. OBJETIVO: Comparar a avaliação dos volumes ventriculares (VDVE, VSVE), FEVE e massa do VE antes e após a TRC pela ecocardiografia bi (Eco 2D) e tridimensional (Eco 3D). MÉTODOS: Foram avaliados 24 pacientes com IC CFIII ou IV (NYHA), ritmo sinusal QRS > 150 ms, em vigência de terapêutica otimizada para IC submetidos a TRC. Foram realizados eletrocardiograma (ECG), avaliação clínica, Eco 2D e 3D antes, três e seis meses após a TRC. A comparação entre as técnicas foi realizada utilizando-se a correlação de Pearson (r). RESULTADOS: No momento basal, a correlação entre os métodos foi de 0,96 para avaliação do VDVE, 0,95 para avaliação do VSVE, 0,87 para FEVE, e 0,72 para massa do VE. Após três meses da TRC, a correlação entre os métodos para análise do VDVE foi de 0,96, 0,95 para VSVE, 0,95 para FEVE, e 0,77 para massa do VE. Após seis meses da TRC, a correlação entre o Eco 2D e 3D para análise do VDVE foi de 0,98, 0,91 para VSVE, 0,96 para FEVE, e 0,85 para massa do VE. CONCLUSÃO: Neste estudo foi observada redução dos VDVE,VSVE, além de melhora da FEVE após a TRC. Houve excelente correlação entre o Eco 2D e o 3D para avaliação dos volumes ventriculares e FEVE, e boa correlação entre os métodos para avaliação da massa ventricular esquerda antes e após a TRC.
Resumo:
feature extraction, feature tracking, vector field visualization
Resumo:
Abstract The assessment of left atrial (LA) function is used in various cardiovascular diseases. LA plays a complementary role in cardiac performance by modulating left ventricular (LV) function. Transthoracic two-dimensional (2D) phasic volumes and Doppler echocardiography can measure LA function non‑invasively. However, evaluation of LA deformation derived from 2D speckle tracking echocardiography (STE) is a new feasible and promising approach for assessment of LA mechanics. These parameters are able to detect subclinical LA dysfunction in different pathological condition. Normal ranges for LA deformation and cut-off values to diagnose LA dysfunction with different diseases have been reported, but data are still conflicting, probably because of some methodological and technical issues. This review highlights the importance of an unique standardized technique to assess the LA phasic functions by STE, and discusses recent studies on the most important clinical applications of this technique.
Resumo:
1
Resumo:
2