934 resultados para Semi-2D HMM


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Paulinia acuminata (Orthoptera: Pauliniidac) desenvolve todo seu ciclo vital em macrófitas aquáticas. Entre 17 macrófitas e 5 hortaliças testadas, a oviposição foi constatada somente em Salvinaceae (Salvinia auriculata, S. minima, S. sprucei, Azolla cf. microphylla e Araceae (Pistia stratiotes). O período médio de incubação, em laboratório, foi de 18,7 (+/- 1,8) dias, com uma média de 7,3 (+/- 2,8) ovos por postura. O desenvolvimento dos seis estádios ninfais durou 47,12 (+/-1,2) dias. O ciclo de vida completo, ovo-adulto, foi de 93,2 dias sob uma temperatura do ar em torno dc 29 °C. Observações etológicas de laboratório e de campo são apresentadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo comparou os níveis plasmáticos de glicose, proteínas totais, uréia, triglicerídeos e colesterol, a contagem de eritrócitos, leucócitos e trombócitos entre alevinos e juvenis de Arapaima gigas (Osteoglociformes, Arapaimidae) de uma piscicultura semi-intensiva de Manaus, estado do Amazonas, Brasil. Os alevinos de A. gigas apresentaram níveis significativamente (p<0,05) menores de proteínas totais, triglicerídeos, uréia e Volume Corpuscular Médio (VCM) e maior concentração de glicose, colesterol e hemoglobina, contagem de eritrócitos, hematócrito e Concentração da Hemoglobina Corpuscular Média (CHCM) quando comparados aos juvenis. Porém, não houve diferença significativa (p>0,05) no número de trombócitos e leucócitos totais entre alevinos e juvenis. Os juvenis de A. gigas apresentaram menor quantidade de linfócitos e maior quantidade de monócitos, neutrófilos e eosinófilos, quando comparados aos alevinos. Em estudos futuros, espécimes de A. gigas com outras idades também deverão ser comparados para melhor entendimento dos efeitos da idade neste peixe amazônico, pois estas informações, além de possibilitarem uma melhor compreensão da fisiologia desta espécie, poderão auxiliar no estabelecimento de estratégias para seu manejo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Validar um novo método de escore visual semi-quantitativo contra a planimetria digital quantitativa para a determinação da massa infartada do ventrículo esquerdo pela ressonância magnética cardíaca com técnica de realce tardio. MÉTODO: Estudados 77 pacientes com infarto miocárdico prévio em aparelho de ressonância magnética de 1,5T utilizando técnica de realce tardio para avaliação da viabilidade miocárdica e cálculo da massa infartada. Para avaliação da função ventricular esquerda pelo método de Simpson utilizamos técnica de cine-ressonância. O cálculo da massa infartada foi realizado nas imagens de realce tardio de duas formas: planimetria e método de escore. Utilizamos métodos de regressão linear simples, correlação e concordância entre métodos e observadores segundo a análise de Bland-Altman. RESULTADOS: Em todos os 77 pacientes as áreas de infarto foram detectadas pela ressonância magnética cardíaca utilizando a técnica de realce tardio. O tamanho do infarto medido pela planimetria foi semelhante ao obtido pelo método de escore, com a média das diferenças entres as medidas de apenas 1,03% da massa do ventrículo esquerdo. As variabilidades inter (0,41%) e intra-observador (0,34%) evidenciaram excelente reprodutibilidade do método de escore. A massa infartada apresentou boa correlação com a fração de ejeção e volumes distólico e sistólico finais indexados, r=-0,76, r=0,63 e r=0,67, respectivamente. CONCLUSÃO: A avaliação de pacientes com infarto agudo do miocárdio prévio pela ressonância magnética cardíaca, utilizando a técnica de realce tardio, permite a determinação reprodutível do tamanho do infarto, tanto pelo método de planimetria, quanto pelo modelo semi-quantitativo de escore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Surgeons may use a number of cutting instruments such as osteotomes and chisels to cut bone during an operative procedure. The initial loading of cortical bone during the cutting process results in the formation of microcracks in the vicinity of the cutting zone with main crack propagation to failure occuring with continued loading. When a material cracks, energy is emitted in the form of Acoustic Emission (AE) signals that spread in all directions, therefore, AE transducers can be used to monitor the occurrence and development of microcracking and crack propagation in cortical bone. In this research, number of AE signals (hits) and related parameters including amplitude, duration and absolute energy (abs-energy) were recorded during the indentation cutting process by a wedge blade on cortical bone specimens. The cutting force was also measured to correlate between load-displacement curves and the output from the AE sensor. The results from experiments show AE signals increase substantially during the loading just prior to fracture between 90% and 100% of maximum fracture load. Furthermore, an amplitude threshold value of 64dB (with approximate abs-energy of 1500 aJ) was established to saparate AE signals associated with microcracking (41 – 64dB) from fracture related signals (65 – 98dB). The results also demonstrated that the complete fracture event which had the highest duration value can be distinguished from other growing macrocracks which did not lead to catastrophic fracture. It was observed that the main crack initiation may be detected by capturing a high amplitude signal at a mean load value of 87% of maximum load and unsteady crack propagation may occur just prior to final fracture event at a mean load value of 96% of maximum load. The author concludes that the AE method is useful in understanding the crack initiation and fracture during the indentation cutting process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This project was funded under the Applied Research Grants Scheme administered by Enterprise Ireland. The project was a partnership between Galway - Mayo Institute of Technology and an industrial company, Tyco/Mallinckrodt Galway. The project aimed to develop a semi - automatic, self - learning pattern recognition system capable of detecting defects on the printed circuits boards such as component vacancy, component misalignment, component orientation, component error, and component weld. The research was conducted in three directions: image acquisition, image filtering/recognition and software development. Image acquisition studied the process of forming and digitizing images and some fundamental aspects regarding the human visual perception. The importance of choosing the right camera and illumination system for a certain type of problem has been highlighted. Probably the most important step towards image recognition is image filtering, The filters are used to correct and enhance images in order to prepare them for recognition. Convolution, histogram equalisation, filters based on Boolean mathematics, noise reduction, edge detection, geometrical filters, cross-correlation filters and image compression are some examples of the filters that have been studied and successfully implemented in the software application. The software application developed during the research is customized in order to meet the requirements of the industrial partner. The application is able to analyze pictures, perform the filtering, build libraries, process images and generate log files. It incorporates most of the filters studied and together with the illumination system and the camera it provides a fully integrated framework able to analyze defects on printed circuit boards.