266 resultados para Automação - Aplicações industriais
Resumo:
A praga de goiabeira que tem requerido maior frequência de controle, na região de Jaboticabal-SP, nos últimos anos, é o psilídeo Triozoida limbata. Assim, esta pesquisa objetivou: a) Comparar táticas de controle de T. limbata baseadas no monitoramento e na seletividade de inseticidas, visando a diminuir as aplicações; b) Registrar e correlacionar os inimigos naturais habitantes no agroecossistema goiabeira com a praga-chave e com fatores meteorológicos; c) Constatar se o controle de T. limbata afeta a população de moscas-das-frutas, e d) Verificar a eficiência de inseticidas adequados ao MIP, no controle de T. limbata. O experimento foi conduzido com a cultivar Paluma, em 2004, no município de Vista Alegre do Alto-SP. As estratégias utilizadas foram (doses em g.i.a./100L de água): testemunha; imidacloprid (4,0); imidacloprid + beta-cyfluthrin (2,5 + 0,3); acetamiprid (4,0); fenpropathrin (15,0), e tratamento convencional regional. Através dos resultados, conclui-se que é possível diminuir o número de aplicações e utilizar inseticidas menos agressivos ao meio ambiente e ao homem, com a adoção do monitoramento de T. limbata e aplicação no nível de ação. As densidades populacionais dos inimigos naturais (Scymnus spp., Cycloneda sanguinea, Azia luteipes, Crysoperla spp., Polybia spp., Brachygastra spp.) apresentam correlações positivas com as densidades populacionais de T. limbata. As flutuações populacionais de T. limbata e dos inimigos naturais não são alteradas pelos fatores meteorológicos (precipitação e temperatura), em pomar irrigado. A população de Anastrepha spp. é minimizada quando as aplicações são para controlar T. limbata. Os inseticidas imidacloprid, imidacloprid + beta-cyfluthrin, acetamiprid e fenpropathrin são eficientes no controle de T. limbata.
Resumo:
Na mamografia digital, os processos de aquisição da imagem, demonstração e armazenamento são separados, o que leva à otimização de cada uma dessas etapas. A radiação transmitida através da mama é absorvida por um detector eletrônico, em resposta fiel a uma ampla variedade de intensidades. Uma vez que esta informação é armazenada, ela pode ser demonstrada usando técnicas computadorizadas de imagem, permitindo variações de brilho e contraste e ampliação, sem a necessidade de exposições radiológicas adicionais para a paciente. Neste artigo, o estado atual da tecnologia em mamografia digital e dados sobre testes clínicos que dão suporte ao uso dessa tecnologia são revistos. Além disso, algumas aplicações potencialmente utilizáveis que estão sendo desenvolvidas com a mamografia digital são descritas.
Resumo:
Nos últimos anos a ultra-sonografia tridimensional tem-se tornado um método de imagem de grande importância no diagnóstico em obstetrícia. Um de seus benefícios seria a maior sensibilidade, em relação ao ultra-som bidimensional, no diagnóstico de algumas malformações fetais. As potenciais aplicações desse novo método seriam uma maior acurácia na medida do volume de órgãos fetais, a possibilidade de rever volumes na ausência da paciente, a possibilidade de utilizar diferentes planos para avaliar determinada estrutura anatômica e a capacidade de transmissão de volumes para centros de referência. A avaliação ultra-sonográfica do cerebelo fetal é de extrema importância, pois, comprovadamente, alterações no seu desenvolvimento estão correlacionadas com alterações do crescimento fetal e anomalias congênitas. O objetivo desta atualização é demonstrar os métodos VOCAL™ e 3D XI™ na avaliação do cerebelo fetal, seus potenciais benefícios e o que há de mais atual na literatura a respeito deste assunto.
Resumo:
OBJETIVO: Comparar dados de dosimetria e fluência de fótons entre diferentes modelos de mama, discutindo as aplicações em testes de constância e estudos dosimétricos aplicados à mamografia. MATERIAIS E MÉTODOS: Foram simulados diferentes modelos homogêneos e um modelo antropomórfico de mama tipo voxel, sendo contabilizadas: a dose total absorvida no modelo, a dose absorvida pelo tecido glandular/material equivalente, e a dose absorvida e a fluência de fótons em diferentes profundidades dos modelos. Uma câmara de ionização simulada coletou o kerma de entrada na pele. As combinações alvo-filtro estudadas foram Mo-30Mo e Mo-25Rh, para diferentes potenciais aceleradores de 26 kVp até 34 kVp. RESULTADOS: A dose glandular normalizada, comparada ao modelo voxel, resultou em diferenças entre -15% até -21% para RMI, -10% para PhantomMama e 10% para os modelos Barts e Keithley. A variação dos valores da camada semirredutora entre modelos foi geralmente inferior a 10% para todos os volumes sensíveis. CONCLUSÃO: Para avaliar a dose glandular normalizada e a dose glandular, em mamas médias, recomenda-se o modelo de Dance. Os modelos homogêneos devem ser utilizados para realizar testes de constância em dosimetria, mas eles não são indicados para estimar a dosimetria em pacientes reais
Resumo:
DWI é uma técnica totalmente não invasiva que tem sido utilizada com sucesso por muitos anos em imagens do cérebro e recentemente incluída como parte da avaliação de outros sistemas, por exemplo, no abdome e pelve e na cabeça e pescoço. Apesar de a DWI e a medida dos valores de ADC serem capazes de fornecer informações de tipos histológicos específicos de tumores, a maioria dos centros de imagem ainda não os adotaram como parte da rotina na avaliação da cabeça e pescoço. A medida de ADC demonstrou ser útil para discriminar tipos específicos de tumores histológicos, especialmente para diferenciar lesões benignas sólidas de massas malignas, importante na avaliação de linfonodos cervicais, principalmente para diferenciar processos nodais benignos de malignos, para diferenciar as alterações pós-radioterapia de tumor residual e ter uso potencial para predizer sucesso terapêutico. Além disso, DWI/ADC parece ser um método mais seguro e mais acessível, considerando a ausência de radiação ionizante e ao maior custo do FDG-PET na localização de tumores e diferenciar massas benignas de malignas. Com todas essas vantagens e potencialidades, DWI/ADC certamente fará parte da rotina na avaliação por imagem da cabeça e pescoço.
Resumo:
Novas técnicas de exames têm sido desenvolvidas com o objetivo de se obter não apenas uma avaliação estrutural, mas também uma análise funcional e metabólica de diversos órgãos e tipos de lesões. Entre estas ferramentas, a perfusão por tomografia computadorizada (PTC) tem despertado o interesse de muitos pesquisadores em estudar a sua aplicabilidade em órgãos e doenças abdominais. Entre estas aplicações podemos citar a avaliação do comportamento biológico de tecidos sadios e doentes, a diferenciação de processos inflamatórios de tumorais e o diagnóstico da recidiva tumoral após terapêuticas minimamente invasivas. A principal característica da PTC reside na sua capacidade de caracterizar comportamentos perfusionais distintos e que traduzem alterações biológicas de determinadas lesões e tecidos doentes. Dessa forma, o nosso objetivo foi realizar uma ampla revisão da literatura, mostrando as principais técnicas e protocolos utilizados nos exames de PTC, as principais indicações, vantagens e desvantagens do método, além de propor um protocolo de exame que possa ser introduzido na rede privada e pública de saúde, com reprodutibilidade e simplicidade de implementação.
Resumo:
OBJETIVO: Apresentar uma ferramenta de análise de dados que pode ser utilizada para proteção de pacientes e trabalhadores em áreas de uso de equipamentos móveis. MATERIAIS E MÉTODOS: Foi desenvolvida uma ferramenta, em planilha ativa Excel®, que utiliza medidas de exposição para gerar um banco de dados de fatores de forma e calcular o kerma no ar ao entorno de um leito. O banco de dados inicial foi coletado com três equipamentos móveis. Um espalhador não antropomórfico foi utilizado, sendo realizadas medidas de exposição em uma malha de (4,2 × 4,2) m², ao passo de 0,3 m. RESULTADOS: A ferramenta calcula o kerma no ar (associado à exposição de pacientes expostos e ao equivalente de dose ambiente) à radiação secundária. Para distâncias inferiores a 60,0 cm, valores acima do limite máximo de equivalente de dose ambiente definido para área livre (0,5 mSv/ano) foram verificados. Os dados coletados a 2,1 m foram sempre inferiores a 12% do referido limite. CONCLUSÃO: A ferramenta é capaz de auxiliar na proteção radiológica de pacientes e trabalhadores, quando associada à coleta de dados adequada, pois possibilita a determinação de áreas livres ao entorno de leitos em áreas onde equipamentos móveis geradores de radiação X são utilizados.
Resumo:
Several methodologies for the generation of oxyallyl cations from polybromoketones and other substrates are discussed. The mechanistic aspect of the [3+4] cycloaddition reaction between these cations and dienes leading to the formation of seven membered ring carbocyclic compounds is presented. Finally, some synthetic applications of the [3+4] cycloaddition are shown.
Resumo:
The importance of chromatographic separation of enantiomers has been acknowledged. This review surveys the development, application and perspectives of polysaccharide carbamates as chiral stationary phase for HPLC.
Resumo:
This paper reviews the history of Hg contamination in Brazil by characterizing and quantifying two major sources of Hg emissions to the environment: industrial sources and gold mining. Industry was responsible for nearly 100% of total Hg emissions from the late 1940's to the early 1970's, when efficient control policies were enforced, leading to a decrease in emissions. Gold mining, on the other hand was nearly insignificant as a Hg source up to the late 1970's, but presently is responsible for over 80% of total emissions. Presently, over 115 tons of Hg are released into the atmosphere in Brazil annually. Nearly 78 tons come from gold mining operations, 12 tons come from chlor-alkali industry and 25 tons come from all other industrial uses. Inputs to soils and waters however, are still unknown, due to lack of detailed data base. However, emissions from diffuse sources rather than well studied classical industrial sources are probably responsible for the major inputs of mercury to these compartments.
Resumo:
The Potentiometric Stripping Analysis (PSA) is described with emphasis on ultramicroelectrode applications with a laboratory developed computer based instrumentation. The technique potentialities as compared with the voltammetric approach are pointed out based on the current literature. Some results of trace metals analysis including zinc, cadmium, lead and copper in vinegar and canned food samples are presented. The mainly advantage found in our laboratory was the technique capability to analyse natural samples with minimum matrix interference and the low level of noise found in our determinations.
Resumo:
Capillary electrophoresis (CE) encompasses a number of characteristics quite suitable for the simultaneous analysis of small ions such as high efficiency and resolving power, directly associated to its impressively high peak capacity, and short analysis time. In appropriate conditions, it is possible to perform the separation of approximately 36 anions in less than 3 minutes. In this work, the mechanisms by which anion analysis is performed was criteriously discussed, and a thorough review of the literature in the past 5 years, focusing mostly in applications of CE to anion analysis in real matrices, was presented.
Resumo:
A review is given about the most relevant advances on the analytical applications of conducting polymers in potentiometric sensors. These organic polymers represent a new class of materials with conducting properties due to its doping by ions. Several polymers already were synthesized such as polypyrrole, polyaniline, polythiophene, among others. Particular attention is devoted to the main advantages supplied by ion selective electrodes and gas sensors using conducting polymers, as well as the incorporation of bioactive elements in these polymers for the construction of biosensors. The correlation between structure, stability and ability to ion exchange of some conducting polymers applied as potentiometric transducers, is discussed.
Resumo:
This paper describes the theoretical basis and the experimental requirements for the application of the Taylor dispersion technique for measurements of diffusion coefficients in liquids, emphasizing its simplicity and accuracy in comparison to other usual techniques. Some examples are discussed describing the use of this methodology on studies of solute-solvent interactions, solute aggregation, solute partitioning into macromolecular systems and on the assessment of nanoparticles sizes.