894 resultados para Validação : Métodos de análise de fármacos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nas últimas décadas, a produção de suínos, pressionada por uma crescente demanda por alimentos, tem-se caracterizado pela maior concentração de animais em grandes unidades de produção, dificultando o registro dos dados individuais. Os sistemas automáticos de identificação eletrônica podem auxiliar a detecção de doenças, a avaliação de respostas fisiológicas, o controle de ingestão de alimentos, a atividade física e ainda o impacto ambiental causado pelo sistema de produção, promovendo melhor controle da propriedade. Transponders injetáveis, brincos eletrônicos e o monitoramento por meio da análise de imagem estão sendo utilizados no processo de identificação. O objetivo desta pesquisa foi avaliar os diferentes locais de implante subcutâneo de microchips em leitões, verificando-se possíveis infecções e/ou rejeições, migrações dos microchips em relação ao local de implante e sua validação em relação à análise de imagem.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciências Farmacêuticas - FCFAR

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para o estudo da ambiguidade na interpretação de dados geofísicos. Várias soluções alternativas, representativas da região de maior ambiguidade no espaço de parâmetros são obtidas, sendo posteriormente grupadas e ordenadas pela análise fatorial modo Q. Esta metodologia foi aplicada a dados sintéticos de campo potencial simulando-se causas de ambiguidade como discretização e truncamento da anomalia e a presença de ruídos aleatório e geológico. Um único prisma foi usado como modelo interpretativo, sendo a espessura a principal causa de ambiguidade tanto na gravimetria como na magnetometria. Segue-se a profundidade do topo sempre associada à espessura, quando o sinal da anomalia é alto. Quando a anomalia tem sinal baixo, a largura torna-se o segundo parâmetro mais importante, também associada à espessura. Ao contrário da presença de interferências geológicas, a presença de ruído aleatório nos campos, não é fator importante na ambiguidade. A aplicação da metodologia a dados reais ilustra o papel desta análise na caracterização de soluções alternativas e a importância da informação a priori na caracterização das causas de ambiguidade. A metodologia apresentada pode ser empregada em diversos estágios de um programa de prospecção fornecendo em cada estágio uma análise dos principais fatores causadores da ambiguidade, que poderá ser util no planejamento dos estágios seguintes. Comparada a outros métodos de análise de ambiguidade, como por exemplo regiões de confiança, a metodologia estudada destaca-se por não precisar satisfazer premissas estatísticas sobre a distribuição dos erros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A energia dos ventos é uma abundante fonte de energia renovável, limpa e disponível em quase todos os lugares. A geração da eletricidade através de fontes alternativas de energia como a eólica e a solar ganha grande importância diante da situação mundial em relação à preservação do meio ambiente e da necessidade de depender menos dos combustíveis fósseis como fontes de energia. No Brasil, algumas medidas precisas de vento, realizadas recentemente em diversos pontos do território nacional, indicam a existência de um imenso potencial eólico ainda não explorado. Para tanto se faz necessário estudos e revisões bibliográficas dos métodos de descrição e dimensionamento do regime eólico bem como as suas aplicações. Para isso foi feito uma análise do recurso eólico disponível na Região de Botucatu, utilizando os principais métodos de análise estatística e de determinação da energia produzida por um aerogerador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As técnicas de cultivo sem solo representam novas alternativas para a produção de alimentos. Dentre estas, a hidroponia tem crescido muito ultimamente devido ao fato de, principalmente, apresentar altas produtividades, além de inúmeras vantagens em relação ao cultivo em solo. Entretanto, alguns pontos específicos no processo podem ser considerados questionáveis. Problemas relacionados ao manejo da solução nutritiva, em muitos casos, podem gerar tanto problemas produtivos como ambientais. Dessa forma o entendimento da marcha de nutrientes da solução nutritiva se torna imprescindível no sentido de minimizar tais problemas. Baseado nestas considerações, o presente trabalho teve como objetivos: a realização de revisões bibliográficas dos principais métodos de análise dos nutrientes presentes em soluções hidropônicas; a descrição e proposição de utilização dos métodos de espectrofotometria colorimétrica, de absorção e emissão atômica para análise da solução; a realização de revisões bibliográficas de trabalhos, realizados por diversos autores, relacionados às análises de soluções hidropônicas; a discussão dos problemas ambientais que esta atividade pode causar. Os principais métodos considerados foram: espectrofotometria colorimétrica, espectrofotometria de absorção e emissão atômica, cromatografia iônica e eletroforese capilar. Através da revisão dos estudos realizados com soluções hidropônicas, pôde-se observar uma predominância na utilização das técnicas relacionadas acima, para a análise dos nutrientes. O manejo da solução hidropônica pode levar à ocorrência de certos problemas. Os descartes sucessivos das soluções nas áreas adjacentes à produção acarretam em desperdício de água e fertilizantes, e causam a salinização dos solos. Neste processo o solo torna-se estéril e assim, inapropriados para o cultivo. Desta forma, a proposta final deste trabalho é propiciar uma base teórica inicial para que futuros estudos possam ser direcionados ao desenvolvimento de novas técnicas de análise em campo que produzam resultados confiáveis, e desta forma colaborarem com a minimização dos problemas relacionados à produção e ao meio ambiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Passarelas de pedestres com arquitetura moderna, esbeltas e leves são uma constante nos dias atuais, apresentando grandes vãos e novos materiais. Este arrojo arquitetônico tem gerado inúmeros problemas de vibrações excessivas, especialmente sobre passarelas mistas (aço-concreto). As normas e recomendações de projeto consideram, ainda, que as forças induzidas pelo caminhar humano são determinísticas. Todavia, o caminhar humano e as respectivas forças dinâmicas geradas apresentam comportamento randômico. Deste modo, o presente trabalho de pesquisa objetiva contribuir com os projetistas estruturais, a partir do emprego de uma abordagem probabilística para avaliação do estado limite de utilização deste tipo de estrutura, associado a vibrações excessivas que podem vir a causar desconforto humano. Para tal, utiliza-se como modelo estrutural uma passarela de pedestres mista (aço-concreto) construída no campus do Instituto de Traumatologia e Ortopedia (INTO), na cidade do Rio de Janeiro. Com base na utilização dos métodos probabilísticos, torna-se possível determinar a probabilidade dos valores das acelerações de pico da estrutura ultrapassarem ou não os critérios de conforto humano estabelecidos em normas e recomendações de projeto. Os resultados apontam para o fato de que os valores das acelerações de pico calculadas com base exclusivamente nos métodos determinísticos podem ser superestimados em algumas situações de projeto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A detecção de clusters de doenças é um desafio para a saúde pública e principalmente para elucidação da ocorrência de surtos, visto que surtos epidemiológicos são usualmente definidos como aglomeração de casos. As revisões da literatura disponíveis sobre a indicação de qual técnica de análise espacial (TAE) é apropriada para essa tarega se limitam a indicar a escolha das técnicas considerando os tipos de dados, o tipo de cluster e a medida da doença. São raras as diretrizes que sugerem o uso de TAE em investigações de surtos . É um estudo metodológico exploratório, com avaliação de métodos em duas etapas: (i) uma revisão narrativa do objeto da pesquisa e (ii) descrição e revisão crítica da aplicação das técnicas selecionadas na revisão narrativa. As técnicas consideradas de maior importância para investigação de surtos forma revisadas e descritas, incluindo técnicas dos tipos global, loca e focal. treze técnicas foram submetidas à revisão crítica e 14 perguntas relevantes para investigação de surtos foram apreciadas. A análise da capacidade de responta das técnicas selecionadas baseou-se nas características das técnicas e natureza das perguntas da investigação de surtos, buscando-se a equivalência da responta dada pelas técnicas de análise espacial em relação à responta que se pretende alcançar na pergunta da investigação. As técnicas forma classificadas quanto a quantidade de informação que elas fornecem para que a perunca seja respondida, indicando assim, a sua capacidade de responder , ou de responsividade. concluiu-se que as TAE podem contribuir para a investigação de surtos, uma vez que são capazes de responder algumas das perguntas de uma investigação. Todas as catorze perguntas estudadas forma respondidas em algum nível pelas treze técnicas revisadas. Técnicas espaço-temporais e puramente espaciais locais respondem ao maior número de perguntas. Já as espaço-temporais apresentam maior nível de responsividade às perguntas. As técnicas com menor número de perguntas respondidas forma as puramente espaciais focais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A noção de rede social e os métodos em análise em redes sociais (ARS) tem atraído considerável interesse e curiosidade para a comunidade científica nestas últimas décadas, assim como a crescente fascinação pública sobre as relações mais complexas da sociedade moderna. A ARS está baseada na importância de relações entre a interação de unidades. Numa análise de rede social a observação dos atributos sociais de um ator pode ser entendida como padrão ou como uma estrutura de relação entre as unidades. Desta forma, quando empregados a uma perspectiva de rede, é possível estudar os padrões de estruturas relacionais diretamente, sem referência a atributos dos indivíduos envolvidos. Na análise convencional de redes sociais a distância geográfica (ou geoespacial) não tem efeito mapeado na rede. Quando utilizada, esta informação normalmente adquire caráter de um atributo complementar associado individualmente a cada ator (ou aglomerados de atores) da própria rede. O objetivo deste trabalho é demonstrar, numa escala local (de maneira mais granular) como o posicionamento geoespacial dos atores, considerado como elementos da rede, pode desvendar aspectos significativos do comportamento destes que não seriam revelados em análises convencionais. No estudo de caso utilizou-se ainda conceitos de outras disciplinas, como a Matemática e a Física, para verificar a capilaridade do fluxo da informação da rede em três perspectivas distintas: a social, a espacial e a socioespacial. O trabalho descreve o campo emergente de pesquisa em ARS, abordando também questões fundamentais sobre como estas diferentes perspectivas podem trazer resultados mais assertivos para orientar uma tomada de decisão no mercado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mudanças marcantes no perfil geográfico eleitoral do Brasil, no que diz respeito às eleições para Presidente da República, aconteceram no ano de 2006. Candidatos do Partido dos Trabalhadores (PT) que antes eram bem votados em regiões mais desenvolvidas do país, passaram a ganhar as eleições, com grande margem de preferência, nas regiões mais pobres do país. Entenda por regiões mais pobres as regiões Norte e Nordeste. Esse trabalho pretende traçar um histórico da relação eleitoral da Região Nordeste do Brasil com os candidatos do Partido dos Trabalhadores ao cargo de Presidente da República desde a redemocratização. O objetivo é entender a relação entre a opção de voto em candidatos desse partido e o desenvolvimento socioeconômico ao longo do tempo da região, levando em consideração também o programa Bolsa Família para tentar comprovar a sua racionalidade. Além disso, este trabalho faz um estudo de caso da votação da cidade de Viçosa do Ceará para exemplificar o fato de que a indução do voto para candidatos de âmbito federal por representantes locais não é mais a regra da região e sim a exceção. A investigação usa análise bibliográfica, histórica e métodos de análise estatística, principalmente, técnicas de análise espacial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os métodos de análise não destrutiva vêm sendo largamente empregados na área de Arqueometria. Estes métodos analisam artefatos históricos e obras de arte fornecendo informações da composição, das técnicas utilizadas e do local de manufatura da época. Assim, é possível fazer a datação, estabelecer a autenticidade e avaliar técnicas de conservação e restauração. A Fluorescência de Raios X por Dispersão de Energia (EDXRF) é um método que permite fazer análises quantitativas e qualitativas multielementares dos artefatos de forma não destrutiva. Neste estudo foram analisados artefatos compostos por ouro de diferentes épocas através da técnica de Fluorescência de Raios X por Dispersão em Energia (EDXRF). Dentre os artefatos, encontram-se brincos, pingentes, estatuetas e adornos de roupa cedidos pelo Instituto de Pesquisa Histórica e Arqueológica do Rio de Janeiro (IPHARJ). As análises foram realizadas através do sistema comercial ARTAX 200. Este sistema possui ânodo de Molibdênio. Foi utilizado um filtro de alumínio com 315 μm de espessura e foi operado em 40 kV, 250 μA com 300 s de aquisição. As concentrações de Cu, Au e Ag foram obtidas através da curva de calibração feita com padrões de ouro de 24k, 18k, 16k, 14k, 12k e 10k. Os resultados mostram que todas as peças contêm ligas metálicas e ouro em diferentes concentrações em sua composição. A partir das diferenças nas concentrações de ouro, foi possível classificar as peças quanto à pureza do ouro (quilatagem). Além disso, foi possível estimar a época em que estas peças foram manufaturadas a partir da comparação dos resultados encontrados com aqueles encontrados na literatura.