999 resultados para Métodos inversos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho aplicamos métodos espectrais para a determinação da configuração inicial de três espaços-tempos contendo buracos negros. Para isto apresentamos primeiro a foliação do espaço-tempo em hipersuperfícies tridimensionais espaciais parametrizadas pela função temporal t. Este processo é chamado de decomposição 3+1 [2] [5]. O resultado deste processo são dois conjuntos de equações classificadas em equações de vínculo e evolução [4]. As equações de vínculo podem ser divididas em vínculos Hamiltoniano e dos momentos. Para a obtenção dos dados iniciais dos problemas estudados aqui, apenas a equação de vínculo Hamiltoniano será resolvida numericamente, pois as equações de vínculo dos momentos possuem solução analítica nestes casos. Uma pequena descrição dos métodos espectrais é apresentada, destacando-se os método de Galerkin, método pseudoespectral ou de colocação e método de Tau, que são empregados na resolução das equações de vínculo Hamiltoniano dos problemas estudados. Verificamos que os resultados obtidos neste trabalho superam aqueles produzidos por Kidder e Finn [15], devido a uma escolha diferente das funções de base, que aqui satisfazem uma das condições de contorno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas estruturais em suas variadas aplicações incluindo-se veículos espaciais, automóveis e estruturas de engenharia civil tais como prédios, pontes e plataformas off-shore, acumulam dano durante suas vidas úteis. Em muitas situações, tal dano pode não ser visualmente observado. Do ponto de vista da segurança e da performance da estrutura, é desejável monitorar esta possível ocorrência, localizá-la e quantificá-la. Métodos de identificação de sistemas, que em geral, são classificados numa categoria de Técnicas de Avaliação Não-Destrutivas, podem ser utilizados para esta finalidade. Usando dados experimentais tais como frequências naturais, modos de vibração e deslocamentos estáticos, e um modelo analítico estrutural, parâmetros da estrutura podem ser identificados. As propriedades estruturais do modelo analítico são modificadas de modo a minimizar a diferença entre os dados obtidos por aquele modelo e a resposta medida. Isto pode ser definido como um problema inverso onde os parâmetros da estrutura são identificados. O problema inverso, descrito acima, foi resolvido usando métodos globais de otimização devido à provável presença de inúmeros mínimos locais e a não convexidade do espaço de projeto. Neste trabalho o método da Evolução Diferencial (Differential Evolution, DE) foi utilizado como ferramenta principal de otimização. Trata-se de uma meta-heurística inspirada numa população de soluções sucessivamente atualizada por operações aritméticas como mutações, recombinações e critérios de seleção dos melhores indivíduos até que um critério de convergência seja alcançado. O método da Evolução Diferencial foi desenvolvido como uma heurística para minimizar funções não diferenciáveis e foi aplicado a estruturas planas de treliças com diferentes níveis de danos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devido a sua grande extensão latitudinal, a costa brasileira é influenciada por diferentes regimes climáticos e oceanográficos. Adicionalmente, a distribuição da população brasileira é caracterizada por uma alta concentração nas capitais litorâneas. Todos esses fatores levam à construção de inúmeras estruturas de engenharia que podem de alguma forma impactar o transporte de sedimento e consequentemente o balanço sedimentar de algumas praias. Uma das formas mais eficientes de recuperar esse balanço sedimentar é a alimentação artificial de praias, com sedimentos provenientes da plataforma continental com características semelhantes. Os métodos geofísicos acústicos permitem mapear de forma eficiente o fundo e o subfundo marinho para a busca de áreas fontes para a lavra de forma eficiente. O objetivo deste estudo é a identificação de padrões geoacústicos a partir de analises quantitativas e qualitativas, para a caracterização de áreas fontes de areias siliciclásticas compatíveis com sedimentos de praias em erosão na cidade do Rio de Janeiro. O mapeamento foi realizado na plataforma continental interna do Rio de Janeiro, em área adjacente à praia de Itaipuaçu (Maricá, RJ). As análises evidenciaram depósitos, localizados entre 19 e 30 metros, de areias com granulometria, textura e selecionamento em condições ideias para a recomposição de praias do Rio de Janeiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cirurgias ortognáticas bimaxilares representam um desafio para os cirurgiões, especialmente para reproduzir o plano de tratamento na sala operatória. O uso de guias cirúrgicos permite uma melhor reprodução do planejamento, mas, para isto, uma técnica precisa de cirurgia de modelos é essencial. O objetivo deste estudo é comparar a precisão do reposicionamento mandibular obtido com dois diferentes métodos de cirurgia de modelos utilizados para o planejamento de cirurgias bimaxilares com a seqüência cirúrgica invertida. Neste estudo, um crânio de resina foi utilizado para simular um paciente. As moldagens foram tomadas e os modelos foram vazados e montados em um articulador semi-ajustável por meio da transferência do arco-facial e do registro de mordida em cera. Traçados de previsão de 10 planos de tratamento diferentes foram feitos no software Dolphin Imaging e, então, reproduzidos com o método padrão (CM I) e método modificado (CM II) de cirurgia de modelos (T1). Para aprimorar a avaliação do reposicionamento mandibular, as cirurgias de modelo foram repetidas após um mês (T2). Os modelos mandibulares foram medidos na Plataforma de Erickson antes e depois do reposicionamento para contrastar os resultados. As diferenças no tempo de reposicionamento também foram registradas. Estatística descritiva e teste t foram usados para análisar os dados e comparar os resultados. Este estudo sugere que o reposicionamento vertical e látero-lateral dos modelos mandibulares foram semelhantes com ambos os métodos, entretanto, houve uma maior imprecisão no sentido ântero-posterior quando o método padrão de cirurgia modelos foi utilizado para o planejamento de cirurgias ortognáticas com a seqüência invertida. O tempo necessário para reposicionar o modelo mandibular no articulador semi-ajustável com a abordagem modificada (CM II) foi significativamente menor do que para reposicionar o modelo maxilar na Plataforma de Erickson (CM I).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho visa a investigar historicamente o uso de droga enquanto objeto de intervenção da Medicina e da Psiquiatria, a partir do início do século XX até os dias atuais, refletindo sobre a articulação e a cooperação entre essas duas instituições, inserindo o problema no panorama geral da questão no Brasil e no mundo. Para atingir esse objetivo, farse-á a análise de documentos produzidos ao longo do período referido nos dois âmbitos: documentos legais e as principais referências da bibliografia psiquiátrica. Assim, o principal foco do estudo é encontrar as convergências e divergências dos processos de medicalização e criminalização do uso de droga, dando especial atenção para o arranjo atual dessa problemática. Após a análise documental, far-se-á um contraponto das informações colhidas na pesquisa com alguns trabalhos genealógicos de Michel Foucault, pensando como este teórico pode ajudar a compreender o surgimento, a evolução e a configuração atual da questão da droga no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[es]El principal objetivo de este trabajo es la validación de métodos analíticos nuevos como son la determinación de amonio, nitrato y carbono orgánico total en muestras de aguas de estuario ya que no se han encontrado estudios para este tipo de muestras. A partir de este objetivo principal, se pretende, por un lado, comprobar la influencia de la diferente salinidad de las muestras en el desarrollo de métodos potenciométricos mediante ISE para la medida de nitrato y amonio y del equipo de TOC-VCSN para la determinación de carbono orgánico. Además, con la ayuda de cálculos estadísticos, determinar la incertidumbre asociada a la determinación de la concentración de amonio, nitrato y carbono orgánico en las muestras. Y, por último, analizar la posible variación de las muestras a lo largo del tiempo para comprobar su estabilidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.