28 resultados para étimo
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.
Resumo:
Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.
Resumo:
Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.
Resumo:
Neste estudo investigamos as consequências da restrição protéica materna durante a lactação sobre a resposta de timócitos da prole jovem de ratos Wistar (grupo D), identificando o papel da leptina nas alterações encontradas. Observamos que, quando comparados ao grupo controle, os animais do grupo D apresentaram, aos 30 dias de vida, uma diminuição significativa tanto do peso corporal quanto do timo. Contudo, não observamos alterações no número de timócitos, no perfil de células CD4/CD8 ou na resposta proliferativa destas células. Sistemicamente, o grupo D não apresentou alterações nos níveis séricos de corticosterona ou no conteúdo nuclear do seu receptor (GR) em timócitos. Apesar dos animais D não apresentarem alterações nos níveis circulantes de leptina, a expressão do seu receptor, ObRb, estava aumentada nos timócitos. Esta alteração foi acompanhada pela amplificação da resposta de sinalização da leptina nestas células, observada por um aumento na ativação de JAK2 e STAT3 após a incubação com leptina. Os timócitos isolados do grupo D apresentaram uma diminuição significativa na taxa de apoptose espontânea quando comparados ao grupo controle. Corroborando estes resultados, demonstramos que os timócitos dos animais D apresentam um aumento na expressão da proteína antiapoptótica Bcl-2 e uma redução da expressão da proteína próapoptótica Bax, além de um maior conteúdo de Pró-caspase-3, entretanto, não encontramos alterações no conteúdo de Bad. Além disso, timócitos do grupo D apresentaram um maior conteúdo da subunidade p65 do NFĸB no núcleo, associado a uma menor expressão de IĸBα no citoplasma. Finalmente, observamos um aumento na expressão do RNAm para o gene ob (leptina) mas não para o gene db (receptor) no microambiente tímico dos animais D. Em conjunto, nossos dados mostram que a restrição protéica durante a lactação afeta a homeostase tímica, induzindo uma maior atividade de leptina, que protege os timócitos da apoptose na prole jovem, sugerindo que esses animais poderiam ser mais suscetíveis a alterações na resposta imune na vida aduta.
Resumo:
Neste trabalho são apresentados os procedimentos de caracterização de um sistema comercial portátil de Fluorescência de Raios X por dispersão em energia, o ARTAX 200, bem com seu processo de calibração. O sistema é composto por um tubo de Raios X, com anodo de Molibdênio e um detector XFlash (Silicon Drift Detector) refrigerado por Efeito Peltier. O procedimento de caracterização do sistema foi realizado utilizando-se uma amostra de referência contendo Ferro e Cromo. Foram também usadas amostras certificadas (National Bureau of Standards) D840, D845, D846, D847 e D849 para a realização do processo de calibração do sistema para análise quantitativa. O processo de calibração foi realizado por três metodologias diferentes a fim de avaliar qual deles apresentaria melhores resultados. A caracterização do sistema ARTAX 200 foi realizada executando testes de estabilidade do tubo de Raios X, repetibilidade, reprodutibilidade, resolução em energia do sistema, levantamento da curva de limite de detecção e verificação do centro geométrico do feixe (CG). Os resultados obtidos nos testes de estabilidade apresentaram um coeficiente de variação médio menor do que 2%, o teste de repetibilidade apresentou valores médios menores que 0,5 %. A reprodutibilidade apresentou um coeficiente de variação médio menor que 1,5%. A verificação do centro geométrica mostrou que o CG encontra-se alinhada com o centro ótimo do feixe em duas das três direções do plano cartesiano. A resolução em energia do sistema para a energia de 5,9 keV foi de 150 eV. O limite de detecção apresentou valores menores que 1 % do Si ao Cu. Na avaliação das metodologias para calibração verificou-se que uma das metodologias aplicadas apresentou melhor resultado. Comparando os resultados com outros sistemas portáteis de XRF observa-se que o ARTAX 200 apresenta eficiência superior em relação aos parâmetros analisados.
Resumo:
O tratamento de efluentes industriais tem sido objeto de estudos no sentido da busca de soluções que minimizem impactos ambientais e promovam a conservação do bem natural que é a água. Nesta linha de pensamento, o presente trabalho propôs-se avaliar a viabilidade de recuperação de efluentes industriais contaminados com pesticidas do tipo piretróides em específico: a deltametrina e beta-ciflutrina. A justificativa na escolha deste tipo de componente está fundamentada na alta demanda alimentícia por parte da população mundial e o consequente acréscimo no uso dos agrotóxicos a fim de garantir a eficiência e o elevado volume de produção de alimentos. O objetivo deste trabalho foi estudar a remoção da deltametrina e da beta-ciflutrina de efluentes sintéticos aquosos por meio dos processos de osmose inversa e nanofiltração, com a utilização de membranas de poliamida. O presente estudo se justifica pelo atendimento aos padrões ambientais de concentração de piretróides no meio ambiente e reafirma o uso do sistema com membranas no tratamento de efluentes e remoção destes contaminantes. Para caracterização das membranas, foi realizado o teste de permeabilidade hidráulica, constatando diferentes linearidades de fluxo entre os dois processos, com a variação de pressão de trabalho. O desempenho dos processos foi verificado pela variação de parâmetros de meio reacional, variando a concentração dos piretróides em solução, analisando os princípios ativos isolados e também em mistura de ambos piretróides. Primeiramente se estudou a remoção da deltametrina e da beta-ciflutrina isoladamente em solução, nas concentrações de 5, 25, 50 e 100 mg L-1, sob a pressão de 5 bar. Posteriormente, avaliou-se o desempenho das membranas na remoção dos piretróides em mistura nas soluções sintéticas, com ambos os princípios ativos na concentração de 50 mg L-1, na pressão de 5 bar. Foi estudada a remoção da deltametrina e da beta-ciflutrina nos dois processos: osmose inversa e nanofiltração. Os resultados foram tratados estatisticamente por análise de variância (ANOVA) e pela análise por comparação de amostras independentes a fim de verificar a significância dos valores obtidos e a influência da variação dos parâmetros analisados. Para a faixa de concentração estudada (5, 25, 50 e 100 mg L-1) os valores encontrados de concentração de permeado foram todos consideravelmente baixos. O maior valor encontrado foi de 0,026 mg L-1 no ensaio de nanofiltração com concentração inicial de 5 mg L-1 de beta-ciflutrina em água. Os resultados apresentaram excelentes rejeições em todos os testes, seja com princípio ativo isolado ou em mistura, com rejeições maiores que 99,5% para ambos os piretróides nas concentrações testadas, sob a pressão de 5 bar. O processo de nanofiltração apresentou maiores e melhores fluxos de permeado do que a osmose inversa. Contudo, no que diz respeito à eficácia da separação, ambos processos indicaram ótimo desempenho na remoção dos piretróides, viabilizando assim, a escolha destes métodos para tratamento de efluentes contaminados com este pesticida
Resumo:
O objetivo deste trabalho é a aplicação de um Planejamento Fatorial Completo, ferramenta estatística que auxiliará a obter dados empíricos para otimizar um tratamento termoquímico, a cementação. Partindo-se de um levantamento da profundidade de camada cementada e da dureza de uma corrente de aço de baixo teor de carbono, usada para amarração, e para resistir à abrasão reproduziu-se uma nova cementação, variando-se seus parâmetros de influência, para se alcançar o ponto ótimo, definindo o melhor aço e o melhor processo. Foram realizados dois planejamentos, um fatorial 2 e dois 2, comparando o comportamento do processo na prática em relação aos resultados teóricos de uma simulação computacional, que permite a obtenção das curvas de enriquecimento de carbono, baseado na segunda Lei de Fick, para várias condições de contorno. Os perfis teóricos de cementação apresentaram valores de profundidade efetiva próximos aos valores obtidos experimentalmente, evidenciando o planejamento realizado.
Resumo:
Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.
Resumo:
A presente dissertação trata da estipulação de limite de crédito para empresas clientes, de modo automático, com o uso de técnicas de Inteligência Computacional, especificamente redes neurais artificiais (RNA). Na análise de crédito as duas situações mais críticas são a liberação do crédito, de acordo com o perfil do cliente, e a manutenção deste limite ao longo do tempo de acordo com o histórico do cliente. O objeto desta dissertação visa a automação da estipulação do limite de crédito, implementando uma RNA que possa aprender com situações já ocorridas com outros clientes de perfil parecido e que seja capaz de tomar decisões baseando-se na política de crédito apreendida com um Analista de Crédito. O objetivo é tornar o sistema de crédito mais seguro para o credor, pois uma análise correta de crédito de um cliente reduz consideravelmente os índices de inadimplência e mantém as vendas num patamar ótimo. Para essa análise, utilizouse a linguagem de programação VB.Net para o sistema de cadastro e se utilizou do MatLab para treinamento das RNAs. A dissertação apresenta um estudo de caso, onde mostra a forma de aplicação deste software para a análise de crédito. Os resultados obtidos aplicando-se as técnicas de RNAs foram satisfatórias indicando um caminho eficiente para a determinação do limite de crédito.
Resumo:
O estudo e medição da imagem, especialmente de um Conselho Profissional são essenciais para auxiliar os gestores destas instituições a tomarem decisões. Como não há uma escala válida e confiável que permita a medição da imagem corporativa de um Conselho Profissional, o presente trabalho busca confirmar, através do método de Modelagem de Equações Estruturais MEE, o modelo hipotético proposto por Peres (2004) e Carvalho (2009) que tomam por base o estudo de Folland, Peacock e Pelfrey (1991) que conclui que a imagem corporativa é composta por dois fatores e a percepção desta imagem impacta na avaliação de seu desempenho. Os resultados obtidos na pesquisa demonstram, com grande segurança estatística, que o modelo proposto é consistente, tem ótimo ajuste, e pode ser aplicado em futuras amostras semelhantes.
Resumo:
A carcinogênese epitelial ovariana tem sido foco de estudos científicos em todo o mundo desenvolvido. A angiogênese tumoral ovariana é um processo multifatorial que resulta em vários produtos pró-angiogênicos. Entre eles, o fator de crescimento vascular endotelial (VEGF) é predominante. Os objetivos deste estudo foram relacionar as dosagens do VEGF dos fluidos peritoneais, do plasma periférico e do infundíbulo pélvico aos níveis de citorredução em pacientes operadas de adenocarcinoma epitelial de ovário (CEO); formular um modelo probabilístico de citorredução e utilizar estas dosagens para estimar a probabilidade do desfecho de citorredução. Além disto, foi criada uma nova variável chamada carga de VEGF. Pelo procedimento step-wise a citorredução foi melhor descrita pela carga de VEGF, mas faltou Normalidade aos resíduos, não sendo possível a adequação de um modelo matemático. Porém, a curva ROC, forneceu uma área sob a curva de 0,84, com sensibilidade de 71,4 % e especificidade variando de 69,5 a 73,9%. O ponto de corte ótimo foi 15,52 log de picograma de carga de VEGF. A odds-ratio (OR) calculada para citorredução ótima descrita pela carga de VEGF foi de 11 (IC= 2,59 ; 46,78). No grupo com estágio avançado (III e IV), a OR foi de 6 (IC= 1,15; 31,22). Apesar do pequeno número de casos, esta nova variável pode vir a ser um auxiliar na determinação de situações onde cirurgia citorredutora deixa de ser a pedra fundamental do tratamento primário do CEO e a indução quimioterápica passe a ter o principal papel na citorredução química antes da cirugia nestes casos.
Resumo:
A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.
Resumo:
O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.
Resumo:
A identificação de danos estruturais é uma questão de fundamental importância na engenharia, visto que uma estrutura está sujeita a processos de deterioração e a ocorrência de danos durante a sua vida útil. A presença de danos compromete o desempenho e a integridade estrutural, podendo colocar vidas humanas em risco e resultam em perdas econômicas consideráveis. Técnicas de identificação de danos estruturais e monitoramento de estruturas fundamentadas no ajuste de um Modelo de Elementos Finitos (MEF) são constantes na literatura especializada. No entanto, a obtenção de um problema geralmente mal posto e o elevado custo computacional, inerente a essas técnicas, limitam ou até mesmo inviabilizam a sua aplicabilidade em estruturas que demandam um modelo de ordem elevada. Para contornar essas dificuldades, na formulação do problema de identificação de danos, pode-se utilizar o Modelo de Superfície de Reposta (MSR) em substituição a um MEF da estrutura. No presente trabalho, a identificação de danos estruturais considera o ajuste de um MSR da estrutura, objetivando-se a minimização de uma função de erro definida a partir das frequências naturais experimentais e das correspondentes frequências previstas pelo MSR. Estuda-se o problema de identificação de danos estruturais em uma viga de Euler-Bernoulli simplesmente apoiada, considerando as frequências naturais na formulação do problema inverso. O comportamento de uma viga de Euler-Bernoulli simplesmente apoiada na presença de danos é analisado, com intuito de se verificar as regiões onde a identificação dos mesmos pode apresentar maior dificuldade. No processo de identificação de danos, do presente trabalho, são avaliados os tipos de superfícies de resposta, após uma escolha apropriada do tipo de superfície de resposta a ser utilizado, determina-se a superfície de resposta considerando os dados experimentais selecionados a partir do projeto ótimo de experimentos. A utilização do método Evolução Diferencial (ED) no problema inverso de identificação de danos é considerado inerente aos resultados numéricos obtidos, a estratégia adotada mostrou-se capaz de localizar e quantificar os danos com elevada acurácia, mostrando a potencialidade do modelo de identificação de danos proposto.