1000 resultados para Algoritmo de Damm


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação trata da fatoração de polinômios em duas variáveis sobre um corpo F. Mais precisamente, o trabalho traça o desenvolvimento histórico de uma estratégia modular que levou à resolução desse problema em tempo polinomial e culmina com a apresentação de um algoritmo publicado por S. Gao no ano de 2003, que determina simultaneamente as fatorações racional e absoluta de um dado polinômio. A nossa contribuição consiste na extensão desse algoritmo a casos que não satisfazem as condições prescritas pelo autor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma abordagem numérica da fratura baseada no Método dos Elementos Finitos na qual são considerados materiais frágeis como objeto de estudo. As simulações realizadas são possíveis através de um algoritmo computacional que consiste na implementação de molas entre as faces dos elementos finitos. Esta composição constitui o método denominado Interfaces Coesivas. As molas fornecem o efeito de coesão e é representado por leis constitutivas do tipo bi-linear. Sua descrição é apresentada, bem como sua implementação na análise. Tanto o modo I como o modo II de ruptura são considerados. Com o objetivo de verificar o presente modelo com outros resultados e soluções, são analisados exemplos numéricos e experimentais extraídos da literatura. Tais exemplos tratam da nucleação, propagação e eventuais paradas de trincas em peças estruturais submetidas aos mais diversos carregamentos e condições de contorno. É ainda discutido como os parâmetros de fratura do material interferem no processo de ruptura. Uma tentativa é feita de determinar estes parâmetros, em especial no caso de concreto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisa, sob uma perspectiva quantitativa, a retenção de clientes durante o processo de renegociação de créditos inadimplentes. O foco principal é entender quais são as variáveis que explicam a retenção destes clientes e, portanto, aprimorar o processo de cobrança de uma instituição financeira no Brasil. O tema se torna relevante à medida em que vários fatores tornam a competitividade mais difícil no ambiente de crédito no país: a concentração bancária vivida na última década, o aumento da oferta de crédito nos últimos anos, a redução dos spreads bancários, e por fim a crise econômica global que afeta em especial o setor financeiro. A pesquisa procura investigar quais variáveis melhor explicam o fenômeno da retenção. Para tanto, foram segregados clientes projetados como rentáveis pela cadeia de Markov. Em seguida, testou-se a aderência de variáveis cadastrais e contratuais à variável-resposta retenção, por duas metodologias: o algoritmo CHAID da árvore de decisão e o método stepwise da regressão logística. Os resultados indicam que o método CHAID selecionou 7 e o stepwise 8 variáveis, sendo algumas de natureza cadastral e outras que vêm do próprio contrato de renegociação. Dado que as condições do contrato influenciam a retenção e portanto o valor do cliente, sugere-se que o processo de oferta incorpore operacionalmente a noção de retenção na atividade da cobrança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas experimentais de óptica não-linear resolvidas no tempo são capazes, em diversas situações, de fornecer mais informações sobre a dinâmica e estrutura molecular do que técnicas sem nenhuma resolução temporal. Nesta tese investigou-se três sistemas com técnicas espectroscópicas resolvidas no tempo, utilizando pulsos ultra-curtos de um sistema LASER amplificado, baseado em cristal de Ti:Safira, e de amplificadores ópticos paramétricos. Para este estudo foram implementadas e analisadas quatro diferentes técnicas espectroscópicas resolvidas no tempo: Espalhamento Raman anti-Stokes Coerente (CARS), Espalhamento hiper-Rayleigh Resolvido no Tempo (TRHRS), Bombeio-Prova e Bombeio- Depleção-Prova. O três sistemas investigados apresentam um grau crescente de complexidade nas suas dinâmicas e interações com o meio. O primeiro dos sistemas estudados foi a dinâmica da molécula de H2 no regime de impacto, na presença de moléculas e átomos perturbadores (N2 e He). Foi possível determinar, pela primeira vez, coeficientes de alargamento para o ramo Q devido à colisões entre H2+H2 utilizando a técnica de CARS resolvido temporalmente, bem como novos coeficientes para o deslocamento das linhas. O emprego da mesma técnica em sistemas binários lançou mais luz sobre a possibilidade de existir alguma não-homogeneidade em tais tipos de colisões. O segundo experimento investigou a dinâmica de relaxação orientacional da acetonitrila em solução utilizando a nova técnica de TRHRS; esta foi desenvolvida e testada com sucesso pela primeira vez neste trabalho. Um modelamento teórico mostra que dentro do modelo de Debye para a difusão rotacional, tempos associados ao terceiro momento do tempo de difusão (τ3) e ao primeiro momento (τ1) devem ser observados. Os resultados experimentais para a acetonitrila apresentam um decaimento consistente com este modelo (τ3~850 fs), concordando também com valores derivados de resultados experimentais e teóricos obtidos por outros métodos. Além disso, também foi observado experimentalmente uma segunda componente mais rápida (~50 fs), que não pôde ser explicada dentro do modelo de difusão rotacional livre. Esta componente foi atribuída a efeitos reorientacionais coletivos em conjunto com efeitos de superposição temporal de pulsos. A interpretação do sinal desta nova técnica foi testada com sucesso realizando o experimento em tetracloreto de carbono.O terceiro sistema investigado foi a dinâmica de relaxação de energia intramolecular de carotenóides. A principal questão, da vii existência ou não de estados eletrônicos adicionais, foi abordada utilizando uma modificação da técnica de Bombeio e Prova, denominada de Bombeio-Depleção-Prova. A técnica de Bombeio-Depleção-Prova foi pela primeira vez utilizada em carotenóides, possibilitando observar dinâmicas nunca vistas por qualquer outra técnica experimental. Dentro da resolução temporal dos experimentos realizados, a presença de novos estados eletrônicos em carotenóides livres em solução é descartada. Além disso, uma nova ferramenta de análise de dados foi desenvolvida. A análise de alvos espectrais baseada em um algoritmo evolutivo trouxe mais argumentos para o modelo clássico de três níveis. A dinâmica de carotenóides livres em solução foi comparada com sua dinâmica quando inseridos no complexo fotossintético de coleta de luz (LH2) da bactéria púrpura, utilizando para isso a técnica de Bombeio e Prova. Os resultados obtidos mostram um sistema de níveis de energia mais complexo do que quando o carotenóide está livre em solução. Esta modificação devido ao ambiente é possivelmente gerada pela quebra de simetria do carotenóide quando inserido no complexo LH2, possibilitando o cruzamento entre sistemas (singlete-triplete).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho investiga a relação entre aprendizado e dinâmica em sistemas complexos multiagentes. Fazemos isso através de estudos experimentais em um cenário de racionalidade limitada que situa-se na interesecção entre Inteligência Artificial, Economia e Física Estatística, conhecido como “Minority Game”. Apresentamos resultados experimentais sobre o jogo focando o estudo do cenário sob uma perspectiva de Aprendizado de Máquina. Introduzimos um novo algoritmo de aprendizado para os agentes no jogo, que chamamos de aprendizado criativo, e mostramos que este algoritmo induz uma distribuição mais eficiente de recursos entre os agentes. Este aumento de eficiência mostra-se resultante de uma busca irrestrita no espaço de estratégias que permitem uma maximização mais eficiente das distâncias entre estratégias. Analisamos então os efeitos dos parâmetros deste algoritmo no desempenho de um agente, comparando os resultados com o algoritmo tradicional de aprendizado e mostramos que o algoritmo proposto é mais eficiente que o tradicional na maioria das situações. Finalmente, investigamos como o tamanho de memória afeta o desempenho de agentes utilizando ambos algoritmos e concluímos que agentes individuais com tamanhos de memória maiores apenas obtém um aumento no desempenho se o sistema se encontrar em uma região ineficiente, enquanto que nas demais fases tais aumentos são irrelevantes - e mesmo danosos - à performance desses agentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata da elaboração de uma ferrramenta para a geração de filtros FIR otimizados paralelos com coeficientes constantes. A ferramenta desenvolvida é capaz de gerar uma descrição VHDL de um filtro FIR paralelo com coeficientes constantes a partir das especificações do filtro. São exploradas técnicas de otimização de coeficientes e de otimização arquitetural. As técnicas empregadas são baseadas no uso de representações ternárias e redução do número de digitos não-zero dos coeficientes, uso de fatores de escala e eliminação de sub-expressões comuns. No texto, uma breve introdução sobre os filtros digitais é apresentada seguida por uma série de trabalhos encontrados na literatura relacionados às técnicas mencionadas e que são apresentados como base para o desenvolvimento da ferramenta implementada nesta dissertação. O funcionamento da ferramenta é detalhado tanto nos seus aspectos de algoritmo quanto em nível de implementação. São apresentados resultados de síntese em alguns de filtros hipotéticos projetados utilizando a ferramenta desenvolvida. Uma análise detalhada dos resultados obtidos é realizada. Os apêndices deste trabalho apresentam o código fonte da ferramenta de síntese de filtros desenvolvida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude dos choques exógenos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A variação temporal e espacial da ecologia de lagos, estuários e reservatórios está relacionada com a variação na composição da população de fitoplâncton, já que esta comunidade é a base da cadeia alimentar marinha e lacustre. Esta pesquisa desenvolveu um modelo para estimativa da dinâmica de biomassa de fitoplâncton, considerando os mecanismos de transporte no meio aquático, crescimento e perdas de sua biomassa. O modelo possui três módulos: (a) hidrodinâmico, que trata dos fluxos quantitativos do meio, associado a um algoritmo de secagem/inundação; (b) de transporte, que trata dos mecanismos de transporte das substâncias no meio; e (c) biológico, que retrata os mecanismos biológicos relacionados ao fitoplâncton. O módulo hidrodinâmico foi resolvido por um esquema semi-implícito de diferenças finitas, com uma abordagem mista Euleriana-Lagrangiana para os termos advectivos. Para os módulos restantes foi utilizado um esquema mais simples, de diferenças centrais. O modelo foi aplicado no sistema formado pela Lagoa Mangueira e Banhado do Taim localizado na parte sul costeira do estado do Rio Grande do Sul. Este sistema está inserido no Sistema Hidrológico do Taim como unidade de conservação federal, onde se desenvolve o projeto PELD (Pesquisas Ecológicas de Longa Duração). A hidrodinâmica do sistema foi ajustada e verificada apresentando bons resultados. Testes de secagem e inundação mostraram que as tendências esperadas foram obtidas. O aprimoramento da solução numérica do modelo foi comprovado através de testes de preservação de volume e massa em sistemas conservativos. A análise de sensibilidade dos parâmetros do módulo biológico mostrou que os parâmetros para os quais o modelo é mais sensível a alterações são aqueles relacionados aos efeitos de temperatura nas algas e as perdas por respiração e consumo por zooplâncton. Os cenários de análise propostos proporcionaram uma maior compreensão do transporte do material particulado suspenso e do material escalar genérico, assim como a dinâmica e as florações de algas no sistema em condições físicas e meteorológicas reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos da presente tese de doutorado foram os de buscar novos antipsicóticos atípicos de baixo preço comercial e também procurar entender o mecanismo de ação que leva a um perfil antipsicótico atípico. Os resultados da tese são divididos em duas partes, de acordo com sua natureza, em experimentais (primeira parte) e teóricos (segunda parte). Para o desenvolvimento da primeira parte, foi necessária primeiramente a programação de um software para medir locomoção em roedores após filmagem com webcam. A seguir, foram investigados os efeitos da guanosina, flunarizina e cinarizina em modelos animais de psicose, bem como em outros paradigmas comportamentais. A guanosina foi escolhida para estudo uma vez que tem se mostrado que ela interage com o sistema glutamatérgico – que sabidamente está envolvido na fisiopatologia da esquizofrenia – promovendo a captação astrocitária de glutamato. Já a flunarizina e a cinarizina, dois bloqueadores de canal de cálcio empregados para tratar enxaqueca e vertigem foram escolhidas pelo fato delas produzirem sinais e sintomas extrapiramidais em pacientes idosos, o que posteriormente foi relacionado às suas propriedades como antagonistas moderados dos receptores dopaminérgicos do tipo D2 A guanosina diminuiu o aumento de locomoção induzido por um antagonista NMDA (MK-801), enquanto que não apresentou efeito sobre o aumento de locomoção induzido por anfetamina, de forma que sua utilidade como potencial antipsicótico deve ser ainda melhor estudada. Tanto a flunarizina quanto a cinarizina foram capazes de diminuir o aumento de locomoção induzido por MK-801 e por anfetamina em doses que não causam efeitos catalépticos importantes. Portanto, foi concluído que estes dois compostos apresentam um potencial perfil de antipsicótico atípico, com as vantagens de já estarem disponíveis para uso comercial, boa tolerabilidade e baixo custo quando comparados com os antipsicóticos atípicos disponíveis comercial. A segunda parte da tese apresenta alguns resultados teóricos matemáticos que podem ser derivados da teoria da lei de ação das massas aplicada ao binding de receptores, utilizando também resultados experimentais já conhecidos de PET Estes resultados apresentam insights ao entendimento das diferenças entre os perfis antipsicóticos atípicos e típicos em relação à geração de sinais extrapiramidais. É discutido que fatores culturais e comerciais relacionados à posologia atual empregada no tratamento com antipsicóticos típicos podem ser os responsáveis pelas diferenças de perfis, uma vez que alguns deles são prescritos em doses proporcionalmente maiores em relação à sua afinidade, atingindo assim maiores níveis de bloqueio dopaminérgico no estriado. Uma curta meia-vida plasmática também é apontada como um possível parâmetro importante na geração de um perfil atípico. É mostrado ainda alguns erros de concepção relacionados ao curso temporal da ocupação dopaminérgica que tem sido atualmente cometidos na literatura científica, como o conceito de meia-vida de ocupação de receptores. Como um último resultado teórico, é proposto um algoritmo para a redução de dose em pacientes tratados com antipsicóticos apresentando sinais e sintomas extrapiramidais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é desenvolvida uma versão do modelo de Aiyagari (1994) com choque de liquidez. Este modelo tem Huggett (1993) e Aiyagari (1994) como casos particulares, mas esta generalização permite dois ativos distintos na economia, um líquido e outro ilíquido. Usar dois ativos diferentes implica em dois retornos afetando o "market clearing", logo, a estratégia computacional usada por Aiyagari e Hugget não funciona. Consequentemente, a triangulação de Scarf substitui o algoritmo. Este experimento computacional mostra que o retorno em equilíbrio do ativo líquido é menor do que o retorno do ilíquido. Além disso, pessoas pobres carregam relativamente mais o ativo líquido, e essa desigualdade não aparece no modelo de Aiyagari.