61 resultados para Modelo dinâmico de equilíbrio geral

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Corrupção é um problema antigo que tem recebido, nos últimos anos, uma atenção global destacada, chamando a atenção, tanto de organismos públicos como de privados, dos meios de comunicação, dos formuladores de políticas públicas, bem como do conjunto da sociedade civil, acerca das suas formas de atuação, seus determinantes e seus efeitos para a sociedade. Enquanto não existe ainda um consenso na literatura sobre como definir o fenômeno da corrupção, uma coisa está clara: corrupção é um problema de governo. Mais precisamente, corrupção envolve a ação racional de burocratas que possuem um poder de monopólio sobre a oferta de um bem ou serviço público, ou ainda, o poder discricionário na tomada de decisões que afetam a renda de grupos na sociedade civil. Este estudo apresenta três contribuições para a literatura da economia da corrupção. Primeiro, ele contribui para a organização da discussão apresentando as diferentes formas como a Economia Política da Corrupção analisa o problema da corrupção: a) como um problema de rent-seeking, b) como um problema de crime, c) como um problema de estrutura de mercado do serviço público. Segundo, este trabalho contribui na identificação das variáveis econômicas que estão relacionados com o fenômeno da corrupção, o que permite uma melhor compreensão dos efeitos das políticas econômicos no incentivo à atividade corrupta e, terceiro, este trabalho contribui para a identificação do volume de recursos envolvido com a corrupção no Brasil. Os resultados alcançados mostram que o fechamento comercial do país, a expansão dos gastos do governo e a prática de política industrial ativa, com a elevação dos impostos de importação, funcionam como incentivadores de práticas corruptas na relação entre Estado e sociedade. Por outro lado, a aplicação de um modelo de equilíbrio geral com corrupção endógena possibilitou a obtenção de um valor para o volume de recursos envolvidos com corrupção no Brasil, em torno de 12% do PIB. A simulação do modelo para política comercial e fiscal não permite concluir que a corrupção, necessariamente, ressulte em menor crescimento econômico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho analisa os efeitos econômicos da competição tributária regional a partir de uma metodologia de equilíbrio geral computável. O objetivo é investigar se a competição tributária regional pode ser consistente com um equilíbrio welfare-improving quando as externalidades fiscais, subjacentes às mudanças estratégicas na política tributária dos governos regionais e às regras do federalismo fiscal vigente no Brasil, são plenamente assimiladas nos payoffs dos agentes econômicos. Para tanto, foi elaborado um modelo inter-regional de equilíbrio geral computável que divide a economia brasileira em duas regiões integradas, o Rio Grande do Sul e o Restante do Brasil. Este modelo foi utilizado para implementar dois experimentos de simulação sobre políticas contra-factuais de competição fiscal. O primeiro experimento avalia os efeitos de uma política regional de incentivo realizada pelo governo estadual gaúcho, baseada na renúncia tributária do ICMS, visando a atração de novos investimentos. Este experimento considera que os novos investimentos são exógenos à região e ao país como um todo e não se assume resposta estratégica do governo do Restante do Brasil. Os resultados mostram que a política é welfare-improving para as duas regiões e gera um retorno tributário líquido positivo para o governo do Rio Grande do Sul. Contudo, o efeito sobre as finanças do governo do Restante do Brasil é negativo, resultado que pode ser visto como um fator de incentivo para uma resposta política de competição fiscal. O segundo experimento avalia os efeitos de políticas de competição tributária regional entre os governos estaduais, assumindo-se que as alíquotas do ICMS são utilizadas como instrumentos estratégicos num jogo não cooperativo para atração de fatores produtivos. O experimento foi implementado para três fechamentos fiscais distintos com a finalidade de avaliar a sensibilidade dos resultados. O primeiro fechamento assume um regime fiscal do tipo soft budget constraint pelo qual o déficit orçamentário é a principal variável endógena para acomodar os custos da competição; o segundo fechamento assume um regime fiscal do tipo hard budget constraint pelo qual o consumo dos governos regionais (provisão de bens públicos) é a principal variável endógena; o terceiro fechamento considera o governo federal como um terceiro player no jogo de competição tributária regional e assume que a alíquota do imposto sobre a renda é a principal variável endógena de ajuste fiscal para capturar o papel das ligações verticais via mecanismos de transferências. Independente do fechamento fiscal, constata-se que a competição tributária gera um equilíbrio welfare-improving, mas o nível dos efeitos de bem-estar é bastante diferenciado entre os fechamentos. Constata-se ainda que o equilíbrio de Nash é do tipo race-to-the-bottom para as alíquotas de ICMS nos dois primeiros fechamentos, mas é race-to-the-top no terceiro porque a estratégia ótima do governo federal força os governos regionais a um equilíbrio com alíquotas de ICMS mais elevadas. As externalidades fiscais têm um papel crucial nos resultados encontrados, particularmente no segundo experimento, pois aliviam a necessidade de ajuste na provisão de bens públicos provocada pelo equilíbrio race-to-the-bottom e, assim, permitem que os ganhos de bem-estar do consumo privado superem as perdas decorrentes da redução na provisão de bens públicos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo o desenvolvimento de um modelo dinâmico genérico para reatores de polimerização em leito fluidizado com capacidade de predizer produção, condições de operação e propriedades do produto, como o índice de fluidez e densidade. Este modelo genérico é então aplicado ao caso específico da polimerização de eteno em reatores do processo UNIPOL, utilizando catalisador de óxido de cromo. De modo a obter um modelo validado, os parâmetros cinéticos são estimados utilizando experimentos realizados em uma planta piloto UNIPOL. Também é apresentado um modelo simplificado em relação ao modelo proposto inicialmente, cujo objetivo é remover as interações dos parâmetros das malhas de controle com os parâmetros cinéticos a serem estimados, aproveitando medidas de planta não utilizadas pelo outro modelo. Junto com a parte de estimação de parâmetros é apresentada a metodologia da análise de sensibilidade para o planejamento de experimentos e estimação de parâmetros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A competitividade do mercado tem levado empresas, pressionadas por concorrentes e com recursos limitados, a tomarem ações imediatas para garantir sua sobrevivência. Os escassos recursos materiais e humanos disponíveis necessitam ser investidos na operacionalização de estratégias bem planejadas que possam garantir a competitividade no curto, médio e longo prazos. Um erro no posicionamento estratégico pode comprometer de forma bastante significativa uma organização. Este trabalho apresenta o estudo de caso efetuado em uma empresa de componentes eletrônicos sobre a proposta de utilização do Planejamento Estratégico na preparação de um modelo geral de mudança de estrutura para Implantação de um Sistema da Qualidade baseado na Norma ISO Série 9000. Este estudo serve como alerta aos administradores quanto aos riscos e perdas a que podem estar se expondo quando alocam tempo, capital e pessoas, para somente obter o certificado ISO, sem enfatizar o aprendizado decorrente desta certificação. A implantação de um sistema da qualidade passa a ser visto como uma ferramenta e não só com um conjunto de normas que permitem obter um certificado. O estudo possibilitou a constatação, na prática, das várias fases que conduzem uma empresa a introduzir em suas atividades o Sistema da Qualidade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de gerenciamento dinâmico de uma cadeia de suprimentos que tem por objetivo determinar os níveis de pedidos, vendas, estoque e níveis de serviço da cadeia de suprimentos de modo a otimizar a lucratividade total da cadeia. A lucratividade da cadeia de suprimentos é enfocada sob a perspectiva da inclusão dos efeitos dos custos de transporte por meio de uma estrutura linear côncava de custos. Essa estrutura é composta por um conjunto de equações ajustadas, representativas dos custos de transporte. Assim, é possível a obtenção de economias de escala em função das quantidades entregues. O trabalho pode ser dividido em duas etapas principais. A primeira etapa compreende, em um contexto de gerenciamento da cadeia de suprimentos, uma revisão bibliográfica que abrange os principais aspectos da modelagem tradicionalmente utilizada para a determinação de quantidades ótimas de pedido e entrega, as principais deficiências e as diferentes abordagens de custos de transporte. A segunda etapa é caracterizada pela formulação, simulação e avaliação dos resultados do modelo de gerenciamento dinâmico da cadeia. Nessa etapa, analisa-se a influência da estrutura de custos de transporte nas decisões de reabastecimento da cadeia de suprimentos. A determinação dos níveis de pedidos, vendas, estoque e de serviço, os custos e a lucratividade da cadeia é feita a partir da otimização de cenários. Neste trabalho realiza-se uma análise comparativa de cenários para identificar a influência da alteração de parâmetros nos resultados do modelo. Os resultados apresentam-se promissores e, com relação aos custos de transporte, verificou-se que os limites de capacidade de transporte e os custos mínimos de transporte têm grande influência nas decisões de reabastecimento. Enfim, a principal contribuição deste trabalho está relacionada à possibilidade de tornar a estrutura de custos de transporte dos modelos de gerenciamento dinâmico da cadeia de suprimentos mais próxima da estrutura de custos reais. Palavras-chave: cadeia de suprimentos; custos de transporte; modelo de gerenciamento dinâmico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A morte neuronal é uma causa importante de disfunção no sistema nervoso central, que se manifesta comportamentalmente como déficits motores, cognitivos ou de memória. Uma causa importante de morte neuronal é a isquemia que é definida como a falta, ou diminuição, do aporte de sangue para os tecidos (GINSBERG, 1995 a; PULSINELLI, 1997). A região CA1 do hipocampo é a mais vulnerável à isquemia (PULSINELLI et al., 1982; SCHIMIDT-KASTNER & FREUND, 1991; NETTO et al., 1993; NELSON et al., 1997), e está relacionada com a memória tanto em humanos como em animais (SQUIRE, 1992). Vários trabalhos mostram que os animais isquêmicos apresentam pior desempenho em tarefas de aprendizado e memória (GINSBERG, 1997; SQUIRE, 1992; NETTO et al., 1993; NELSON et al., 1997). Estratégias visando proteger as células contra um dano letal vêm sendo estudadas há vários anos. A tolerância induzida à isquemia é a neuroproteção induzida por uma isquemia transitória breve a um evento isquêmico transitório de longa duração. Em geral, um evento isquêmico breve, de 2 minutos de duração, protege contra a morte celular induzida por uma isquemia grave, de 10-20 minutos de duração, desde que haja um período de 24 horas entre os dois eventos isquêmicos (CHEN & SIMON, 1997; KITAGAWA et al., 1997; BARONE et al., 1998; ROSA NETO, 1998). O presente trabalho teve como objetivo reproduzir o fenômeno da tolerância induzida à isquemia em ratos adultos e avaliar o efeito da tolerância induzida sobre o aprendizado e a memória da tarefa no labirinto aquático de Morris e sobre o volume da região CA1 hipocampal, pelo método de Cavalieri, em ratos submetidos à isquemia transitória grave. Os animais foram submetidos a um estudo do aprendizado da tarefa de localização da plataforma em um labirinto aquático em três fases. O labirinto aquático foi dividido virtualmente em 4 quadrantes com um ponto de largada entre cada um. Na primeira fase, a plataforma foi colocada em um dos quadrantes, onde permaneceu durante os 6 dias de treino., com 4 largadas em cada dia, e um teste no 7º dia sem a plataforma. Na segunda fase foram 4 dias de treino, seguido pelo teste, com a plataforma no quadrante oposto. Na última fase, a plataforma era colocada em um local diferente a cada dia para testar a memória de trabalho. Não foi observado diferença estatisticamente significativa nas latências para encontrar a plataforma entre os grupos controle e isquêmicos em todas as tarefas. Na análise do volume da região CA1, observamos uma diminuição de 20% nos animais submetidos à isquemia de 10 min., comparado com os dos grupos controle, isquemia de 2 min. e isquemia de 2+10 min. (neuroproteção) (p<0.05). Estes resultados comportamentais estão de acordo com os encontrados por alguns autores (KIYOTA et al., 1991; GREEN et al., 1992), porém outros autores relatam resultados diferentes (NETTO et al., 1993; IQBAL et al., 2001). As diferenças entre as metodologias utilizadas poderiam explicar parcialmente os resultados divergentes, também podemos supor que, 20% de diminuição de volume não é suficiente para provocar comprometimento do aprendizado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho apresentam-se pocedimentos para análise não linear de estruturas de materiais compostos laminados reforçados por fibras. A formulação é baseada em uma descrição cinemática incremental Lagrangeana Total, que permite o tratamento de deslocamentos arbitrariamente grandes com pequenas deformações, utilizando elementos finitos tridimensionais degenerados deduzidos para a análise de cascas. As estruturas são consideradas como submetidas a cargas mecânicas e a ações de temperatura e de umidade. O material é suposto elástico linear com propriedades dependentes, ou não, dos valores da temperatura e da concentração de umidade, ou viscoelástico linear com uma relação constitutiva em integral hereditária , e com comportamento higrotermo-reologicamente simples. As lâminas são consideradas como sujeitas a falhas, as quais são detectadas através de critérios macroscópicos, baseados em tensões ou em deformações. As equações não lineares de equilíbrio são resolvidas através de procedimentos iterativos e as deformações dependentes do tempo são avaliadas pelo método das variáveis de estado. Diversos exemplos numéricos de estruturas submetidas à flexão, flambagem elástica e viscoelástica e falhas são apresentados.