902 resultados para simulação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é o cálculo modal da resposta impulso distribu ída de uma viga descrita pela equação de Timoshenko e das vibrações forçadas, devidas a influência de cargas externas. Os modos vibratórios foram obtidos com o uso da base dinâmica, gerada por uma resposta livre e suas derivadas. Esta resposta é caracterizada por condições iniciais impulsivas. Simulações foram realizadas para os modos, a resposta impulso distribuída e vibrações forçadas em vigas apoiadas em uma extremidade e na outra livre, fixa, deslizante ou apoiada, sujeitas a cargas oscilatórias espacialmente concentradas ou distribuídas através de pulsos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo, implementação e simulação de geradores de sinais analógicos usando-se circuitos digitais, em forma de CORE, integrando-se este com o microprocessador Risco. As principais características procuradas no gerador de sinais são: facilidade de implementação em silício, programabilidade tanto em freqüência quanto em amplitude, qualidade do sinal e facilidade de integração com um microprocessador genérico. Foi feito um estudo sobre a geração convencional de sinais analógicos, dando-se ênfase em alguns tipos específicos de circuitos como circuitos osciladores sintonizados, multivibradores, geradores de sinais triangulares e síntese de freqüência digital direta. Foi feito também um estudo sobre conversão digital-analógica, onde foram mostrados alguns tipos básicos de conversores D/A. Além disso foram abordadas questões como a precisão desses conversores, tipos digitais de conversores digitalanalógico, circuitos geradores de sinais e as fontes mais comuns de erros na conversão D/A. Dando-se ênfase a um tipo específico de conversor D/A, o qual foi utilizado nesse trabalho, abordou-se a questão da conversão sigma-delta, concentrando-se principalmente no ciclo de formatação de ruído. Dentro desse assunto foram abordados o laço sigma-delta, as estruturas de realimentação do erro, estruturas em cascata, e também o laço quantizador. Foram abordados vários circuitos digitais capazes de gerar sinais analógicos, principalmente senóides. Além de geradores de senóides simples, também se abordou a geração de sinais multi-tom, geração de outros tipos de sinais baseando-se no gerador de senóides e também foi apresentado um gerador de funções. Foram mostradas implementações e resultados dessas. Iniciando-se pelo microprocessador Risco, depois o gerador de sinais, o teste deste, a integração do microprocessador com o gerador de sinais e finalmente a implementação standard-cell do leiaute desse sistema. Por fim foram apresentadas conclusões, comentários e sugestões de trabalhos futuros baseando-se no que foi visto e implementado nesse trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A paralelização de aplicaçõpes envolvendo a solução de problemas definidos sob o escopo da Dinâmica dos Fluidos Computacional normalmente é obtida via paralelismo de dados, onde o domínio da aplicação é dividido entre os diversos processadores, bem como a manutenção do balancecamento durante a execução é um problema complexo e diversas heurísticas têm sido desenvolvidas. Aplicações onde a simulação é dividida em diversas fases sobre partes diferentes do domínio acrescentam uma dificuldade maior ao particionamento, ao se buscar a distirbuição equlibrada das cargas em todas as fases. este trabalho descreve a implementação de mecanismos de particionamento e balanceamento de carga em problemas multi-fase sobre clusters de PCs. Inicialmente é apresentada a aplicação desenvolvida, um modelo de circulação e transporte de susbtâncias sobre corpos hídricos 2D e 3 D, que pode ser utilizado para modelar qualquer corpo hídrico a partir da descrição de sua geometria, batimetria e condições de contorno. Todo o desenvolvimento e testes do modelo foi feito utilizando como caso de estudo o domínio do Lago Guaíba, em Porto Alegre. Após, são descritas as principais heurísticas de particionamento de domínio de aplicações multi-fase em clusters, bem como mecanismos para balanceamento de carga para este tipo de aplicação. Ao final, é apresentada a solução proposta e desenvolvida, bem como os resultados obtidos com a mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação aborda o tema simulação de serviços. É apresentada abordagem para estudo de empresas prestadoras de serviços a partir da ótica de avaliação e otimização de produtividade, custos operacionais e lead-time. A abordagem proposta foi desenvolvida com base em estudo de caso realizado junto à empresa Scherer Informática, que atua na área de manutenção de computadores. Os cenários gerados e as simulações dos serviços prestados foram realizados com o suporte de software específico para a modelagem de serviços: o Servicemodel. O estudo possibilitou a empresa conhecer: (i) o melhor dimensionamento das equipes de front office e back office, (ii) a melhor distribuição dos funcionários, que conduz a maior produtividade, (iii) a melhor qualificação da equipe, que minimiza custos operacionais, e, (iv) a análise do lead-time, que permitiu identificar as operações críticas e estabelecer um plano de melhorias visando agilizar o atendimento ao cliente. As etapas observadas no estudo de caso constituem uma abordagem para a otimização de serviços, que considera produtividade, custos operacionais e lead-time. Devido à generalidade das etapas propostas, a abordagem pode ser adaptada para o uso em outras empresas, subsidiando decisões relativas à melhoria dos processos de prestação de serviços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta a Modelagem Estocástica de Sistemas Hierárquicos de Estoques (SHEs) como um instrumento de uso gerencial, orientado para a maximização do nível de serviço oferecido aos consumidores finais e a minimização do nível global de estoques em uma cadeia de abastecimento. Tal modelagem envolve otimização de sistemas não-lineares com integrais indefinidas, normalmente tratados através de simulação, dada a impossibilidade de estabelecer uma solução analítica para o problema. Neste trabalho, diferentemente, a solução é obtida através da otimização do sistema, a partir de uma modelagem que estabelece os níveis de estoque-alvo, os pontos de reposição de estoques, os níveis de serviço oferecidos aos consumidores finais e o nível ótimo global de estoques. A sua operacionalização utiliza um aplicativo computacional, projetado e desenvolvido especificamente para este fim. Estruturas hierárquicas, quando otimizadas localmente, em cada um de seus níveis, podem apresentar resultados subótimos em nível global. Assim, não é suficiente identificar os ótimos locais para compor uma solução otimizadora para o sistema. Para resolver esse problema, a maior parte dos pesquisadores utiliza simulação. A qualidade das soluções assim obtidas geralmente é inferior à qualidade da solução obtida mediante otimização global do sistema A presente modelagem tem como objetivo gerar soluções mais qualificadas para o problema da otimização de SHEs. Nesta dissertação, as principais abordagens para otimização de SHEs são apresentadas e analisadas, com destaque para o trabalho de Rosenbaum (1981), cujos resultados, obtidos através de simulação, são comparados com os resultados deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema central deste trabalho é o Planejamento, Programação e Controle da Produção na indústria, com o auxílio de uma ferramenta computacional, do tipo Finite Capacity Schedule (FCS). No Brasil, essa categoria de software é denominada, genericamente, por Sistemas de Planejamento Fino de Produção ou de Capacidade Finita. Alinhado com as tendências mundiais e a vantagem de menores investimentos em hardware, o sistema escolhido é compatível com a operação em microcomputadores. Na primeira parte do trabalho, o assunto é tratado de forma geral, quando se pretende caraterizar amplamente o problema da programação da produção, as dificuldades na sua execução, as soluções existentes e suas limitações. A segunda parte do trabalho discute, detalhadamente, os métodos tradicionais de planejamento de materiais e capacidade. A revisão bibliográfica se encerra com uma apresentação dos sistemas FCS e sua classificação. A terceira parte trata da descrição, ensaios e avaliação da programação gerada por um software de Planejamento Fino de Produção determinístico, baseado na lógica de simulação computacional com regras de decisão. Embora a avaliação esteja limitada ao software utilizado, a análise ainda vai procurar identificar as diferenças fundamentais entre os resultados da programação de Capacidade Finita e a convencional, representada pelos sistemas da categoria MRPII ou Planejamento dos Recursos de Manufatura (Manufacturing Resources Planning). As lógicas dos sistemas MRPII e de Capacidade Finita são discutidas na revisão bibliográfica, enquanto que, para o software empregado no trabalho, ainda há um capítulo específico tratando da sua descrição, fundamentos, software house, hardware necessário e outras informações relevantes. Os ensaios serão implementados com o objetivo de analisar o sistema FCS como ferramenta de planejamento e de programação de produção. No caso, uma fração de um processo produtivo será modelada no sistema, através do qual serão gerados planos de produção que serão confrontados com a programação usual e com o comportamento real dos recursos envolvidos. Os ensaios serão realizados numa das unidades pertencentes a uma empresa transnacional de grande porte, que atua no ramo de pneumáticos. Por último, são apresentadas as conclusões gerais, recomendações na aplicação do sistema estudado e sugestões para futuras pesquisas relacionadas com o assunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente urbanização observada nas últimas décadas tem sido acompanhada por problemas relacionados a quase todos aspectos da infra-estrutura urbana. No que se refere à drenagem pluvial, a situação não é diferente. A impermeabilização gerada pelo processo de urbanização faz com que os hidrogramas se tornem progressivamente mais críticos, com maiores volumes escoados, maiores vazões de pico e menores tempos de escoamento. Agravando esta situação, o sistema tradicional de drenagem, baseado na máxima “pegar e largar depressa”, busca a eliminação da água, o mais rápido possível, através de galerias, condutos enterrados e canalizações, significando, muitas vezes, a simples transferência da cheia para as seções de jusante. A solução clássica para o problema das cheias baseiase na ampliação do sistema e/ou aumento da eficiência das redes, com custos geralmente elevados. Este trabalho apresenta um estudo experimental efetuado em trincheiras de infiltração, dentro de uma filosofia compensatória dos efeitos da urbanização. Esses dispositivos se inserem dentro de um conceito ambiental da drenagem urbana, onde se busca não mais a eliminação da água o mais rapidamente possível, mas sua valorização dentro do espaço urbano, através de dispositivos bem integrados e, preferencialmente, multifuncionais. Duas trincheiras de infiltração foram instaladas e monitoradas em uma área do IPH-UFRGS. A implantação das trincheiras baseou-se na adaptação, para as condições brasileiras, de técnicas descritas na literatura, principalmente no que se refere aos métodos construtivos e materiais utilizados, assim como aos métodos e critérios de utilização e dimensionamento. Durante o período de monitoramento e análise de dados, foram avaliados e discutidos aspectos relacionados a: condições de funcionamento, tais como magnitude do evento pluviométrico e condições antecedentes de umidade do solo; eficiência dos dispositivos; ocorrência de escoamento preferencial; custos; limitações de aplicação. Aspectos relacionados ao funcionamento do dispositivo ao longo do período de monitoramento são também discutidos, buscando avaliar seu desempenho a longo prazo, apesar do curto período de observação. Adicionalmente, um modelo numérico de simulação do funcionamento quantitativo de dispositivos de infiltração foi testado (modelo de Bouwer), sendo sugeridas modificações para torná-lo mais abrangente. As duas trincheiras mostraram-se eficientes, controlando 100% do volume escoado, mesmo para eventos de período de retorno superiores aos de projeto. Verificou-se que a metodologia de projeto gera super-dimensionamento das estruturas e que as condições iniciais de umidade do solo e as características dos eventos são fatores determinantes para seu funcionamento. Durante os 33 meses de observação da trincheira I e os 6 meses da trincheira II, não houve alterações significativas do funcionamento. Os eventos monitorados na trincheira I indicam a ocorrência de escoamento preferencial. Um ensaio destrutivo reforçou esta hipótese, além de mostrar acentuado grau de colmatação da primeira camada, em função do excessivo aporte de material em suspensão. Recomendações para utilização deste tipo de solução são apresentadas, visando estimular seu uso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No seu hábitat, muitos organismos, entre eles os caracóis, estão expostos a um grande número de variáveis ambientais como temperatura, umidade, fotoperiodicidade e disponibilidade de alimento. O caracol Megalobulimus oblongus é um gastrópode terrestre que, durante épocas de estiagem, costuma permanecer enterrado no solo. Com esse comportamento o animal evita a perda de água durante o período de seca, embora nessa condição (enterrado no solo) o animal tenha que enfrentar uma situação de disponibilidade de oxigênio reduzida (hipóxia). O metabolismo dos gastrópodes terrestres está baseado na utilização de carboidratos e as reservas desse polissacarídeo são depletadas durante situações de hipóxia/anoxia. Estudos sobre o metabolismo de moluscos frente a essas condições ambientais adversas, como a própria anoxia, têm sido realizados apenas em tecidos de reserva. Trabalhos relacionando o metabolismo do sistema nervoso durante essa situação são escassos. Dessa forma, o presente trabalho teve como objetivo estudar o metabolismo de carboidratos do sistema nervoso central do caracol Megalobulimus oblongus submetido a diferentes períodos de anoxia e recuperação aeróbia pós-anoxia. Para isso, após o período experimental foram dosadas a concentração de glicogênio e a concentração de glicose livre nos gânglios do sistema nervoso central do animal, além da concentração de glicose hemolinfática. Juntamente com essa abordagem bioquímica, foi realizado um estudo histoquímico semiquantitativo com o objetivo de verificar a atividade da forma ativa da enzima glicogênio fosforilase (GFa) nos gânglios cerebrais dos caracóis submetidos aos períodos de anoxia e recuperação. Foi verificado um aumento da concentração de glicose hemolinfática após o período inicial de 1,5h de anoxia, que se manteve elevado ao longo de todo o período anóxico. A concentração de glicogênio estava significativamente reduzida às 12h de anoxia e a concentração de glicose livre permaneceu constante ao longo de todo o período anóxico, enquanto foi observada uma redução progressiva da GFa. Não foram verificadas mudanças significativas nesses metabólitos nos animais do grupo simulação (“sham”) quando comparados ao grupo controle basal. Durante o período de recuperação aeróbia após 3h de anoxia, os valores de glicose hemolinfática foram reduzidos, retornando aos valores basais após 3h de recuperação aeróbia. A atividade GFa, reduzida durante a anoxia, também retornou aos valores do grupo controle durante a fase de recuperação. A concentração de glicose livre teve uma queda significativa no tempo de 1,5h de recuperação e existiu uma tendência à redução do glicogênio do tecido nervoso às 3h de recuperação aeróbia. A enzima GFa retornou a sua atividade basal durante o período de recuperação. Os resultados sugerem que, em função da elevada concentração de glicose hemolinfática, outros tecidos possam estar fornecendo a glicose necessária para a manutenção do tecido nervoso de Megalobulimus oblongus durante a anoxia, enquanto a redução do glicogênio do tecido nervoso verificada às 12h de anoxia deva estar relacionada ao aumento de atividade do animal durante a escotofase (o grupo 12h de anoxia foi dissecado à noite) somado ao próprio efeito da anoxia. A redução da GFa ao longo do período anóxico pode indicar uma depressão metabólica no tecido nervoso. Durante o início da fase de recuperação aeróbia pós-anoxia, a queda da concentração de glicose livre e a tendência à redução na concentração de glicogênio podem estar relacionadas ao fornecimento da energia necessária para o restabelecimento dos estoques energéticos utilizados durante às 3h iniciais de anoxia, já que a glicose hemolinfática retornou à concentração basal. Como não foi verificada qualquer redução significativa durante às 3h iniciais de anoxia nas concentrações de glicose livre e de x glicogênio nos gânglios nervosos centrais de Megalobulimus oblongus, discute-se a possibilidade de que o tecido nervoso do caracol tenha utilizado reservas de fosfogênios e ATP para satisfazer suas demandas energéticas durante as 3h iniciais de ausência de oxigênio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.