144 resultados para horário de aplicação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A cardiomioplastia (CDM) tem sido proposta com uma alternativa de tratamento cirúrgico para pacientes em estado avançado de cardiomiopatia dilatada e isquêmica. Os resultados clínicos e experimentais demonstram que este procedimento atenua o processo de remodelamento ventricular, através da compressão dinâmica ou passiva do miocárdio pelo grande dorsal (GD). Além disso, estudos observaram formação de vasos colaterais do GD para o coração após a CDM. O infarto do miocárdio (IM) induz disfunção e remodelamento ventricular e tem sido muito utilizado na literatura como modelo experimental de isquemia miocárdica. A aplicação de fatores angiogênicos diretamente no miocárdio isquêmico tem mostrado resultados positivos na estimulação da formação de colaterais. O objetivo do presente estudo foi avaliar os efeitos da CDM associada ao tratamento com VEGF165 na função ventricular e no desenvolvimento de fluxo colateral extramiocárdico em ratos infartados. Foram utilizados ratos machos Wistar (n=57, 220-250g) divididos em grupos infartados e controles. As alterações temporais induzidas pelo IM (ligadura da artéria coronária esquerda) foram avaliadas aos 14 (IM-14) e aos 56 (IM-56) dias pós IM sendo comparadas com seus respectivos controles (C-14 e C-56). Animais controles (C-CDM) e infartados (IM-CDM) foram submetidos à CDM passiva (sem estimulação do GD) após 14 dias de IM e avaliados aos 56 dias. Ratos controles foram submetidos à cirurgia fictícia de IM e de CDM (S-IMCDM) e ratos infartados à cirurgia fictícia de CDM (IM-SCDM) a fim de verificar eventuais alterações induzidas pelos procedimentos cirúrgicos. Um grupo de ratos infartados recebeu a administração de uma dose de 25µg de VEGF165 na artéria principal do GD imediatamente antes da CDM (14 dias de IM) e foi avaliados aos 56 dias (IMCDM-VEGF). Ao final do protocolo os animais foram anestesiados (pentobarbital sódico, 40mg/Kg) e a artéria carótida direita foi canulada para registro da PA. Logo após, esta cânula foi inserida no ventrículo esquerdo (VE) para registro da pressão ventricular. O registro e processamento dos sinais de pressão foram realizados utilizando-se um sistema de aquisição de sinais (CODAS, 1 Khz). O débito cardíaco (DC) e os fluxos regionais (coração e rins) foram avaliados através da infusão de 300 000 microesferas azuis no ventrículo esquerdo. Após a infusão de 50 000 microesferas amarelas na artéria principal do GD o fluxo colateral extramiocárdico do GD para o coração (FCO GD→coração) foi quantificado através da divisão do número de microesferas amarelas no coração pelo número de microesferas amarelas no GD. Após a oclusão da artéria do GD foram infundidas 300 000 microesferas azuis no VE e o fluxo colateral extramiocárdico do coração para o GD (FCO coração→GD) foi avaliado pela divisão do número de microesferas azuis no GD pelo número de microesferas azuis no coração. O IM induziu hipotensão e aumento da pressão diastólica final (PDF) nos grupos IM-14 (84±6 e 6,88±2,6 mmHg) e IM-56 (98±3 e 15,4±2 mmHg) em relação aos seus respectivos controles (C-14: 102±4 e –3,2±0,5; C-56: 114±3 e 0,5±1,7 mmHg). O débito cárdiaco (DC) foi menor no grupo IM-56 (49,5±9 ml/min) em relação ao grupo IM-14 (72±9 ml/min). A máxima velocidade de relaxamento do VE (-dP/dt) estava reduzida nos grupos IM-14 (-2416±415 vs -4141±309 mmHg/seg nos C-14) e IM-56 (-3062±254 vs -4191±354 mmHg/seg nos C-56) e a de contração do VE (+dP/dt) somente no grupo IM-56 (4191±354 vs 5420±355 mmHg/seg nos C-56). O IM não alterou o fluxo e a resistência vascular coronariana, no entanto, o fluxo renal estava reduzido e a resistência renal aumentada no grupo IM-56 quando comparados ao grupo C-56. Os animais com 56 dias de IM apresentaram aumento de massa ventricular (pv) e da razão peso ventricular/peso corporal (pv/pc) em relação aos controles (1,3±0,04 vs 0,98±0,04 23 g e 3,37±0,08 vs 2,54±0,09 mg/g nos C-56). O tamanho do infarto foi menor no grupo IM-14 (35±3 % do VE) em relação ao grupo IM-56 (44±2 % do VE). Os grupos sham não apresentaram alterações nos parâmetros avaliados em relação aos seus controles. Os ratos infartados submetidos à CDM não apresentaram hipotensão (105±2 mmHg), nem aumento da PDF (4,8±1,7 mmHg) conforme observado no grupo IM-56. O FC, o DC, a RVP e os fluxos e a resistência vascular coronariana foram semelhantes entre os grupos C-56, IM-56, C-CDM e IM-CDM. A +dP/dt e a –dP/dt mostraram-se reduzidas nos grupos C-CDM e IM-CDM em relação ao grupo C-56. O fluxo e a resistência vascular renal estavam normalizadas nos ratos IM-CDM. O pv (1,11±0,04g) e a razão pv/pc (2,94±0,09 mg/g) apresentaram-se similares aos valores do grupo C-56 e o tamanho do IM foi semelhante entre os grupo IM-56 e IM-CDM (44±2 vs 45±3 % do VE). O grupo IMCDM-VEGF apresentou normalização dos parâmetros hemodinâmicos e morfométricos de forma semelhante aos do grupo IM-CDM quando comparados ao grupo IM-56. A resistência coronariana mostrou-se reduzida nos animais IMCDM-VEGF (22,07±2,01 mmHg/ml/min/g) quando comparada ao grupo C-CDM (37,81±4 mmHg/ml/min/g), apesar do fluxo coronariano ter sido similar entre os grupos submetidos à CDM. O FCOcoração→GD ocorreu predominantemente nos animais dos grupo C-CDM e IMCDM-VEGF (70% e 83,3% vs 28,6% no IM-CDM) enquanto que o FCO GD-coração foi observado em todos os animais dos grupos IM-CDM e IMCDM-VEGF (20% no C-CDM). A administração de VEGF165 aumentou o FCO GD→coração em valores absolutos e normalizados por grama (24,85±10,3% e 62,29±23,27%/g) em relação aos grupos C-CDM (0,88±0,89% e 1,42±1,42%/g) e IM-CDM (4,43±1,45 % e 7,66±2,34 %/g). O FCO GD→coração normalizado foi maior nos animais IM-CDM em relação aos C-CDM. O grupo IMCDM-VEGF (4,47±1,46 %/g) apresentou maior FCO coração→GD normalizado em comparação ao grupo MI-CDM (2,43±1,44 %/g). O tamanho do infarto foi menor nos animais do grupo IMCDM-VEGF (36±3 % do VE) em relação aos grupos IM-56 e IM-CDM. Correlações positivas foram obtidas entre o FCO GD→coração e o volume sistólico e (r=0,7) e o fluxo coronariano (r=0,7), e entre a PDF e a razão pv/pc (r=0,8) e o tamanho do IM (r=0,6). Além disso, correlações inversas foram observadas entre o tamanho do infarto e o volume sistólico (r=0,8) e o FCO GD→coração (r=0,7). Estes resultados permitem concluir que a CDM passiva preveniu a disfunção e o remodelamento do VE em ratos infartados. A aplicação de VEGF165 induziu diminuição do tamanho do IM que pode estar associado ao aumento do fluxo colateral extramiocárdico do GD→coração observado neste grupo tratado com VEGF. Estes achados sugerem que o uso de fatores angiogênicos, como o VEGF165, pode induzir melhora da perfusão das regiões isquêmicas do coração infartado, limitando a perda tecidual. Este efeito associado ao da compressão passiva do VE infartado pelo GD pós CDM, pode prevenir as disfunções decorrentes de isquemias miocárdicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar a fundamentação teórica e efetuar uma aplicação prática de uma das mais importantes descobertas no campo das finanças: o modelo de precificação de ativos de capital padrão, denominado de Capital Asset Price Model (CAPM). Na realização da aplicação prática, comparou-se a performance entre os retornos dos investimentos exigidos pelo referido modelo e os realmente obtidos. Foram analisadas cinco ações com a maior participação relativa na carteira teórica do Ibovespa e com retornos publicados de junho de 1998 a maio de 2001. Os dados foram obtidos da Economática da UFRGS e testados utilizando-se o Teste-t (duas amostras em par para médias) na ferramenta MS Excel. Os resultados foram tabelados e analisados, de onde se concluiu que, estatisticamente, com índice de confiança de 95%, não houve diferença de performance entre os retornos esperados e os realmente obtidos dos ativos objeto desta dissertação, no período estudado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta o desenvolvimento de produto em um fabricante de conexões. Mais especificamente, este trabalho apresenta a aplicação de metodologia de desenvolvimento de produto em uma empresa de médio porte, em um ambiente de engenharia simultânea, buscando o enfoque da qualidade em todas as fases, e realizando adaptações da metodologia quando necessário. A dissertação apresenta ainda uma revisão da literatura abordando: Desenvolvimento do Produto, Engenharia Simultânea, Desenvolvimento da Função Qualidade (Quality Function Development QFD) e Projeto de Experimentos (Design oi Experiments DOE). A engenharia simultânea pode ser considerada como sendo uma metodologia para desenvolvimento de produtos, objetivando otimizar tempo, custo, qualidade do produto e seu processo produtivo. A sinalização mais evidente da engenharia simultânea é o conceito para o trabalho em equipe, aproveitando as características multifuncionais próprias das pequenas e médias empresas. A identificação dos requisitos do cliente, transformadas em ações para o projeto, tem como ferramenta fundamental o QFD. A sua aplicação, com os devidos registros torna-se uma importante fonte de dados para novos desenvolvimentos. A aplicação do projeto de experimentos auxilia o desenvolvimento de produto, pois identificam como os parâmetros do projeto influenciam as caraterísticas da qualidade, orientando para testes mais objetivos com conseqüente ganho de tempo e menores custos de projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação introduz uma abordagem para a previsão de vendas de empresas no contexto do desenvolvimento de novos produtos. Supõe-se que o método proposto dê sustentação ao processo decisório relativo às primeiras fases do desenvolvimento desses produtos. Também visa alcançar algum nível de compreensão relativamente à influência de fatores externos e internos nos níveis de vendas. Basicamente este método compreende três etapas próprias: análise do ambiente externo e interno à companhia, modelagem do comportamento de demanda (potencial de mercado, vendas da empresa, faturamento do segmento de mercado da empresa) e suas respectivas projeções no tempo. Esta abordagem foi aplicada a uma situação específica de desenvolvimento de um novo produto em uma empresa de médio porte que opera como fabricante de brinquedos. É esperado que empresas de pequeno e médio portes que enfrentem restrições de orçamento possam achar esta abordagem praticável - desde que as informações requeridas possam ser coletadas e mantidas adequadamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho se propõe um avanço para a Técnica Transformada Integral Generalizada, GITT. O problema transformado, usualmente resolvido por subrotinas numéricas, é aqui abordado analiticamente fazendo-se uso da Transformada de Laplace. Para exemplificar o uso associado destas duas transformadas integrais, resolvem-se dois problemas. Um de concentração de poluentes na atmosfera e outro de convecção forçada com escoamento laminar, entre placas planas paralelas, com desenvolvimento simultâneo dos perfis térmico e hidrodinâmico. O primeiro é difusivo, transiente e com coeficientes variáveis. Sua solução é obtida de forma totalmente analítica. Além de mostrar o uso da técnica, este exemplo apesar de ter coeficientes variáveis, é resolvido com o auxílio de um problema de autovalores associado com coeficientes constantes. No segundo, obtém-se a solução da Equação da Energia analiticamente. Já a Equação da Conservação do Momentum é linearizada e resolvida de forma iterativa. A solução de cada iteração é obtida analiticamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado um estudo da síntese e caracterização de polinaftilaminas substituídas com vistas à sua utilização na proteção contra a corrosão. É mostrada a possibilidade de eletrosíntese de filmes destes polímeros intrinsecamente condutores sobre metais oxidáveis passiváveis em meio aquoso ácido pelos métodos potenciostático e potenciodinâmico sem dissolução dos eletrodos. A caracterização química, morfológica e eletroquímica destes filmes poliméricos demonstrou que não há sensíveis diferenças em relação aos mesmos filmes obtidos sobre eletrodos inertes e que é preservada uma das funções na cadeia polimérica. Os filmes de naftilaminas substituídas oferecem uma barreira parcial contra a corrosão do aço carbono e quando polimerizado o 1,5-diaminonafttaleno juntamente com a anilina forma-se o compósito Poli 1,5-diaminonaftaleno/Polianilina que passiva anódicamente o Fe em meio sulfato pH 4. É apresentada também a síntese química do poli 5-amino 1-naftol, que se mostra passivante anódico do aço inox SS 430 em ácido sulfúrico aquoso 1M.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a atividade proliferativa das células epiteliais da mucosa lingual de camundongos frente à ação do etanol a 40° GL, baseado na contagem e mensuração das áreas das AgNORs através da técnica de impregnação pela prata. Foram utilizados 32 camundongos com 2 meses de vida, divididos em três grupos. Os grupos controle e aplicação tópica receberam ração padrão e água comum, sendo o último submetido ainda a 2 aplicações tópicas semanais de 1ml de etanol a 40 °GL. No grupo ingestão a água foi substituída por etanol na mesma graduação alcoólica. Os animais foram biopsiados no centro do dorso da língua, no início, aos 6 e 12 meses de experimento, e as peças submetidas ao processamento de rotina para inclusão em parafina. Fizeram-se cortes histológicos de 4 µm submetidos à técnica de impregnação pela prata. Foram avaliadas a contagem e área das AgNORs de 50 células da camada basal e 50 da camada suprabasal. Os resultados foram comparados pelo teste da análise da variância (ANOVA) e teste post-hoc da mínima diferença significativa (LSD). Observou-se um aumento da média do número e da área das AgNORs na camada suprabasal aos 12 meses, no grupo ingestão (p < 0,05). Conclui-se que a ingestão de etanol a 40° GL provoca um aumento da proliferação celular na mucosa bucal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Materiais compósitos são empregados nos mais diversos tipos de estruturas (civis, mecânicas, aeronáuticas, etc.). A possibilidade de otimização de suas propriedades, frente às solicitações consideradas, representa uma grande vantagem na sua utilização. A teoria da homogeneização permite a avaliação da influência de detalhes microestruturais nas características do composto através do estudo de uma célula elementar. Os deslocamentos periódicos dessa célula são aproximados com expansões ortogonais polinomiais. A exatidão dos cálculos elásticos está associada ao grau dos polinômios utilizados. O procedimento numérico no modelo viscoelástico é incremental no tempo, utilizando-se de variáveis de estado, cuja implementação proporciona grande economia computacional, pois evita o cálculo de integrais hereditárias. A influência de diversos parâmetros físicos na constituição dos compósitos de fibras unidirecionais estudados é discutida e comparada com resultados obtidos com modelos em elementos finitos, tanto em elasticidade, quanto em viscoelasticidade sem envelhecimento. Para o caso de envelhecimento, no qual as características dos constituintes são variáveis com o tempo, é mostrada a resposta dos compósitos sob relaxação para diferentes instantes iniciais de carregamento em situações de "softening" (ou abrandamento) e "hardening" (ou endurecimento).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo aborda questões referentes às representações corporais e às atividades esportivas desenvolvidas no complemento curricular da Escola de Aplicação Feevale. Procurei compreender se os adolescentes recorreram às atividades esportivas como um recurso para a construção de uma representação de corpo a partir de determinados modelos corporais. O referencial teórico foi elaborado a partir de autores que compreendem o homem como um corpo, um corpo que percebe o que pensa, que se comunica, que interage com o contexto em que vive. A metodologia foi desenhada segundo o paradigma das investigações qualitativas, tendo como referencial o estudo de caso. O trabalho de campo consistiu de seis meses de contato com os adolescentes em suas práticas esportivas na escola. A análise e a interpretação das informações foram construídas a partir de Unidades Temáticas que emergiram, principalmente, das entrevistas semi-estruturadas, realizadas com os adolescentes, dos registros e das anotações resultantes das observações contidas nos diários de campo e do referencial teórico acerca dos aspectos que constituem o problema de pesquisa. As questões suscitadas a partir da construção dessas Unidades Temáticas permitiram compreender o quanto o corpo tornou-se fundamental para a vida dos adolescentes, uma vez que, pensando nele e preocupados com as formas dele, eles utilizam as práticas esportivas do contexto escolar como um recurso para construir uma representação corporal O processo de construção da representação corporal realiza-se a partir de duas situações: uma tendo como referência a própria estrutura biológica e a outra, determinada a partir de modelos exteriores ao corpo. O adolescente ainda idealiza que sua representação corporal desperte atenção do outro, agradando-o. Essa representação corporal foi considerada fundamental para o surgimento de sentimentos positivos ou negativos, por parte do adolescente, em relação ao seu próprio corpo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha dederes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devido à necessidade de permanecer competitiva e rentável, a indústriada construção civil tem mudado a forma de conduzir seus negócios e adaptado filosofias gerenciais para a suarealidade, como é o casodo Just-in-Time (JIT)e dos Sistemas da Oualidade (por exemplo: TOM e TOC). Dentro deste contexto, encontra-se a aplicação da Teoria das Restrições (TR) no processo de Planejamento e Controle da Produção (PCP) de obras de edificação. A Teoria das Restrições é uma filosofia gerencial fundamentada no conceito de restrição e em como gerenciar as restrições identificadas, fornecendo: (a) um procedimento para os responsáveis pela produção identificarem onde e como concentrar esforços e (b) um processo de melhoria contínua para o sistema produtivo como um todo, buscando sempre o ótimo globalantes do local. O desconhecimento dos possíveis benefícios e dificuldades decorrentes da adaptação e aplicação desta teoria na indústria da construção civil fez com que a aplicação da Teoria das Restrições fosse simulada, usando a técnica STROBOSCOPE (Stateand Resource Based Simulation of Construction Processes), em um empreendimento para analisar os impactos que prazos e custos podem sofrer durante as aplicações em casos reais. Estas simulações mostraram que a Teoria das Restrições e suas técnicas e ferramentas são aplicáveis ao processo de PCP, reduzindo os atrasos e os custos por atraso que um empreendimento pode sofrer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O modelo numérico GENESIS (Generalized Model for Simulating Shoreline Change) é parte de um sistema de modelagem de linha de praia, o SMS (Shoreline Modeling System), desenvolvido pelo CERC (Coastal Engineering Research Center), U.S.A. É um modelo genérico, determinístico e bidimensional, com grande flexibilidade para ser adaptado a costas abertas, arenosas e sujeitas a intervenção humana. Utilizado na previsão da resposta da linha praia as diversas obras costeiras que podem ser implantadas na mesma. Características estas, que fazem dele uma ferramenta indicada para a o estudo costa do Rio Grande do Sul e para o objetivo deste estudo. A aplicação do modelo de evolução de linha praia – GENESIS neste trabalho, tem como objetivos: calibrar o modelo numérico GENESIS para a costa centro norte do Rio Grande do Sul e avaliar seu uso como ferramenta na previsão de impactos ambientais gerados por obras costeiras, Alem de reproduzir as condições do modelo físico reduzido de 1965 e comparar os resultados entre as simulações matemática e física. O modelo foi aplicado num trecho de linha de praia da região centro norte do Rio Grande do Sul, nas praias de Tramandaí e Imbé. As quais já foram alvo de estudos anteriores através de modelo físico reduzido, em função do desejo deste município em construir molhes na desembocadura do canal da Laguna de Tramandaí. Para implementação do modelo numérico GENESIS foram utilizados dados das posições da linha de praia em três diferentes anos, coletados pelo CECO/UFRGS, dados de onda coletados pelo ondógrafo do IPH/UFRGS, e diversos dados sobre as praias e sua história, retirados da extensa bibliografia publicada sobre a região de estudo. A calibração do modelo foi realizada através das linhas de praia medidas em 1997 e em 2000. O modelo foi considerado calibrado quando o mesmo consegui reproduzir a linha de praia do ano 2000 a partir da linha de 1997, obtendo um erro máximo de 15 m. Foram realizadas simulações que reproduziam as simulações feitas em modelo físico reduzido do IPH em 1965. Através da comparação dos dados de onda utilizados no modelo físico reduzido de 1965 e dos dados de onda coletados pelo ondógrafo em 1996, pudemos observar a importância do uso de um série de dados de onda neste tipo de estudo, bem como, a desenvoltura e limitações do modelo numérico GENESIS na situações geradas.