860 resultados para Modelo dinâmico de equilíbrio geral
Resumo:
Este trabalho teve por objetivo apresentar os aspectos relacionados com o impacto provocado pelo Programa de Educação em Valores Humanos nas crianças e seus familiares, nos professores, coordenadores, diretores e voluntários que vivenciaram essa metodologia educacional criada por Sathya Sai Baba, nas escolas de Vila Isabel e Ribeirão Preto no ano de 2008. Em primeiro momento, foi necessário definir, mesmo de uma maneira geral, o conceito de valor, chegando ao específico de valores humanos. Buscou-se a relação direta com as religiões, traçando um paralelo entre a sua origem e a influência das religiões nos valores humanos e principalmente na maneira de se comportar dos indivíduos socialmente. Discutiu-se a educação no Brasil, com sua cronologia e influências, a educação na Índia e traçou-se um paralelo entre ambas. Viu-se que a educação brasileira precisava passar por uma transformação e que a implantação de um programa como este está relacionada ao querer por parte da gestão, já que ele agrega valor ao conteúdo formal. Por fim, apresentou-se a parte central do trabalho que é o Programa de Educação em Valores Humanos – PEVH, com sua origem, metodologias, técnicas, organizações mundiais e brasileiras que trabalham parcialmente ou na íntegra com o programa e os impactos provocados por quem vive os valores humanos. Os dados foram apresentados através da pesquisa bibliográfica e de campo que, juntos, confirmaram a importância do resgate dos valores humanos e da sua prática cotidiana na transformação da sociedade, por meio do processo educacional.
Resumo:
Introdução Os trabalhadores da saúde estão expostos a riscos biológicos no exercício da profissão, particularmente os agentes transmitidos por sangue e secreções, através de acidentes perfurocortantes. A maioria dos países implantou normatizações ou leis visando proteger estes profissionais, entre outros através da introdução de dispositivos de segurança. Desde a publicação da NR.32 em novembro 2005, as novas diretrizes vêm sendo implementadas nas unidades de saúde brasileiras, com dificuldades. Objetivos: (1) Principal: Verificar as alterações na incidência e no perfil dos acidentes perfurocortantes após a introdução de dispositivos de segurança (lanceta retrátil e catéteres para punção venosa periférica) no Hospital Federal dos Servidores do Estado a partir de 2009 em relação ao período anterior (2001-2008). (2) Secundários: \2013 Determinar os tipos de acidentes que sofreram redução. - Determinar a(s) categoria(s) profissional (is) beneficiadas pela introdução do(s) dispositivo(s) \2013 Estimar a relação entre os acréscimos de custos devidos à aquisição do(s) dispositivo(s) e a redução teórica das despesas obtida com diminuição dos acidentes. Métodos. Análise retrospectiva de um arquivo contendo os dados dos acidentes biológicos registrados entre janeiro de 2001 e dezembro de 2011 quanto a natureza do acidente, categoria profissional, tempo de profissão, tipo de instrumento, causa e/ou circunstância. Foram comparados os índices ao longo do tempo, particularmente até 2008 e de 2009 a 2011. Estimou-se também, com a ajuda de um modelo teórico, o impacto eventual de uma lanceta retrátil para coleta da glicemia capilar no orçamento da instituição Resultados. A proporção dos acidentes perfurocortantes diminuiu a partir de 2009 em comparação com o período anterior (P<0,001). Evidenciou-se uma relação inversa entre a média do tempo de experiência dos profissionais e o número absoluto dos acidentes perfurocortantes. A equipe de enfermagem teve uma redução significativa nos acidentes perfurocortantes por 100 equivalentes a tempo integral (ETI) de 2007 a 2011 (P<0,001), enquanto os residentes de medicina tiveram o maior índice no mesmo período. Observou-se uma redução dos acidentes perfurocortantes por agulhas de pequeno calibre desde 2009 e os acidentes durante a medida da glicemia capilar caíram bruscamente em 2010 e 2011 à medida que aumentava o número de lancetas retráteis adquiridas pelo hospital (P<0,001). Não se observaram reduções de acidentes envolvendo agulhas maiores ou vasos sanguíneos. Conclusões A adoção de um único dispositivo seguro e fácil de usar, uma lanceta retrátil, reduziu significativamente os acidentes perfurocortantes na equipe de enfermagem com provável vantagem custo-benefício. Ressalta-se a importância do treinamento dos recém-contratados e da educação continuada
Resumo:
A tutela antecipatória propicia a distribuição do ônusdo tempo no processo, sendo instrumento de concretização do equilíbrio abstato entre os principios da segurança jurídica e da inafastabilidade da tutela jurisdicional.Este instuto consiste, basicamente, na entega da prestação jurisdicional em momento anterior á formação da convicção definitiva do julgador, pela qual se autorizou ou determina á prática ou a abstenção de atos que têm como resultado a efetiva gruição de um direito provisoriamente reconhecido.Generalizada no âmbito do processo de conhecimento em 1994, a experiência mostrou as falhas do modelo lega, que veio presenciar a reforma recentemente por meio da Lei n°10.44, de 7 de maio de 2002.Neste trabalho, pretende-se no âmbito de um exame geral do instituto, analisar as inovações legais aludidas, verificando-se em que a medida elas vieram incorporar avanços ao processo civil positivado e registrando-se as diversas posições dos processualistas que já se manifestaram sobre o tema.
Resumo:
A morte neuronal é uma causa importante de disfunção no sistema nervoso central, que se manifesta comportamentalmente como déficits motores, cognitivos ou de memória. Uma causa importante de morte neuronal é a isquemia que é definida como a falta, ou diminuição, do aporte de sangue para os tecidos (GINSBERG, 1995 a; PULSINELLI, 1997). A região CA1 do hipocampo é a mais vulnerável à isquemia (PULSINELLI et al., 1982; SCHIMIDT-KASTNER & FREUND, 1991; NETTO et al., 1993; NELSON et al., 1997), e está relacionada com a memória tanto em humanos como em animais (SQUIRE, 1992). Vários trabalhos mostram que os animais isquêmicos apresentam pior desempenho em tarefas de aprendizado e memória (GINSBERG, 1997; SQUIRE, 1992; NETTO et al., 1993; NELSON et al., 1997). Estratégias visando proteger as células contra um dano letal vêm sendo estudadas há vários anos. A tolerância induzida à isquemia é a neuroproteção induzida por uma isquemia transitória breve a um evento isquêmico transitório de longa duração. Em geral, um evento isquêmico breve, de 2 minutos de duração, protege contra a morte celular induzida por uma isquemia grave, de 10-20 minutos de duração, desde que haja um período de 24 horas entre os dois eventos isquêmicos (CHEN & SIMON, 1997; KITAGAWA et al., 1997; BARONE et al., 1998; ROSA NETO, 1998). O presente trabalho teve como objetivo reproduzir o fenômeno da tolerância induzida à isquemia em ratos adultos e avaliar o efeito da tolerância induzida sobre o aprendizado e a memória da tarefa no labirinto aquático de Morris e sobre o volume da região CA1 hipocampal, pelo método de Cavalieri, em ratos submetidos à isquemia transitória grave. Os animais foram submetidos a um estudo do aprendizado da tarefa de localização da plataforma em um labirinto aquático em três fases. O labirinto aquático foi dividido virtualmente em 4 quadrantes com um ponto de largada entre cada um. Na primeira fase, a plataforma foi colocada em um dos quadrantes, onde permaneceu durante os 6 dias de treino., com 4 largadas em cada dia, e um teste no 7º dia sem a plataforma. Na segunda fase foram 4 dias de treino, seguido pelo teste, com a plataforma no quadrante oposto. Na última fase, a plataforma era colocada em um local diferente a cada dia para testar a memória de trabalho. Não foi observado diferença estatisticamente significativa nas latências para encontrar a plataforma entre os grupos controle e isquêmicos em todas as tarefas. Na análise do volume da região CA1, observamos uma diminuição de 20% nos animais submetidos à isquemia de 10 min., comparado com os dos grupos controle, isquemia de 2 min. e isquemia de 2+10 min. (neuroproteção) (p<0.05). Estes resultados comportamentais estão de acordo com os encontrados por alguns autores (KIYOTA et al., 1991; GREEN et al., 1992), porém outros autores relatam resultados diferentes (NETTO et al., 1993; IQBAL et al., 2001). As diferenças entre as metodologias utilizadas poderiam explicar parcialmente os resultados divergentes, também podemos supor que, 20% de diminuição de volume não é suficiente para provocar comprometimento do aprendizado.
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
Neste trabalho apresentam-se pocedimentos para análise não linear de estruturas de materiais compostos laminados reforçados por fibras. A formulação é baseada em uma descrição cinemática incremental Lagrangeana Total, que permite o tratamento de deslocamentos arbitrariamente grandes com pequenas deformações, utilizando elementos finitos tridimensionais degenerados deduzidos para a análise de cascas. As estruturas são consideradas como submetidas a cargas mecânicas e a ações de temperatura e de umidade. O material é suposto elástico linear com propriedades dependentes, ou não, dos valores da temperatura e da concentração de umidade, ou viscoelástico linear com uma relação constitutiva em integral hereditária , e com comportamento higrotermo-reologicamente simples. As lâminas são consideradas como sujeitas a falhas, as quais são detectadas através de critérios macroscópicos, baseados em tensões ou em deformações. As equações não lineares de equilíbrio são resolvidas através de procedimentos iterativos e as deformações dependentes do tempo são avaliadas pelo método das variáveis de estado. Diversos exemplos numéricos de estruturas submetidas à flexão, flambagem elástica e viscoelástica e falhas são apresentados.
Resumo:
o presente trabalho tem por objetivo desenvolver um código computacional destinado à simulaçáo numérica tridimensional e de escoamentos compressíveis hipersônicos em especial para analisar o processo de reentrada de veículos espaciais na atmosfera terrestre. Devido ás temperaturas elevadas encontradas neste tipo de escoamento, efeitos de altas temperaturas sáo incluídos, como excitação vibracional das moléculas e reações químícas. Utiliza-se o modelo de 2 temperaturas (translacional e vibracional);5 espécíes (N2, O2, NO, N, O) e 17 reações químicas de Park [1986 para o modelamento do fenômeno termo-químico. Introduz-se uma formulação baseada no método dos elementos finitos, através do esquema de Taylor-Calerkin, para a discretização do tempo e do espaço e para a solução do sistema de equações. Alguns exemplos e aplicações de problemas hipersônicos bi e tridimensionais, difusivos e não difusivos, são apresentados, incluindo comparações entre os resultados obtidos no presente trabalho e na literatura.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Esta tese tem como objetivo central investigar o impacto do gerenciamento de reclamações na confiança e lealdade do consumidor, em trocas de serviços relacionais. Para tanto, foi desenvolvido e testado um modelo teórico, que retrata os inter-relacionamentos entre avaliações específicas do processo de reclamação e construtos relacionais. Desta forma, o presente estudo relaciona três importantes correntes de pesquisa - teoria da justiça, gerenciamento de reclamações e estudos sobre confiança. De modo geral, os resultados obtidos através da Modelagem de Equações Estruturais confirmam 10 das 12 hipóteses estabelecidas a partir do modelo teórico proposto. Mais especificamente, os resultados indicam que as percepções de justiça distributiva, interpessoal e processual afetam significativamente a percepção global de justiça e o nível de satisfação do consumidor com o gerenciamento da reclamação. A confiança do consumidor após a reclamação é influenciada diretamente pelo nível de satisfa ção final alcançado e pelas experiências anteriores do consumidor com a empresa. Por fim, o grau de lealdade do consumidor é influenciado pela confiança do consumidor e pelo valor relacional.
Resumo:
As propriedades de uma série de copolímeros de etileno sintetizados com catalisador metalocênico (Et[Ind]2ZrCl2/MAO) foram estudadas. A fim de avaliar a influência do tipo e teor de comonômero na estrutura e propriedades dos mesmos, foram utilizados diferentes tipos de comonômeros: α-olefinas (1-buteno, 1-hexeno, 1-octeno, 1-deceno, 1-octadeceno e 4-metil-1-penteno), cicloolefinas (norborneno, ciclopenteno, ciclohexeno, cicloocteno e vinil-ciclohexano) e ciclodienos (ciclopentadieno, diciclopentadieno e 4-vinil-1-ciclohexeno) em uma larga faixa de composição (0 à 28 % em mol de comonômero). A influência da temperatura de polimerização e a concentração de comonômero na atividade catalítica e nas propriedades dos copolímeros de etileno/ciclodienos e etileno/cicloolefinas sintetizados foram estudadas e os copolímeros foram caracterizados através de 1H-NMR, 13C-NMR, HETCOR, DSC e GPC. As propriedades termodinâmicas, estruturais e mecânicas destes copolímeros foram estudadas através de técnicas tais como DSC, WAXS, espectroscopia Raman de modo interno, DMTA, ensaios de tensão/deformação, etc. Em geral, foi observado um decréscimo na cristalinidade e temperatura de fusão dos copolímeros com o aumento do teor de comonômero incorporado nos mesmos, independente do tipo de ramificação. Quando rapidamente resfriados, os copolímeros de etileno/α-olefinas e alguns copolímeros etileno/ciclodienos e etileno/cicloolefinas, com distribuição aleatória de comonômero na cadeia, apresentaram comportamento que concorda com o previsto pela teoria de equilíbrio de fases proposta por Flory. Análises termo-dinâmico-mecânicas dos copolímeros indicaram que o teor de comonômero apresenta grande influência nas transições α e β, mas apresenta pouca influência na transição γ. Em geral, foi concluído que as propriedades e morfologia dos copolímeros de etileno estudados são bastante influenciadas pelo teor de comonômero e distribuição do mesmo na cadeia polimérica, porém são pouco influenciadas pelo tipo de comonômero.
Resumo:
O objetivo principal deste estudo é definir um modelo referencial para obtenção e tratamento de informações técnicas, sociais, econômicas e ambientais atualizadas, confiáveis e integráveis dos principais sistemas de produção de um município, visando o desenvolvimento municipal sustentável, com apoio de sistema de informações geográficas (SIG). O SIG permite analisar informações de forma mais rápida, segura e de fácil interpretação, viabilizando a implementação de ações com vistas a um desenvolvimento crescente e duradouro, melhorando as condições de vida das famílias de agricultores e o aproveitamento e preservação dos recursos naturais. O desenvolvimento municipal sustentável em Pinhalão, estado do Paraná, Brasil foi potencializado através do uso de SIG e da instituição de um núcleo de informações que visa mediar as forças do governo e da comunidade local. Os indivíduos, grupos e instituições formais tiveram sua organização e acesso às informações e tecnologias facilitados e passaram a ter possibilidade de participar nas decisões de interesse da coletividade, garantindo o uso correto dos recursos e a transparência da gestão pública. O modelo participativo de desenvolvimento municipal sustentável resulta na manutenção e viabilização das propriedades rurais e das bacias hidrográficas, através de atividades que valorizem o uso da mão-de-obra e gerem alta renda por unidade de área, estabelecendo um equilíbrio entre os fatores sociais, econômicos e ambientais.
Resumo:
O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.
Modelo numérico para análise à flexão de elementos estruturais com protensão aderente e não aderente
Resumo:
Na protensão não aderente, a armadura permanece livre para se movimentar ao longo de seu perfil em todas as seções com exceção das de ancoragem. Não há aderência entre concreto e armadura, e a hipótese da compatibilidade de deformações entre o aço e concreto não é aplicável, tornando inviável o desenvolvimento de uma solução analítica. Visando colaborar para a maior compreensão do comportamento à flexão das estruturas com protensão não aderente e para o desenvolvimento de critérios nacionais de projeto, um modelo numérico foi implementado utilizando o elemento finito do tipo híbrido para pórticos planos. Nesta formulação, a equação para as solicitações ao longo do elemento é a função de interpolação, e as forças as variáveis interpoladas. Como esta função resulta das condições de equilíbrio, sem hipóteses arbitrárias, o método é considerado exato para forças e curvaturas. Elementos longos são possíveis, de maneira que um único elemento finito pode ser utilizado para um vão de viga ou pilar, reduzindo o esforço computacional. O caráter exato da formulação contribui para a boa modelagem dos cabos não aderentes, já que a tensão nestas armaduras depende das curvaturas de todas as seções do elemento. O modelo numérico proposto prevê a não linearidade geométrica, carregamentos cíclicos e a construção composta. Relações constitutivas já consolidadas na literatura são empregadas para os materiais. A cadeia de Maxwell é utilizada para representar o comportamento reológico do concreto e do aço de protensão, respeitando as características de envelhecimento de cada material. Inúmeros exemplos são apresentados, permitindo a comparação entre resultados numéricos e experimentais Uma análise paramétrica foi realizada, caracterizando o desempenho do modelo numérico frente a variações nos parâmetros de entrada. Discutem-se, ainda, dois critérios de ruptura para a utilização do modelo numérico no estudo do comportamento à flexão das estruturas com protensão não aderente. Os resultados indicam o bom desempenho do modelo numérico e a sua adequação para a realização de pesquisas sobre o assunto.
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.