127 resultados para Tolerância a falha (Computação)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente os sistemas computacionais mais sofisticados são aqueles que apresentam imagens gráficas. Devido às características de alta velocidade de processamento e excelente resultado na geração de imagens o uso da Computação Gráfica se dá em diversas áreas como a indústria, pesquisa, publicidade, entretenimento, medicina, treinamento, dentre outras. Este trabalho aborda dois assuntos clássicos na Computação Gráfica, Geometria Sólida Construtiva (CSG) e Sombras Projetadas. Ambos são muito importantes para esta linha de pesquisa da Ciência da Computação. A Geometria Sólida Construtiva é utilizada na modelagem de objetos e as sombras projetadas são necessárias para aumentar o realismo das imagens. Geometria sólida construtiva (CSG) é uma técnica para a modelagem de sólidos, que define sólidos complexos pela composição de sólidos simples (primitivas). Isso inclui também a composição de objetos já combinados, até que se chegue a um objeto mais complexo. Um fator muito importante e necessário na obtenção de imagens realistas e que deve ser considerado é a utilização de sombras, pois estas são eficazes no realismo e impressão espacial de objetos tridimensionais. As sombras estabelecem diversos níveis de profundidade na imagem, fazem uma pontuação geométrica na cena de modo a evitar que os objetos não pareçam estar flutuando no ar. Este trabalho consiste em apresentar uma proposta para a geração de sombras em objetos modelados pela Geometria Sólida Construtiva. Para tanto foram estudados os assuntos referentes à modelagem de objetos por CSG, algoritmos para a geração de sombras “bem delimitadas” e formas de gerar sombras na Geometria Sólida Construtiva. O processo de geração de sombras em cenas modeladas por CSG, através da aplicação das mesmas operações booleanas envolvidas na modelagem dos objetos, sobre as sombras nem sempre apresenta resultados corretos. Diante disso, foram investigadas outras formas de solucionar o problema. Dentre estas, uma alternativa é a realização de transformações na árvore binária CSG, através de outras operações, envolvendo o uso de complemento com operações de união e interseção, para a modelagem do objeto e geração da sombra correspondente. Com base nos estudos realizados foram implementados dois protótipos que exibem a sombra projetada de objetos modelados por CSG. Na implementação do protótipo A utilizaram-se as técnicas tradicionais de modelagem de sólidos e sombra projetada. Os resultados obtidos com este protótipo serviram de referência. No protótipo B os resultados foram obtidos através da aplicação da zona ativa das primitivas na modelagem dos objetos e a sombra é projetada durante o processo de avaliação de contornos do sólido. Os resultados obtidos com este protótipo são comparados com os resultados do protótipo A e são apresentados como forma de exibir a aplicação do método proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os avanços nas práticas de manejo e no melhoramento das cultivares de arroz irrigado têm permitido consolidar o Rio Grande do Sul como maior produtor deste cereal no Brasil. A seleção recorrente é um método alternativo de melhoramento que permite a recombinação cíclica de genótipos selecionados em uma população geneticamente divergente. Os objetivos deste trabalho foram avaliar o potencial da população CNA 11 para fins de melhoramento para tolerância ao frio, estudar a divergência genética dos seus genitores e quantificar as alterações nas freqüências alélicas como resultado do processo de seleção. Para isso foram conduzidos dois ensaios de campo compostos de 140 famílias S0:2 derivadas da população CNA 11 e quatro cultivares testemunhas, no delineamento látice 12 x 12 e em dois locais: Cachoeirinha (RS) e Santa Vitória do Palmar (RS), onde foram avaliados dez caracteres fenotípicos. O DNA dos genitores da população CNA 11 e de 133 famílias S0:2 foi analisado com marcadores moleculares do tipo microssatélites. A população CNA 11 apresentou alto potencial para fins de melhoramento, com ampla variabilidade genética em todos os dez caracteres avaliados. Os caracteres estatura de planta, esterilidade de espiguetas e número de grãos por panícula apresentaram altas correlações genotípicas com rendimento de grãos, podendo ser usados como critérios de seleção indireta. A esterilidade de espiguetas mostrou ser um critério eficiente de seleção para identificação de genótipos de arroz com tolerância ao frio no estádio reprodutivo. Os genitores da população CNA 11 apresentaram ampla divergência genética e, de modo geral, as freqüências dos alelos de microssatélites característicos dos genótipos da subespécie índica aumentaram e as da subespécie japônica diminuíram à medida que a intensidade de seleção aumentou. As melhores famílias S0:2 mostraram maior similaridade genética com os genitores da subespécie índica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A visualização de informações congrega um conjunto de técnicas que têm por objetivo facilitar o entendimento de informações a partir de representações visuais. Nesta área, parte-se do pressuposto de que uma representação visual de dados ou informações proporciona uma forma mais simples e intuitiva de entendê-los e, com isso, inferir mais rapidamente e com maior precisão o seu significado. Normalmente, a tarefa de análise de dados é realizada com o auxílio de ferramentas de acordo com a natureza dos dados e do estudo sendo realizado. As técnicas de visualização de dados e informações não substituem ferramentas de análise específicas. Elas podem ser usadas como primeira aproximação do processo de análise, quando sintetizam de forma visual uma grande massa de dados, permitindo escolher partes do volume de dados para análise mais detalhada, ou como forma de apresentação de dados já reduzidos. Quando o subconjunto dos dados de interesse está disponível, a utilização de uma ferramenta de visualização proporciona maior agilidade nas análises e padrões na massa de dados podem ser descobertos visualmente. Uma das classes de técnicas de visualização utilizada nesta área é a icônica. Um ícone (ou glifo) é um objeto com geometria e aparência paramétricas, as quais podem ser arbitrariamente vinculadas a dados. A função de um ícone é agir como uma representação simbólica, que mostra as características essenciais de um domínio de dados ao qual o ícone se refere. Assim é possível obter uma visualização dos dados de uma forma mais clara e compacta. Em geral, ícones são utilizados para representar dados multidimensionais, ou seja, múltiplos atributos associados a uma posição num espaço qualquer, ou a entidades em estudo. O presente trabalho analisa o uso de ícones na visualização de informações. São discutidos os conceitos fundamentais de visualização de informações e sua relação com a área de mineração de dados. O uso de ícones em diversos trabalhos apontados na literatura é apresentado, sendo abordada a questão de geração automática de ícones, mais flexível do que os conjuntos fixos providos pelos sistemas de visualização estudados. Uma proposta para gerar ícones de forma automática baseada numa especificação paramétrica dos ícones é utilizada em um conjunto de dados característicos de espécimes animais estudados por biólogos do Departamento de Genética da UFRGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa teve como objetivo construir e validar uma escala para avaliação do fator neuroticismo/estabilidade emocional. Neuroticismo é uma dimensão da personalidade humana, no modelo dos cinco grandes fatores, que se refere ao nível crônico de ajustamento e instabilidade emocional. Um alto nível de neuroticismo identifica indivíduos propensos a sofrimento psicológico que podem apresentar altos níveis de ansiedade, depressão, hostilidade, vulnerabilidade, autocrítica, impulsividade, baixa auto-estima, idéias irreais, baixa tolerância a frustração e respostas de coping não adaptativas. No primeiro estudo deste projeto foram gerados os itens da escala e avaliadas as suas qualidades psicométricas e validade de construto. Os participantes foram 792 estudantes universitários de três estados brasileiros. O segundo estudo teve como objetivo verificar a validade concorrente do instrumento. Participaram 437 estudantes universitários. Os resultados mostraram que o instrumento e as quatro subescalas identificadas através da análise fatorial apresentam qualidades psicométricas adequadas. As correlações entre o instrumento e testes para avaliar ansiedade, depressão, bem estar subjetivo, auto estima e neuroticismo (EPQ) indicaram que a escala construída está avaliando adequadamente as diferentes facetas do construto neuroticismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hipotetiza-se que haja sinergismo na associação de herbicidas inibidores do fotossistema II e da síntese de carotenóides, pelos seus mecanismos de ação específicos. Com o objetivo de demonstrar a existência de sinergismo na associação de herbicidas pertencentes a estes dois grupos foram conduzidos trabalhos em laboratório, casa-de-vegetação e a campo. Em laboratório avaliou-se a interação de metribuzin e clomazone através da estimativa do estresse oxidativo gerado pela associação, em plantas de girassol, com a determinação dos níveis de malondialdeído e extravasamento eletrolítico. Em casa-de-vegetação, plantas de girassol foram tratadas com os mesmos herbicidas e foram tomadas amostras para eletromicrografias que produziram visualização dos cloroplastos tratados e não tratados. Também foram aplicados tratamentos a fim de permitir a formação de curvas de resposta às doses dos mesmos herbicidas, com a representação das doses causadoras de 50% de efeito em isobologramas. Avaliou-se também o impacto da associação metribuzin e clomazone sobre as relações de interferência entre soja e girassol, pelo delineamento dialélico A campo foram conduzidos experimentos de controle de Bidens pilosa infestando a cultura da soja com os herbicidas metribuzin e clomazone. Para avaliar a seletividade das associações, conduziu-se experimentos com a cultura da soja, onde testou-se metribuzin e clomazone e com a cultura do milho, testando-se atrazine e isoxaflutole. Nos trabalhos com malondialdeído, extravasamento eletrolítico e eletromicrografias, obteve-se sinergismo valendo-se do método de Colby. No ensaio de curvas de resposta, a variável massa seca apresentou probabilidade de sinergismo de 0,90 em uma combinação. No dialélico, a associação dos produtos reduziu a tolerância da soja ao metribuzin e à sua associação com clomazone. No controle de B. pilosa, as variáveis percentual de cobertura e controle demonstraram sinergismo pelo método de Limpel. Na avaliação de seletividade, não se observou nenhum dano resultante da associação dos herbicidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise da iteração solo-estrutura em fundações é um importante campo de pesquisa que ainda tem um grande progresso a ser feito. No presente trabalho foi desenvolvido um programa computacional para a análise da interação solo-estrutura de fundações de concreto armado. Este tema abrange duas áreas da engenharia civil: estruturas e geotecnia. O método dos elementos finitos foi usado no trabalho na seqüência para resolver o problema considerando estado plano de defonnação e comportamento elastoplásti.co dos materiais estudados (solo, concreto e aço). A linguagem de programação MATLAB foi usada em toda esta pesquisa como alternativa ao FORTRAN. O MATLAB foi escolhido uma vez que é uma linguagem de programação que permite facilmente construir uma interfàce de pré e pósprocessamento amigável. Os passos para a solução completa do problema foram os seguintes: Primeiramente um programa foi desenvolvido considerando o comportamento elastoplástico com critérios de plastificação e ruptura específicos para o concreto e solo. Soluções analíticas fechadas foram usadas para checar a precisão do programa. O segundo passo foi a introdução do reforço de aço no concreto por meio de um modelo para armaduras. Logo após, um modelo de fissuras para o concreto 1racionado foi in1roduzido no programa. Na seqüência o programa de pré e pós-processamento foi desenvolvido para gerar a malha de elementos finitos (pré-processamento), distribuição tensões e deformações, mapa de fissuras, etc (pósprocessamento). Finalmente, os parâme1ros constitutivos do solo, concreto e aço foram calibrados e várias situações reais de interação do solo-concreto de fundações de concreto armado foram simuladas. Nesta dissertação são encontrados resultados para as pressões de contato sapata-solo. Diferentes diagramas de tensões de interfàce foram obtidos em função rigidez relativa do elemento estrutural de concreto armado-solo. Na análise mnnérica, rigidez relativa desempenhou uma relevante função no comportamento mecânico do elemento estrutural de concreto armado (sapata) e da base de assentamento (solo), uma vez ruptura em ambos os casos esteve diretamente relacionada a esta grandeza. São encon1rados, em função da rigidez relativa, resultados indicativos dos modos de falha da fundação, excessiva plastificação do solo em fundações com rigidez relativa alta, e a plastificação armaduras, esmagamento do concreto, formação de fissuras, bielas e confinamento concreto para fundações de rigidez relativa baixa. Na análise numérica, obteve-se resultados importantes com relação ao projeto de fundações. Estes resultados foram cOnITontadoscom normas, destacando-se as discordâncias com relação às recomendações da nonna brasileira Projeto e Execução de Fundações" NBR-6122 (1996) para os diagramas de tensões interface sapata-solo usados no dimensionamento de fundações de concreto armado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Determinar a prevalência de má absorção de lactose e sua associação com a cor da pele e a idade em crianças e adolescentes de escolas públicas do município de Porto Alegre. Material e Métodos: Foi realizado um estudo transversal que incluiu 225 indivíduos de 8 a 18 anos, freqüentadores de escolas públicas do município de Porto Alegre. Os participantes foram classificados segundo a cor e a faixa etária. A má absorção de lactose foi diagnosticada através do teste do hidrogênio expirado após ingestão de 250 ml de leite. O teste teve duração de 3 horas e foi considerado como critério de positividade o aumento ≥ 20 partes por milhão na concentração de hidrogênio em relação ao nível basal. Resultados: Foram estudados 225 alunos, com uma média e desvio padrão de idade de 12,2 ± 2,0 anos. Cento e cinqüenta e quatro alunos eram de cor branca (68,4%) e os restantes, de cor não-branca (preta ou parda). A má absorção de lactose foi evidenciada em 19/225 casos (8,4%). Foram diagnosticados 8/154 casos (5,2%) nos alunos de cor branca e 11/71 casos (15,5%) nos alunos de cor não-branca (p = 0,02). Em relação à faixa etária, ocorreram 15/143 casos (10,5%) nos alunos entre 8 e 12 anos e 4/82 casos (4,9%) entre 13 e 18 anos (p = 0,227). Conclusões: A prevalência de má absorção de lactose encontrada em alunos de escolas pú-blicas de Porto Alegre é alta, especialmente se considerarmos que foram utilizadas doses fi-siológicas (250 ml de leite) para o diagnóstico. As taxas de má absorção foram maiores entre as crianças de cor não-branca em relação às crianças de cor branca, confirmando a influência racial na hipolactasia primária do tipo adulto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Fonnação Alagamar corresponde ao estágio transicional na evolução tectono-sedimentar da bacia Potiguar, representada inicialmente por um ambiente tlúvio-deltaico passando a lagunar restrito com indícios de intluência marinha. Os resultados obtidos nas análises por DRX, a partir das frações> 2 11me < 211m, demonstram variações na composição mineralógica ao longo das perfurações analisadas. A principal característica é a forte contribuição de minerais detríticos na fração >2 I-lme a predominância de argilominerais na fração <2 I-lmrepresentados por esmectita, ilita, caulinita, clorita, sepiolita e interestratificados de ilitalesmectita (IIE) e cloritalesmectita (CIE). As carapaças de ostracodes identificadas correspondem a espécies nãomarinhas de três famílias mais comuns no Cretáceo: Cyprididae, Limnocytheridae e Darwinulidae. A avaliação estatística da composição ontogenética das espécies fósseis, tomou-se útil neste trabalho para estimar os níveis de energia do paleoambiente deposicional. As associações de argilominerais e ostracodes, caracterizadas ao longo dos cilindros de sondagens estudados na Fonnação Alagamar, sugerem a variação dos ambientes deposicionais a partir de um ambiente lacustre e de clima árido. Ainda a passagem por uma fase transgressiva com o aumento da salinidade, condições de fundo redutoras e margens subaquosas, ocasionam exposições subaéreas intennitentes, culminandono topo com um período mais úmido e condições de águas salinas O rico conteúdo em esmectita assemelha os depósitos da Fonnação Alagamar aos depósitos neoaptianos, os quais estão associados a condições climáticas com tendência à aridez. Sugere, ainda, morfologia pouco acidentada e drenagem reduzida ao redor de um paleolago restrito, o que favorece o desenvolvimento de solos do tipo vertissolo, fonte principal da esmectita da área. Os teores baixos de ilita e caulinita são, em grande parte, do resultado de erosão reduzida, atribuído ao relevo pouco acidentado da área. A associação dos argilominerais ilita, esmectita e interestratificados não ordenados indica condições rasas de soterramento e baixas temperaturas de diagênese nas amostras da base da perfuração RN6, alto de Macau. Ainda, a coloração apresentada pelas carapaças de ostracodes, entre o amarelo-laranja muito claro (2,5 Y 8/4) e amarelo amarronado(10 YR 6/6), sugerem níveis imaturos quanto à maturação da matéria orgânica. Na perfuração RN9, próxima a falha de Ubarana, condições de maturação da matéria orgânica são indicadas pelas cores cinza muito preto (5 Y 3/1) a preto (5 Y 2,5/1) apresentadas pelas carapaças de Candona sp.1, originalmente de cor branca (5 YR S/1 aiO YR 8/1). As intensidades e a fonna dos picos da ilita e da caulinita, a ausência de interestratificados e de argilominerais expansivos indicam condições de diagênese mais intensas que na perfuraçãoRN6. Associações de argilominerais identificadas em análises de difração de raios-X e mudanças na coloração das carapaças de ostracodes sugerem a utilização destes constituintes como indicadores ténnicos (geotennômetros) da maturação da matéria orgânica presente em rochas geradoras de hidrocarbonetos. Palavras chaves: Fonnação Alagamar, argilominerais, ostracodes, geotermômetros, bacia Potiguar.