109 resultados para Falhas ósseas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A participação do Brasil no moderno processo tecnológico, disseminado através da globalização, tem colocado as organizações empresariais em ritmo aceleradode mudanças, proporcionando um mercado altamente competitivo. o aprimoramento da qualidade, valor, bom atendimento e inovação dos produtos e serviços, que precisam ser adaptados rapidamente, proporcionam condições de sobrevivência para as empresas num mundo altamente globalizado. O programa TPM - Total productive maintenance, que, traduzido, resulta em Manutenção Produtiva Total, auxilia as empresas na redução de ocorrência de falhas em instalações, máquinas e equipamentos nestes ambientes competitivos. O objetivo deste trabalho é consolidar uma metodologia de implementação de TPM. Para isso, tem-se o desenvolvimento de um estudo de caso de implementação do programa em uma indústris gráfica. O trabalho limita-se às etapas de planejamento, implantação e avaliação dos resultados obtidos com a aplicação do TPM em um equipamento piloto, buscando confirmar as vantagens do método proposto. Os resultados obtidos com a implantação do programa na equipe piloto demonstram a eficácia das atividades desenvolvidas em grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os critérios de outorga adotados nas legislações dos estados inseridos no semi-árido - a fim de regulamentar a vazão de referência a partir de açudes - tem se baseado simplesmente em volumes (vazões) associados a níveis de confiabilidade de atendimento à demanda, não estabelecendo políticas operacionais que tornem seus usos menos vulneráveis às falhas prolongadas e concentradas que são comuns à região. Este trabalho tem o objetivo de avaliar as vazões de referência segundo as políticas de operação (PO) padrão e volumes de alerta. A primeira é uma operação menos arrojada se comparada com a segunda. Isto decorre do fato que na primeira não há maiores preocupações com a vulnerabilidade nos períodos de falha. Já a política de operação baseada em volumes de alerta assegura que na pior situação um suprimento mínimo será realizado. Foi elaborado um modelo de simulação com sub-tarefas de operação de reservatório, operação de projetos hidroagrícolas, operação de atendimento às demandas, avaliação econômica dos déficits e fornecimento de indicadores para subsidiar as avaliações. Dentre os indicadores fornecidos pelo modelo destacam-se: confiabilidade mensal da demanda primária, confiabilidade mensal da demanda secundária, confiabilidade anual do sucesso da atividade agrícola, anuidade equivalente dos custos de falha na demanda primária, anuidade equivalente dos benefícios líquidos da agricultura, anuidade líquida equivalente e total evaporado. Diante da análise de tais indicadores chegou-se à conclusão de que a PO volumes de alerta apresentou resultados superiores à operação padrão. O fato de assegurar o suprimento durante os longos e concentrados períodos de falha gera uma economia que não é superada pelo incremento de água oferecido pela PO padrão.Constatou-se também que a PO padrão coloca todas as categorias de demanda sob o mesmo patamar de vulnerabilidade, enquanto que na PO volumes de alerta as cotas são oferecidas com garantias diferenciadas, sendo mais atraentes do ponto de vista do gerenciamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preocupação com a qualidade ambiental aumentou significativamente nos últimos anos. Isso é evidenciado pela rígida legislação ambiental e pela mudança de comportamento da sociedade frente a esse assunto. Nesse contexto, as indústrias vêm sendo pressionadas a adequar seus processos produtivos às novas exigências. A fim de auxiliá-las nessa tarefa, várias metodologias de avaliação ambiental foram desenvolvidas, entre elas a Avaliação do Ciclo de Vida (Life Cycle Assessment – LCA). Ela se destaca por buscar soluções globais e efetivas para os problemas ambientais, através de uma análise sistêmica. No entanto, assim como outras metodologias, o LCA não apresenta uma avaliação econômica estruturada em conjunto com a ambiental. Esta dissertação tem a finalidade de contribuir para o preenchimento dessa lacuna, através do desenvolvimento de uma abordagem consistente e estruturada, capaz de avaliar simultaneamente impactos e custos ambientais em processos industriais. Para isso, foram utilizados como bases teóricas o LCA, o Modelo Econômico de Controle e Avaliação de Impactos Ambientais (MECAIA), a Metodologia para a Contabilidade do Gerenciamento Ambiental (Environmental Management Accounting – EMA), o Método de Custeio Baseado em Atividades (Activity Based Costing – ABC), a Avaliação de Riscos (Risk Assessment) e a Análise de Modos e Efeitos de Falhas (Failure Mode and Effects Analysis – FMEA). A abordagem desenvolvida foi aplicada em uma indústria do setor metal-mecânico para avaliar os impactos e os custos ambientais de seu processo produtivo, evidenciando que aparentemente há uma relação direta entre esses dois fatores, ou seja, os resíduos que geram maior impacto sobre o meio ambiente também apresentam maior custo associado Por fim, constatou-se que a combinação das metodologias, dos métodos e dos modelos utilizados permitiu a elaboração de uma abordagem capaz de orientar a análise de um processo produtivo, a fim de identificar quais as etapas que geram maior impacto sobre o meio ambiente, além de apurar os gastos ambientais e classificá-los nas categorias de prevenção, correção e geração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissetação propõe um estudo da metodologia utilizada no Processo de Desenvolvimento de Produto (PDP) da Siemens Metering Ltda, uma empresa do ramo eletroeletrônico, aboradando o mesmo através de uma visão sistêmica, com o suporte de ferramentas de qulaidade, sendo o objetivo principal a utilização integrada das ferramentas QFD e FMEA no processo de desenvolvimento de produto tornando possível a prevenção de falhas, melhorando a eficiência do processo. Para o desenvolvimento do trabalho foram feitos estudos junto a áreas da empresa onde se identificou que o método atualmente empregado em 98% dos projetos desenvolvidos acarretava falhas no desenvolvimento e conseqüentes atrasos dos cronogramas dos problemas ocorridos, o faturamento previsto não era cumprido, ficando em média com 2% do faturamento total da empresa, quando a previsão era de 12% em média. O impacto financeiro de reduções de custo propostas e não implementadas geraram a empresa um montante de R$ 250.000,00/ano, de despesas que poderiam ter sido evitadas A proposta de melhoria constitiu em definir uma metodologia de desenvolvimento de produto com suporte de ferrramentas de qualidade, QFD e FMEA. A abordagem sistêmica do processo possibilitou a identificação dos pontos relevantes do projeto, de forma a atender os requisitos do cliente, bem como a definiçaõ de ações de prevenção em pontos importantes para o projeto. A combinação destas ações possibilita que o processo de desenvolvimento de produto seja mais confiável, quanto a prazos e também em relação ao desempenho do produto resultante. Para o desenvolvimento do trabalho, foram selecionados dois projetos em desenvolvimento pela atual metodologia, onde a proposta foi aplicada, de forma que, foi possível identificar os pontos que anteriormente não haviam sido identificados como relevantes para as etapas de desenvolvimento já concluídas. A aplicação do QFD possibilitou transformar a qualidade demandada em requisitos do produto e do processo. O FMEA, aplicado a um item de cada projeto, possibilitou a definição de ações preventivas que se implementadas com sucesso, minimizam a possibilidade de falha do produto acabado. Os resultados demonstram que a nova metodologia se aplicada na etapa inicial do processo de desenvolvimento de produto, permite um ganho de produtividade e de confiabilidade em relação aos resultados obtidos com o processo atual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho relata as atividades de estudo, projeto e implementação de uma aplicação distribuída que explora mecanismos básicos empregados em comunicação de grupo. O estudo é focado no desenvolvimento e uso dos conceitos de sincronismo virtual e em resultados aplicáveis para tolerância a falhas. O objetivo deste trabalho é o de demonstrar as repercussões práticas das principais características do modelo de sincronismo virtual no suporte à tolerância a falhas. São preceitos básicos os conceitos e primitivas de sistemas distribuídos utilizando troca de mensagens, bem como as alternativas de programação embasadas no conceito de grupos. O resultado final corresponde a um sistema Cliente/Servidor, desenvolvido em Java RMI, para simular um sistema distribuído com visões de grupo atualizadas em função da ocorrência de eventos significativos na composição dos grupos (sincronismo virtual). O sistema apresenta tratamento a falhas para o colapso (crash) de processos, inclusive do servidor (coordenador do grupo), e permite a consulta a dados armazenados em diferentes servidores. Foi projetado e implementado em um ambiente Windows NT, com protocolo TCP/IP. O resultado final corresponde a um conjunto de classes que pode ser utilizado para o controle da composição de grupos (membership). O aplicativo desenvolvido neste trabalho disponibiliza seis serviços, que são: inclusão de novos membros no grupo, onde as visões de todos os membros são atualizadas já com a identificação do novo membro; envio de mensagens em multicast aos membros participantes do grupo; envio de mensagens em unicast para um membro específico do grupo; permite a saída voluntária de membros do grupo, fazendo a atualização da visão a todos os membros do grupo; monitoramento de defeitos; e visualização dos membros participantes do grupo. Um destaque deve ser dado ao tratamento da suspeita de defeito do coordenador do grupo: se o mesmo sofrer um colapso, o membro mais antigo ativo é designado como o novo coordenador, e todos os membros do grupo são atualizados sobre a situação atual quanto à coordenação do grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho objetivou avaliar os sistemas de gerenciamento de resíduos de serviços de saúde frente aos instrumentos legais e normativos vigentes no Brasil, acerca dos quais existem poucos estudos. O estudo envolveu coleta de dados reais, por um período contínuo de dois anos, analisando a eficiência da segregação, os sistemas de tratamento, e os custos decorrentes, em duas instituições de assistência à saúde em nível terciário (Hospital Escola do Sistema Único de Saúde - SUS e Hospital Conveniado). O sistema de gerenciamento de resíduos iniciou com um diagnóstico da situação das unidades hospitalares, definição das estratégias educativas de sensibilização, treinamento e capacitação do quadro funcional, com ênfase na segregação de resíduos. A avaliação dos custos, decorrentes da utilização de tecnologias de tratamento via esterilização por vapor úmido (hospital do SUS), e por oxidação térmica (hospital Conveniado), bem como dos custos estendeu-se ainda à disposição final dos resíduos. Foram analisados os índices e percentuais de geração das diferentes categorias de resíduos (infectantes, especiais, comuns e recicláveis) nos dois estabelecimentos. Estudo piloto prévio à implantação do sistema de gerenciamento, revelou um índice de geração total de resíduos de 3,5 kg/leito/dia no Hospital Conveniado, e de 2,6 kg/leito/dia no Hospital SUS. Os índices de geração de infectantes nos referidos hospitais foram de 1,3 (Conveniado) e 1,1 kg/leito/dia (SUS). Os dados do monitoramento contínuo (24 meses), demonstraram, em nível de significância de 5%, uma redução nos índices de geração de resíduos infectantes de cerca de 35% no Hospital Conveniado e de 38% no Hospital SUS, e um aumento significativo nos índices de geração de resíduos comuns e recicláveis, após a implantação dos sistemas de gerenciamento e dos programas educativos, indicando falhas na segregação anteriormente a estes. Os resultados confirmaram a influência positiva dos programas educativos e do sistema organizacional, e a possibilidade de serem alcançadas índices e percentuais ainda mais baixos que os preconizados pela literatura. Os resultados apresentaram, também, altas taxas de reencape de agulhas (41% das conectadas e 51% das desconectadas no Hospital SUS; 68% das conectadas e 55% das desconectadas no hospital Conveniado), dando indicativos do potencial de risco com saúde ocupacional a que estão expostos os profissionais, e da necessidade de reforçar os conceitos de auto cuidado com os mesmos. No tocante aos custos com os sistemas de gerenciamento, o Hospital Conveniado tem um custo final menor que o Hospital SUS. Porém, quando traduzido para paciente/dia, o Hospital SUS tem um custo de R$ 3,54 enquanto que no Hospital Conveniado o custo é de R$ 5,13, ou seja, 45,1% maior que no Hospital SUS, apesar da oferta de serviços ser semelhante. Para o tratamento de resíduos infectantes junto à fonte geradora com tecnologia de esterilização via vapor úmido e microondas, somados à despesa com serviços terceirizados para situações de contingência, tratamento de peças anatômicas e pérfuro-cortantes, o Hospital SUS tem um custo de R$ 0,57 paciente/dia enquanto o tratamento via incineração do Hospital Conveniado tem um custo de R$ 0,86 paciente/dia. Estes resultados evidenciam que o tratamento junto à fonte geradora, consideradas as situações avaliadas é mais vantajoso do ponto de vista econômico e ambiental. Os custos ambientais totais obtidos para o hospital SUS são de R$ 3,54 paciente/dia para R$ 5,13 por paciente/dia no hospital Conveniado. O trabalho fornece subsídios metodológicos para definição de índices e percentuais de geração, bem como para o cálculo dos custos envolvidos no gerenciamento que podem servir de base para aplicação em outros estabelecimentos de assistência à saúde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho se insere na área de teste de sistemas de hardware. O alvo principal é o estudo do comportamento de um circuito roteador de canais telefônicos, parte integrante de um sistema de comunicação mais complexo, na presença de falhas. Neste contexto, o teste em funcionamento do referido circuito roteador é considerado. Na primeira parte deste trabalho são abordados aspectos do teste de circuitos e sistemas, do ponto de vista de sua aplicabilidade, tais como classificação, defeitos e modelos de falhas, simulação, geração de testes e projeto visando o teste. Na segunda parte, relata-se os estudos realizados para implementar o teste em funcionamento do circuito roteador. Nesta etapa são abordados a arquitetura, o modelo de falhas e a metodologia utilizada, os ensaios de detecção de falhas e as técnicas de tolerância a falhas adotadas. O projeto do circuito de chaveamento é apresentado em uma versão utilizando componentes discretos e outra utilizando dispositivos programáveis. Na conclusão deste trabalho são apresentados os resultados obtidos e as perspectivas para trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Província Costeira do Rio Grande do Sul representa a porção emersa da Bacia de Pelotas, uma bacia marginal da Plataforma Sul Americana desenvolvida em resposta aos processos que levaram à ruptura do Supercontinente Gondwana e subseqüente abertura do Oceano Atlântico sul. Neste trabalho, a evolução morfotectônica desta Província foi investigada a partir da análise de bases cartográficas disponíveis, de imagens de sensores remotos, além da leitura crítica de uma ampla base documental existente, as quais permitiram delinear a contribuição neotectônica a este domínio. A evolução geodinâmica da Bacia de Pelotas, iniciada no Neo-Jurássico / Paleo-Cretáceo, tem seu máximo evolutivo no Mioceno, quando uma extensiva denudação na área continental propiciou um máximo de sedimentação. Os registros diretamente relacionados à Província Costeira do Rio Grande do Sul correspondem à seqüência superior desta Bacia, cujas idades estimadas são do Plioceno ao Recente. A análise morfotectônica efetuada compreendeu uma fase regional (primeira etapa da pesquisa), correspondente à contextualização dos aspectos geológicos, geomorfológicos e geofísicos da Província Costeira como um todo; nesta etapa, os elementos geomorfológicos foram identificados e hierarquizados segundo três sistemas de relevo, quatro regiões geomorfológicas e nove unidades de relevo. A segunda fase da pesquisa foi centrada na análise da rede de drenagem, sendo esta normalmente considerada uma ferramenta adequada à identificação dos sítios preferenciais à materialização da deformação neotectônica; a caracterização de padrões e anomalias da rede de drenagem e de canais fluviais, aliada à análise dos demais elementos do relevo, produziu um conjunto de elementos geomórficos que são usualmente relacionados à atividade neotectônica (segmentação de canais fluviais, cotovelos de captura, facetas trapezoidais e triangulares, etc.) A partir desta análise regional, foi escolhida a região circunvizinha a Porto Alegre para detalhamento, à qual foram preferencialmente direcionados os trabalhos de campo. Neste trabalho, estamos propondo uma complexa história neotectônica para esta área, tendo sido reconhecidos três macro-elementos morfotectônicos, discutidos como o Sistema de Falhas Coxilha das Lombas e a Bacia de Porto Alegre (ambos já reconhecidos por autores prévios) e o Lineamento Jacuí – Porto Alegre (introduzido neste trabalho); este Lineamento foi considerado o principal responsável por várias feições marcadas na evolução geomorfológica desta região, inclusive pela segmentação da Província Costeira. A atuação da neotectônica está materializada pela existência de estruturas deformacionais impressas em registros pleistocênicos da Província Costeira (correspondentes aos sistemas laguna – barreira I e II) e pela ocorrência de eventos sísmicos (dados históricos e instrumentais) nas adjacências desta Província, nas áreas continental e plataformal dos estados de Santa Catarina e do Rio Grande do Sul e da República do Uruguai. O estágio atual do conhecimento, entretanto, não permite a proposição de modelos geodinâmicos que incorporem a contribuição neotectônica de maneira sistemática, visto a pouca disponibilidade de dados de campo, assim como a quase absoluta inexistência de dados sobre o comportamento tridimensional das unidades constituintes da Província Costeira Sul-riograndense. São sugeridas, portanto, campanhas sistemáticas de campo para levantamento de dados estruturais e geofísicos nas áreas identificadas – através de análise morfotectônica prévia – como favoráveis à materialização da deformação neotectônica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Campo de Jacuípe, localizado no Compartimento Central da Bacia do Recôncavo, é importante produtor de gás na bacia. Os reservatórios são constituídos por corpos arenosos originados por fluxos gravitacionais subaquosos, intercalados a folhelhos e diamictitos da Formação Maracangalha, de idade cretácea inferior (Andar Rio da Serra Superior). Através da descrição sistemática de cerca de 1200 m de testemunhos, foram definidas três fácies deposicionais e seis fácies deformacionais para o intervalo estudado. O agrupamento das fácies em conjuntos que apresentam características estruturais e genéticas semelhantes permitiu a proposição de cinco associações de fácies. A Associação de Fácies I representa principalmente a sedimentação de background lacustre da área. A Associação de Fácies II é interpretada como o registro de deslizamentos (slides) ou porções proximais de escorregamentos (slumps). Os corpos da Associação de Fácies IIIa representam escorregamentos ou porções distais de deslizamentos. A Associação de Fácies IIIb constitui, possivelmente, o registro de fluxos turbidíticos. A Associação de Fácies IV representa um estágio transicional entre escorregamentos altamente móveis e fluxos de detritos (debris flows). O grau deformacional aumenta progressivamente da Associação de Fácies I para a Associação de Fácies IV. Através da análise dos perfis de raios gama (GR) e potencial espontâneo (SP) dos poços, observa-se um padrão granodecrescente geral, da base do intervalo ao datum utilizado nas seções estratigráficas; seguido de um padrão granocrescente geral, do datum para o topo do intervalo. Esta observação permite a interpretação de uma grande seqüência deposicional de terceira ordem (cerca de 7,5 M.a.), com um trato transgressivo na base e um trato de nível de lago alto no topo, separados por uma superfície de máxima inundação, representada pelo datum Os complexos de escorregamentos/deslizamentos, pontuando o trato de nível alto, podem estar relacionados a eventos de rebaixamento de uma ordem superior (de mais alta freqüência), possivelmente ligados a períodos de quiescência, após pulsos tectônicos episódicos. Os mecanismos de disparo dos fluxos gravitacionais foram provavelmente terremotos, causados pela atividade tectônica de movimentação de falhas, inerente ao estágio sin-rift; associados a instabilizações em áreas de frentes deltaicas progradantes a altas taxas de sedimentação, especialmente em locais de forte mudança no gradiente deposicional, como na paleo-linha de charneira, localizada a norte-noroeste do campo. Um importante mecanismo auxiliar pode ter sido a atividade de soerguimento de diápiros de folhelhos. A conectividade vertical e lateral entre os corpos pode ser considerada baixa. As áreas proximais de corpos arenosos de escorregamentos e, especialmente, de corpos de deslizamentos, pelo baixo grau deformacional, devem se constituir nos melhores reservatórios da área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo apresenta o uso integrado da sísmica de alta resolução e da morfologia submarina para interpretar a evolução do ambiente glacimarinho da costa de fiordes da Patagônia Central, Chile. Foram analisados registros de perfilador de fundo e subfundo 3,5 kHz e modelos submarinos 3D de sete fiordes adjacentes ao campo de gelo Patagônico Sul (Eyre, Falcon, Penguin, Europa Peel, Calvo e Amalia) e parte do canal Icy. Os registros, com cerca de 300 km de levantamento acústico, foram obtidos pelo Servicio Hidrográfico y Oceanográfico de la Armada de Chile (SHOA), durante o cruzeiro de investigação científica Campo de Hielo Sur, realizado em 1995. Foram identificadas as principais fácies acústicas e geoformas sedimentares. A morfologia submarina e das bacias subaéreas adjacentes foi analisada com a elaboração de modelos tridimensionais subaéreos e submarinos e de perfis batimétricos longitudinais a partir de cartas náuticas, também do SHOA. Foram utilizadas imagens Landsat ETM+ na interpretação da geomorfologia glacial da área de entorno subaérea dos fiordes. O eixo longitudinal dos fiordes exibe morfologia irregular com bacias profundas e mostra fácies acústicas associadas ao sistema de depósitos de zonas de linha de encalhe (grounding line), às línguas de gelos flutuantes, e aos icebergs e ao gelo marinho. Refletores acústicos distinguem duas fácies principais, segundo sua configuração interna e geometria externa: caóticas e estratificadas. A geometria dos depocentros e as características dos refletores acústicos indicam a importante influência da batimetria e da topografia pré-existentes na dinâmica das geleiras e nos conseqüentes processos de sedimentação. Devido às grandes profundidades das bacias, as frentes das geleiras poderiam ser flutuantes ou aterradas ao fundo marinho. Em todo o caso, predomina um regime glacial onde o gelo está perto do ponto de fusão. É sugerido que os fiordes estudados resultam de um continuum de formas e de processos, que vão dos lineamentos e sistemas de falhas pré-existentes e controlados tectonicamente desde o Mioceno Inferior (ca. 25 milhões de anos AP), processos de denudação fluvial e de vertentes, vales fluviais modificados glacialmente e, finalmente, canais e fiordes erodidos pela ação do gelo. A tectônica originou uma topografia favorável para o desenvolvimento das geleiras, ocorreram processos de retroalimentação positiva entre aumento o da precipitação e expansão do campo de gelo no lado oeste da cordilheira. Provavelmente, as geleiras durante o Último Máximo Glacial não foram suficientemente espessas para aprofundar os fiordes, tampouco para dragar seus depósitos sedimentares para fora deles. Os processos de deposição de sedimentos caóticos acusticamente visíveis ocorreram durante o recuo das geleiras, já no Holoceno, onde elas alcançaram pontos de estabilidade, ajudadas pela morfologia dos fiordes, mesmo em águas profundas. Os depósitos estratificados localizados nas bacias intra-sills e em maiores profundidades, por sua vez, tiveram sua origem, provavelmente, das partes flutuantes do gelo, onde predominam os processos de desprendimento de icebergs (calving) e também do gelo marinho. Nessas mesmas bacias, depósitos mais profundos, não visíveis ao sistema de alta-resolução, poderiam estar preservados no fundo, pois não foram erodidos pelos sucessivos ciclos de avanço e recuo das geleiras, contendo assim informações sobre a evolução do campo de gelo ao longo do Quaternário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os dispositivos analógicos programáveis (FPAAs, do inglês, Field Programmable Analog Arrays), apesar de ainda não terem a mesma popularidade de seus pares digitais (FPGAs, do inglês, Field Programmable Gate Arrays), possuem uma gama de aplicações bastante ampla, que vai desde o condicionamento de sinais em sistemas de instrumentação, até o processamento de sinais de radiofreqüência (RF) em telecomunicações. Porém, ao mesmo tempo em que os FPAAs trouxeram um impressionante ganho na agilidade de concepção de circuitos analógicos, também trouxeram um conjunto de novos problemas relativos ao teste deste tipo de dispositivo. Os FPAAs podem ser divididos em duas partes fundamentais: seus blocos programáveis básicos (CABs, do inglês, Configurable Analog Blocks) e sua rede de interconexões. A rede de interconexões, por sua vez, pode ser dividida em duas partes: interconexões internas (locais e globais entre CABs) e interconexões externas (envolvendo células de I/O). Todas estas partes apresentam características estruturais e funcionais distintas, de forma que devem ser testadas separadamente, pois necessitam que se considerem modelos de falhas, configurações e estímulos de teste específicos para assegurar uma boa taxa de detecção de defeitos. Como trabalhos anteriores já estudaram o teste dos CABs, o foco desta dissertação está direcionado ao desenvolvimento de metodologias que se propõem a testar a rede de interconexões de FPAAs. Apesar das várias diferenças entre as redes de interconexões de FPGAs e FPAAs, muitas também são as semelhanças entre elas, sendo, portanto, indiscutível que o ponto de partida deste trabalho tenha que ser o estudo das muitas técnicas propostas para o teste de interconexões em FPGAs, para posterior adaptação ao caso dos FPAAs. Além disto, embora o seu foco não recaia sobre o teste de CABs, pretende-se utilizá-los como recursos internos do dispositivo passíveis de gerar sinais e analisar respostas de teste, propondo uma abordagem de auto-teste integrado de interconexões que reduza o custo relativo ao equipamento externo de teste. Eventualmente, estes mesmos recursos poderão também ser utilizados para diagnóstico das partes defeituosas. Neste trabalho, utiliza-se como veículo de experimentação um dispositivo específico (Anadigm AN10E40), mas pretende-se que as metodologias de teste propostas sejam abrangentes e possam ser facilmente adaptadas a outros FPAAs comerciais que apresentem redes de interconexão semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar a acurácia da colposcopia utilizando a Classificação Colposcópica Internacional de 2002. Métodos: 3040 pacientes de população geral foram rastreadas para patologia cervical através de exame citopatológico, captura híbrida para HPV de alto risco e inspeção cervical. As colposcopias que resultaram em biópsia (n=468) executadas no rastreamento e acompanhamento destas pacientes foram gravadas, revistas por dois colposcopistas cegados e incluídas para análise. Resultados: Os observadores apresentaram excelente concordância (Kappa=0.843) no relato dos achados pela nova nomenclatura. A colposcopia apresentou sensibilidade de 86% e especificidade de 30.3% em diferenciar colo normal de colo anormal (LSIL, HSIL ou carcinoma); quando a colposcopia objetivava diferenciar colo normal ou LSIL de HSIL ou carcinoma, apresentou sensibilidade de 61.1% e especificidade de 94.4%. Os achados colposcópicos classificados como “maiores” pela nova classificação apresentaram valores preditivos positivos elevados para HSIL. Presença do achado colposcópico na zona de transformação e tamanho da lesão estavam associados a HSIL. Bordas externas definidas, associação de múltiplos achados distintos e presença de zona iodo negativa não estavam relacionados à gravidade das lesões. Conclusão: A colposcopia utilizando a Classificação Internacional de 2002 mostra-se um bom método de rastreamento, mas como método diagnóstico apresenta falhas, não podendo substituir a avaliação histológica. A categorização em achados colposcópicos “maiores” e “menores” apresentada pela nova classificação é adequada. Na realização da colposcopia, é importante também que a lesão seja situada em relação à zona de transformação e que seu tamanho seja indicado, já que estes foram fatores associados a lesões de alto grau.