116 resultados para estudos de validação
Resumo:
Os fenômenos da tradução, assim como vários dos diversos percursos históricos e teóricos apresentados ao longo da História sobre o tema, serão explicitados e discutidos. A avaliação comparatista de duas traduções de Moll Flanders, de autoria de Daniel Defoe, será desenvolvida, levando-se em consideração as concepções mais atuais dos Estudos de Tradução, como a teoria da Reescritura de Andre Lefevere. Aspectos como o status do tradutor, assim como o sistema literário do qual este provém, são fatores que também serão pertinentes às referidas análises críticas.
Resumo:
A prolactina(PRL) humana circula em múltiplas formas de diferentes tamanhos moleculares, das quais três são detectadas na cromatografia por filtração em gel(CFG): Little ou monomérica(mPRL), Big( bPRL) e Big-Big ou macroprolactina( bbPRL ou macroPRL). Em pessoas normais, a principal forma é a mPRL(85 a 90% do total) com uma pequena proporção de macroPRL. Em algumas pessoas, porém, ocorre uma maior quantidade de macroPRL, um fenômeno denominado Macroprolactinemia, que se sabe estar presente entre 10-25% dos soros hiperprolactinêmicos. É importante a sua identificação para evitar investigação e tratamento desnecessário. O método padrão para sua detecção é a cromatografia por filtração em gel( CFG); porém, a precipitação com polietilenoglicol( PEG) é um método de triagem simples, confiável e de baixo custo. Os testes com PEG originais foram feitos com o ensaio imunofluorimétrico( IFMA) Delfia para PRL. Objetivo: Validar um teste sensível e específico para a triagem de macroPRL baseado no ensaio de PRL quimioluminescente Immulite DPC. Resultados e métodos: Analisamos amostras séricas de 142 pessoas de ambos sexos. Baseado nessas amostras de rotina, dosamos a PRL seguida da precipitação com PEG e cálculo da recuperação de PRL( %R de PRL). Destes soros, 88 foram submetidos a cromatografia com filtração em Gel. Foi definido um ponto-de-corte para a presença de macroPRL, baseado numa curva ROC, ao comparar-se os resultados do teste de precipitação com PEG e os da CFG. O ponto-de-corte foi definido em 60%, com o achado de um teste com sensibilidade de 88,9% e especificidade de 98,6%. Correlacionou-se a dosagem de mPRL com a presença de macroPRL na cromatografia. Conclusão: Validamos um teste de triagem para macroPRL baseado no ensaio quimioluminescente DPC Immulite com sensibilidade de 88,9% e especificidade de 98,6 % para a porcentagem de recuperação PRL de 60%. O achado de uma valor de mPRL menor ou igual a 20 depois da precipitação com PEG vai suportar este diagnóstico. A prevalência( 20,4%) de macroPRL encontrada em nosso estudo, utilizando a metodologia proposta, é semelhante à encontrada na literatura.
Tradução, adaptação e validação do Defensive Style Questinnaire (DSQ-40) para o português brasileiro
Resumo:
O estudo dos mecanismos de defesa do ego tem servido como indicativo do modo típico de um indivíduo lidar com os conflitos. Os mecanismos de defesa podem ser agrupados em três fatores alocados de forma hierárquica: fatores maduros, neuróticos e imaturos. Bond desenvolveu um questionário objetivo e auto-aplicável, o Defensive Style Questionnaire – DSQ, que visa identificar os derivados conscientes dos mecanismos de defesa. O objetivo desse estudo é o de descrever o processo de tradução do Defensive Style Questionnaire (DSQ-40) versão em português e avaliar a confiabiidade, validade de conteúdo de constructo dessa versão do instrumento. Métodos: A primeira versão da escala foi apresentada para cinco indivíduos, com graus diferentes de escolaridade, que efetuaram pequenos ajustes de linguagem. Posteriormente, a escala foi apresentada para três “experts”, que avaliaram a validade de conteúdo do instrumento. A versão final foi retraduzida e apresentada para o autor do instrumento original que aceitou essa versão do DSQ-40. Posteriormente foi avaliada a confiabilidade e validade da versão em português do Defensive Style Questionnaire (DSQ-40). A amostra constitui-se de 339 indivíduos. Uma subamostra (n=75) foi avaliada também pelo MMPI, e outra subamostra (n=66) foi também avaliada pelo DFS (Escala de Funcionamento Defensivo). Resultados: Houve necessidade de pequenos ajustes no vocabulário em oito questões e modificações na linguagem em quatro questões, resultando na versão final do instrumento. A média de correlação dos “experts” com cada defesa foi de 89%, e dos fatores maduros, imaturos e neuróticos foi de 100%. A análise fatorial do instrumento forneceu uma distribuição das defesas semelhante ao instrumento original. A avaliação teste-reteste demonstrou boa correlação intraclasse em todos os fatores. O uso de defesas imaturas e neuróticas foi maior entre os pacientes que os controles (p<0,05). Houve correlação entre o nível defensivo de acordo com o DFS (p=0,006) e MMPI (p=0,004) e as defesas imaturas. Conclusões: A adaptação do DSQ-40 por diferentes indivíduos com diferentes graus de escolaridade e pelo grupo de experts possibilitou o ajuste à realidade sociocultural brasileira. Os dados do presente estudo indicam que a versão em português do DSQ-40 possui características psicométricas que permite o seu uso na nossa cultura.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
A exposição do ser humano a vibrações mecânicas é um tema relacionado com a mecanização do trabalho e à proliferação de veículos automotores, e é, portanto, um assunto que só começou a ganhar importância em meados do século XX. Atualmente, a vibração é amplamente reconhecida como um fator de risco para a saúde de trabalhadores de todo o mundo. Além disso, fatores de grande relevância no mundo atual, como o desempenho na realização de tarefas e a qualidade de vida, podem ser afetados pela presença de vibração em ambientes de trabalho e em outros locais do cotidiano. As soluções das questões relacionadas com o tema passam pelo entendimento de como o ser humano reage física, fisiológica e psicologicamente à presença da vibração, e muito se tem estudado para entender este fenômeno extremamente complexo. A maioria dos trabalhos publicados sobre o tema foi desenvolvida em grandes centros de pesquisa norte-americanos e de alguns países europeus. Sendo as características individuais, como o biótipo, fatores importantes na reação do corpo ao movimento, é necessário que populações externas a estes centros de pesquisa sejam envolvidas nos estudos experimentais, cujo objetivo é levantar informações que permitam a evolução dos conhecimentos na área. Os objetivos deste trabalho foram (1) desenvolver um aparato experimental com custo acessível para realização de experimentos que permitam medir parâmetros do comportamento dinâmico humano de corpo inteiro e (2) utilizar este equipamento para realizar medições em uma população exposta à vibração de corpo inteiro em sua atividade profissional, e utilizar estes dados para desenvolver um modelo do comportamento dinâmico da população amostrada. Foi desenvolvida uma mesa vibratória baseada em um acionamento pneumático, com custo inferior aos sistemas hidráulicos e eletro-mecânicos tradicionalmente utilizados, capaz de produzir vibração na direção vertical com as características necessárias à realização dos experimentos em questão. O sistema foi utilizado para medir parâmetros biodinâmicos em um grupo de controle e um grupo de motoristas da SOUL, uma empresa de transporte coletivo da região metropolitana de Porto Alegre. Os resultados das medições mostraram diferenças no comportamento dinâmico das duas populações amostradas. São apontadas e discutidas no texto algumas possíveis causas para estas diferenças, como a influência da idade e a mudança da reação ao estímulo nos indivíduos expostos à vibração em seu ambiente de trabalho.
Resumo:
Este trabalho consiste em um estudo de caracterização e viabilidade econômica, para implantação de uma linha de processo, para beneficiar uma jazida de nefelina-sienito. Esta jazida pertence à Mineração e Pesquisa Brasileira Ltda e está localizada no Domo Alcalino do Planalto Lageano, no Estado de Santa Catarina. Nefelina-sienito é uma rocha ígnea de origem plutônica, com ausência de quartzo livre, constituída por minerais félsicos que são os feldspatos e feldspatóides e máficos, que são o piroxênio e anfibólio, associados a minerais acessórios como zircão, apatita, titanita e minerais opacos. Sua principal utilização é como fundente para a indústria cerâmica e vidreira. Este insumo concorre com o Feldspato neste segmento, com vantagens intrínsecas, como teor mais elevado de álcalis (Na2O+K2O), homogeneidade da jazida, além da proximidade do centro consumidor. Por outro lado, apresenta uma grande desvantagem que limita sua utilização na indústria cerâmica, e praticamente exclui seu emprego para o porcelanato e esmalte, que é a interferência na cor do produto final, reflexo do elevado teor de ferro. O objetivo deste trabalho é obter um produto que sirva de insumo (matériaprima) fundente à indústria cerâmica, especificamente na linha de revestimentos nobres, para a fabricação de um piso cerâmico de alto valor agregado, denominado grêsporcelanato Para atingir este objetivo, definiu-se as etapas e ensaios a serem realizados para extrair os minerais máficos (cromóforos), ou seja, aqueles com ferro presente em sua estrutura, e com isto enquadrar o produto dentro dos padrões exigidos pela indústria cerâmica. Inicialmente realizou-se uma caracterização mineralógica da nefelina-sienito, identificando suas características estruturais e texturais e seus minerais constituintes, diferenciando os máficos dos félsicos, estudando suas características físicas, químicas e morfológicas. Posteriormente, efetuou-se a caracterização tecnológica avaliando o grau de liberação destes minerais e, por fim, ensaios de beneficiamento, utilizando-se as técnicas de flotação e separação magnética a seco e a úmido, avaliando suas performances e definindo a rota de processo mais indicada.Elaborou-se um fluxograma de processo específico para esta linha de produção considerando os equipamentos que a empresa já possui, buscando reduzir o custo de implantação. Definida a linha de processo e os equipamentos necessários para sua implantação, avaliou-se os investimentos e custos envolvidos para duas escalas de produção. Por fim elaborou-se um fluxo de caixa para avaliar a viabilidade econômica do projeto. Os resultados encontrados confirmaram a viabilidade técnica e econômica para implantação desta nova linha de processo.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Não existe uniformidade nos critérios diagnósticos do diabetes gestacional, mas em geral eles se baseiam em testes de tolerância à glicose realizados em 2 a 3 horas . O objetivo deste estudo é avaliar a capacidade de um TTG 75g realizado em 1 hora em predizer diabetes gestacional segundo critérios da Organização Mundial da Saúde e desfechos adversos da gravidez a ele relacionados. Trata-se de um estudo de coorte de mulheres com 20 ou mais anos de idade, sem diabetes fora da gravidez, atendidas em serviços de pré-natal do Sistema Público de Saúde, em seis capitais brasileiras, entre 1991 e 1995. Os dados referem-se a 5004 mulheres que foram entrevistadas e realizaram um teste oral de tolerância com 75 g de glicose entre a 24ª e 28ª semana de gestação. Dados da evolução da gravidez e do parto foram extraídos dos prontuários. A capacidade da glicemia de 1 hora em predizer o diabetes gestacional foi excelente, com área sob a curva ROC de 0,903 (0,886-0,919). O ponto de corte que otimiza sensibilidade (83%) e especificidade (83%) na predição de diabetes gestacional é 141 mg/dl. Para macrossomia, sua sensibilidade é 33% e a especificidade 78%. Altas especificidades foram alcançadas com glicemias na ordem de 180 mg/dl na detecção do diabetes gestacional (99%) e da macrossomia (97%). Um ponto intermediário, com sensibilidade satisfatória (62%) e especificidade ainda elevada (94%) na predição do diabetes gestacional é 160 mg/dl. Para macrossomia, sua especificidade é 90%. A predição de desfechos adversos da gravidez foi semelhante à da glicemia de 2 horas. É possível, portanto, simplificar a detecção do diabetes gestacional com o TTG-1h , empregado como teste de rastreamento (140mg/dl) e de diagnóstico (180mg/dl) simultaneamente.Uma proporção pequena de gestantes ainda requer confirmação, mas o diagnóstico terá sido realizado mais precocemente naquelas com glicemia mais elevada.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
Com o objetivo de determinar a eficiência da ação polinizadora de Apis mellifera L. no rendimento de sementes de Adesmia latifolia, estabeleceu-se três tratamentos na Estação Experimental Agronômica da UFRGS, em Eldorado do Sul (300 S, 510 W) nos anos de 2000, 2001 e 2002. A partir da floração, analisou-se a freqüência de visitas por A. mellifera e outros insetos nas flores de A. latifolia pelo teste de Qui-quadrado, já o número de inflorescências por área, número de flores, flores abortadas e lomentos por inflorescência foi através da análise de regressão. Os resultados indicaram que A. mellifera não é eficiente na polinização de A. latifolia, sendo esta cultura dependente de insetos nativos como Megachile sp. e Centris sp para produção de sementes. A média de produção de sementes na área controlada e livre foi 5,4 e 83,5 kg/ha, respectivamente, enquanto na área isolada não houve produção de sementes. A baixa freqüência (10%) de visitas de A. mellifera na área livre em comparação com os insetos nativos (90%) indica que o néctar não é atrativo para as abelhas A. mellifera pois tem uma baixa concentração de açúcares totais (5,7%).
Resumo:
Amizades são relacionamentos que trazem felicidade e satisfação de vida, merecendo atenção através do estudo de seus processos e dimensões. O presente trabalho investigou a percepção da qualidade da amizade em adultos. O primeiro estudo objetivou adaptar e validar as escalas que compõem os Questionários McGill de Amizade para uso no Brasil, que avaliam funções da amizade, satisfação e sentimentos positivos e negativos. As escalas apresentaram estruturas fatoriais equivalentes às dos instrumentos originais, com exceção da sobre sentimentos positivos, reduzida em número de itens para melhor representação do construto. O segundo estudo investigou diferenças de gênero na percepção da qualidade da amizade, utilizando-se os Questionários McGill. As mulheres perceberam sua amizade como mais provedora das funções, atribuindo a ela mais sentimentos positivos, na comparação com homens. Para homens as amigas responderam mais às funções de segurança emocional e autovalidação do que amigos. Não foram encontradas diferenças significativas para sentimentos negativos. A validação das escalas mostrou-se adequada para uso com população adulta no Brasil. Os resultados para diferenças de gênero apontam para a interação entre sexo do participante e sexo da amizade, com os homens destacando suas amizades com mulheres quanto à segurança emocional e autovalidação.
Resumo:
Recentes pesquisas têm apontado o Alinhamento Estratégico (AE) como uma das principais preocupações dos executivos. Extrair informações úteis a partir dos investimentos realizados em Tecnologia da Informação (TI) está entre os principais objetivos dos chefes executivos das organizações (CEO). A presente pesquisa tenta identificar os critérios de AE, juntamente com as suas práticas, que são mais promovidos em organizações da Região Sul do Brasil. Esta pesquisa pode ser classificada como um estudo quantitativo-descritivo, e utiliza o método estatístico para a obtenção, processamento e validação dos dados. O método empregado foi o de um levantamento de informações (survey), e a coleta de dados obedeceu à concepção dos estudos transversais. Como instrumentos de coleta, foram utilizados questionários auto-aplicáveis, preenchidos por chefes de informática (CIO) das empresas e por executivos de médio e alto escalões de outras áreas, tais como compras, vendas, controladoria, financeira, recursos humanos, etc. Responderam os questionários 259 executivos de 72 empresas industriais pertencentes à região sul do Brasil. A partir do procedimento de refinamento do questionário, que foi baseado nos modelos de Luftman (2000) e de Brodbeck e Hoppen (2003), foi elaborado um instrumento formado por seis critérios e por trinta práticas, postulado como adequado ao contexto brasileiro. Quanto à promoção destes critérios, o de Comunicação foi considerado o mais importante e promovido, enquanto que o critério de Medidas de Valor e Competência foi considerado o de menor promoção. A partir da realização de análise de regressão, foi possível determinar que o critério Comunicação é mais impactado pelo critério de Escopo e Arquitetura. Através da realização de análises de variância, foi possível observar que as empresas de grande porte promoveram mais os critérios de de Habilidades, Governança, Medidas de Valor e Competência e Escopo e Arquitetura, quando comparados com os resultados obtidos em empresas de pequeno porte. Como contribuições práticas, foram obtidas listagens das práticas mais importantes, mais promovidas, de implementação mais fácil e mais difícil. Estas listagens podem auxiliar gestores de empresas na promoção de níveis mais elevados de maturidade de AE.
Resumo:
Aplicações recentes no setor de automação industrial utilizam barramentos de campo para prover comunicação entre dispositivos. Estas aplicações normalmente exigem que os barramentos apresentem suporte tempo real. A garantia do adequado atendimento a requisitos temporais restritos é de fundamental importância para o correto funcionamento do sistema. Este documento apresenta um sistema de validação temporal para aplicações desenvolvidas utilizando tecnologias de barramentos de campo. O sistema desenvolvido, chamado BR-Tool, permite monitoração em tempo de execução de uma rede de barramento de campo, confrontando os dados obtidos com requisitos temporais previamente definidos pelo operador. O sistema BR-Tool é composto por dois elementos: um sub-sistema de aquisição de mensagens (placa de aquisição) e um sub-sistema de validação (ferramenta computacional). A placa de aquisição foi especialmente projetada para operar com diferentes interfaces de barramentos de campo, realizando as tarefas de captura de eventos, marcação temporal e salvamento de um histórico de eventos. A ferramenta de validação, que roda no computador, realiza as tarefas de filtragem de eventos, especificação de requisitos e validação temporal, permitindo diversos modos de visualização dos resultados. A comunicação entre a placa de aquisição e a ferramenta de validação é implementada por uma interface PCI, permitindo operar com velocidades de até 12Mbps.
Resumo:
A Província Costeira do Rio Grande do Sul representa a porção emersa da Bacia de Pelotas, uma bacia marginal da Plataforma Sul Americana desenvolvida em resposta aos processos que levaram à ruptura do Supercontinente Gondwana e subseqüente abertura do Oceano Atlântico sul. Neste trabalho, a evolução morfotectônica desta Província foi investigada a partir da análise de bases cartográficas disponíveis, de imagens de sensores remotos, além da leitura crítica de uma ampla base documental existente, as quais permitiram delinear a contribuição neotectônica a este domínio. A evolução geodinâmica da Bacia de Pelotas, iniciada no Neo-Jurássico / Paleo-Cretáceo, tem seu máximo evolutivo no Mioceno, quando uma extensiva denudação na área continental propiciou um máximo de sedimentação. Os registros diretamente relacionados à Província Costeira do Rio Grande do Sul correspondem à seqüência superior desta Bacia, cujas idades estimadas são do Plioceno ao Recente. A análise morfotectônica efetuada compreendeu uma fase regional (primeira etapa da pesquisa), correspondente à contextualização dos aspectos geológicos, geomorfológicos e geofísicos da Província Costeira como um todo; nesta etapa, os elementos geomorfológicos foram identificados e hierarquizados segundo três sistemas de relevo, quatro regiões geomorfológicas e nove unidades de relevo. A segunda fase da pesquisa foi centrada na análise da rede de drenagem, sendo esta normalmente considerada uma ferramenta adequada à identificação dos sítios preferenciais à materialização da deformação neotectônica; a caracterização de padrões e anomalias da rede de drenagem e de canais fluviais, aliada à análise dos demais elementos do relevo, produziu um conjunto de elementos geomórficos que são usualmente relacionados à atividade neotectônica (segmentação de canais fluviais, cotovelos de captura, facetas trapezoidais e triangulares, etc.) A partir desta análise regional, foi escolhida a região circunvizinha a Porto Alegre para detalhamento, à qual foram preferencialmente direcionados os trabalhos de campo. Neste trabalho, estamos propondo uma complexa história neotectônica para esta área, tendo sido reconhecidos três macro-elementos morfotectônicos, discutidos como o Sistema de Falhas Coxilha das Lombas e a Bacia de Porto Alegre (ambos já reconhecidos por autores prévios) e o Lineamento Jacuí – Porto Alegre (introduzido neste trabalho); este Lineamento foi considerado o principal responsável por várias feições marcadas na evolução geomorfológica desta região, inclusive pela segmentação da Província Costeira. A atuação da neotectônica está materializada pela existência de estruturas deformacionais impressas em registros pleistocênicos da Província Costeira (correspondentes aos sistemas laguna – barreira I e II) e pela ocorrência de eventos sísmicos (dados históricos e instrumentais) nas adjacências desta Província, nas áreas continental e plataformal dos estados de Santa Catarina e do Rio Grande do Sul e da República do Uruguai. O estágio atual do conhecimento, entretanto, não permite a proposição de modelos geodinâmicos que incorporem a contribuição neotectônica de maneira sistemática, visto a pouca disponibilidade de dados de campo, assim como a quase absoluta inexistência de dados sobre o comportamento tridimensional das unidades constituintes da Província Costeira Sul-riograndense. São sugeridas, portanto, campanhas sistemáticas de campo para levantamento de dados estruturais e geofísicos nas áreas identificadas – através de análise morfotectônica prévia – como favoráveis à materialização da deformação neotectônica.