22 resultados para regressão semântica
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
Resumo:
XML (eXtensibile Markup Language) é um padrão atual para representação e intercâmbio dos semi-estruturados na Web. Dados semi-estruturados são dados não convencionais cujas instâncias de uma mesma fonte de dados podem ter representações altamente heterogêneas. Em função isto, um esquema para estes dados tende a ser extenso para suportar todas as alternativas de representação que um dado pode assumir. Parte do grande volume de dados disponível hoje na Web é composto por fontes de dados heterogêneas XML sobre diversos domínios do conhecimento. Para realizar o acesso a estas fontes, aplicações na Web necessitam de um mecanismo de integração de dados. O objetivo principal deste mecanismo é disponibilizar um esquema de dados global representativo dos diversos esquemas XML das fontes de dados. Com base neste esquema global, consultas são formuladas, traduzidas para consultas sobre os esquemas XML, executadas nas fontes de dados e os resultados retornados à aplicação. Esta tese apresenta uma abordagem para a integração semântica de esquemas XML relativos a um domínio de aplicação chamada BInXS. BInXS adota um processo bottom-up de integração, no qual o esquema global é definido para um conjunto de esquemas XML representadas atrtavés de DTDs (Document Type Definitions). A vantagem do processo bottom-up é que todas as informações dos esquemas XML são consideradas no esquema global. Desta forma, toda a informação presente nas fontes de dados pode ser consultada. O processo de integração de BInXS é baseado em um conjunto de regras e algoritmos que realizam a cnversão de cada DTD para um esquema canônico conceitual e a posterior integração semântica propriamente dita destes esquemas canônicos. O processo é semi-automático pois considera uma eventual intervenção de um usuário especialista no domínio para validar ou confirmar alternativas de resultado produzidas automaticamente. Comparada com trabalhos relacionados, BInXS apresenta as seguintes contribuições: (i) uma representação canônica conceitual para esquemas XML que é o resultado de uma anállise detalhada do modelo XML; (ii) um étodo de unificação que lida com as particularidades da integração de dados semi-estruturados e; (iii) uma estratégia de mapeamento baseada em expressões de consulta XPath que possibilita uma tradução simples de consultas globais para consultas a serem executadas nas fontes de dados XML.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Modelos de bancos de dados têm sido progressivamente estendidos a fim de melhor capturar necessidades específicas de aplicações. Bancos de dados versionados, por exemplo, provêm suporte a versões alternativas de objetos. Bancos de dados temporais, por sua vez, permitem armazenar todos os estados de uma aplicação, registrando sua evolução com o passar do tempo. Tais extensões sobre os modelos de dados se refletem nas respectivas linguagens de consulta, normalmente sob a forma de extensões a linguagens conhecidas, tais como SQL ou OQL. O modelo de banco de dados TVM (Temporal Versions Model ), definido sobre o modelo de banco de dados orientado a objetos, suporta simultaneamente versões alternativas e o registro de alterações de objetos ao longo do tempo. A linguagem de consulta TVQL (Temporal Versioned Query Language), definida a partir da linguagem de consulta SQL, permite recuperar informações do modelo de dados TVM. As construções introduzidas em TVQL têm como objetivo tornar simples a consulta do banco de dados em diversos pontos da linha temporal. Apesar das vantagens da utilização da linguagem TVQL para resgatar dados temporais do modelo TVM, existem algumas limitações importantes para seu aprimoramento. Uma delas é a alta complexidade do modelo TVM, proveniente da integração de conceitos variados como estados alternativos e rótulos temporais. Outro ponto é que, até o presente momento, não existe um interpretador para TVQL, impedindo uma experiência prática de programação de consultas. O objetivo principal deste trabalho é o desenvolvimento de uma especificação formal para a linguagem TVQL, tornando possível um estudo consistente de suas construções. Adicionalmente, uma especificação formal serve como documentação para futuras implementações de interpretadores. Neste trabalho foi desenvolvido um protótipo de avaliador de consultas e verificador de tipos para um núcleo funcional da linguagem TVQL, possibilitando também uma experimentação prática sobre os modelos propostos.
Resumo:
A quantidade e diversidade dos dados disponíveis na Web aumentam constantemente. Os motores de busca disponíveis, que usam palavras-chave, fornecem ao usuário resultados inexatos. Atualmente, os sistemas convencionais de consultas utilizam técnicas de base sintática. As pesquisas voltam-se para o estudo de abordagens de consultas através de conceitos, permitindo a recuperação semântica. Neste sentido, algumas propostas envolvem a criação de metadados que seguem modelos de ontologias.O propósito deste trabalho é apresentar, avaliar e permitir uma melhor compreensão de um conjunto de conceitos, linguagens e ferramentas que são usadas na Web Semântica. Dentre elas, linguagens para construção de ontologias e linguagens para consultas; além das ferramentas associadas que objetivam o armazenamento, manutenção e anotação em ontologias. Para atingir este propósito, estas linguagens e ferramentas são aplicadas a um caso de dimensão e complexidade realistas, o Currículo Lattes. O trabalho apresenta um modelo de metadados com semântica para o Currículo Lattes. Este modelo é baseado numa ontologia especificada na linguagem DAML+OIL. Além disso, é apresentada uma avaliação dos métodos de instanciação desta ontologia. Uma avaliação dos métodos e/ou linguagens de consulta mais adequadas para a consulta semântica das informações também é apresentada.
Resumo:
Séries de dados de velocidades máximas anuais do vento, classificadas segundo o tipo de tormenta (ventos EPS ou TS) e a direção (octantes), são utilizadas para o ajuste de um modelo baseado em regressão linear múltipla, permitindo a estimativa dos ventos extremos no interior da região definida pelas estações meteorológicas disponíveis. A correlação entre as velocidades do vento e a temperatura do ar durante tormentas também é investigada, bem como o comportamento estatístico das temperaturas durante ventos fortes.
Resumo:
Apresenta-se uma formulação do tipo incrementaliterativa destinada a análise não linear de pórticos espaciais. Considera-se os efeitos não lineares introduzidos pelas mudanças de configuração geométrica da estrutura e também pela combinação destes efeitos com aqueles inerentes ao comportamento plástico exibido pelo material. As relações cinemáticas empregadas permitem a consideração de deslocamentos arbitrariamente grandes, acompanhadas de pequenas deformações . A modelagem do comportamento plástico do material é efetuada através do conceito de rótula plástica, estabelecido a partir de um critério de plastificação generalizado. Adota-se uma matriz de rigidez geométrica de barra baseada em momentos semitangenciais. Para elementos com extremos plastificados, é deduzida uma matriz de rigidez elasto-plástica. Emprega-se um método numérico do tipo incremental-iterativo, que utiliza como condição básica de controle da análise a constância do trabalho realizado pelos incrementos de cargas, em cada passo incremental (Método de Controle por Trabalho).A formulação permite uma descricão completa do desempenho mecânico da estrutura, inclusive em estágio de deformação pós-crítico em que ocorre regressão do carregamento com aumento de deslocamentos, ou vice-versa. A formulação foi implementada em um programa computacional elaborado em linguagem FORTRAN. Vários exemplos numéricos são apresentados para mostrar a eficiência das procedimentos propostos.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.
Resumo:
A formação da Lagoa dos Patos foi condicionada pelo desenvolvimento de uma barreira múltipla, arenosa, sob a influência das oscilações eustáticas ocorridas durante o Quaternário. Os aspectos geomorfológicos da margem lagunar desta barreira evidenciam a existência de pelo menos quatro ciclos de transgressão e regressão. Os processos de sedimentação que os acompanharam, proporcionaram a compartimentação da laguna mediante o crescimento de pontais arenosos, mecanismo que deu origem a Lagoa - do Casamento e ao Saco do Cocuruto. Os sedimentos do fundo destes corpos lagunares são arenosos e silticos. As fácies arenosas ocorrem nas partes marginais e rasas e tem suas caracteristicas texturais influenciadas pelo tipo de material das áreas fonte, da natureza, intensidade e tempo de atuação dos agentes de sedimentação. As fácies silticas ocupam as porções centrais, mais profundas. As zonas intermediárias são atapetadas por fácies transicionais areno-silticas e silto-arenosas.Os terrenos quaternários da margem lagunar, retrabalhados durante os ciclos transgressivos, constituem a principal fonte dos sedimentos lagunares. Parte do material siltico trazido em suspensão pelas águas da Lagoa dos Patos que ingressam na Lagoa do Casamento, provém das terras altas que margeiam a provincia Costeira. Os principais agentes envolvidos nos processos de sedimentação são o vento, as ondas e as correntes lagunares. A circulação das águas é também influenciada pelos sistemas fluviais atuantes na região. A sedimentação se processa em um ambiente de águas rasas e doces, levemente ácidas, oxidantes nas margens e pouco redutoras nas partes centrais. A atividade biológica bentônica é reduzida e relacionada a uma pequena fauna de moluscos. A evolução geomorfológica da área controlou os aspectos maiores da sedimentação no corpo lagunar. Tentativas de caracterização ambiental baseadas em análise granulométrica mostraram que os métodos de FOLK & WARD (1957), PASSEGA & BYRANJEE (1969) e DOEGLAS (1968),são efetivamente úteis na descrição e interpretação de ambientes recentes de sedimentação onde os parâmetros físicos são conhecidos. Entretanto a sua utilização como critério único na determinação paleo-ambiental fica prejudicada, pois a sedimentação em uma província costeira e policíclica e promovida por vários ambientes definidos que se deslocam no tempo e no espaço. Ocorre muitas vêzes que o rápido retrabalhamento de materiais depositados em ambientes de alta energia é incapaz de apagar as características texturais herdadas do ciclo anterior A maior parte dos sedimentos das fácies arenosas do fundo lagunar tem propriedades semelhantes aos depositados em ambientes praiais e eólicos.
Resumo:
A região costeira do Brasil Meridional, definida como Provincia Costeira do Rio Grande do Sul é constituida por dois elementos geológicos maiores, o Embasamento e a Bacia de Pelotas. O primeiro, composto pelo complexo cristalino pré-cambriano e pelas sequências sedimentares e vulcânicas, paleozóicas e, mesozoicas, da Bacia do Paraná, comportando-se como uma plataforma instável durante os tempos cretácicos, deu origem ao segundo, através de movimentações tectônicas. Desde então a Bacia de Pelotas, uma bacia marginal subsidente, passou a receber a carga clástica derivada da dissecação das terras altas adjacentes as quais constituíam parte do seu embasamento que na parte ocidental atuou no inicio como uma área levemente positiva, estabilizando-se após. A sequência sedimentar ali acumulada, cerca de I 500 metros de espessura, é fruto de sucessivas transgressões e regressões. Controladas no princípio pelo balanço entre as taxas de subsidência e de sedimentação, a partir do Pleistoceno estas transgressões e regressões passaram a ser governadas pelas variações glacio-eustáticas ocorridas no decorrer da Era Cenozóica A cobertura holocênica deste conjunto é considerada como outro elemento geológico importante da provincia costeira pelo fato de compor a maioria das grandes feiçoes morfograficas responsáveis pela configuraçao superficial da região. Ela é constituida por um pacote trans-regressivo cuja porção superior expõe-se na planície litorânea, encerrando uma série de unidades lito-estratigraficas descontinuas e de idade variável resultantes do deslocamento de vários ambientes de sedimentação por sobre a mesma região. O estabelecimento de sua história geológica somente tornou-se possivel após detida análise geomorfológica. A planicie arenosa litorânea que separa a Lagoa dos Patos do Oceano Atlântico, revelou-se composta pela sucessão de quatro sistemas de barreiras, constituindo a denominada Barreira Múltipla da Lagoa dos Patos, cuja origem está diretamente relacionada às oscilações eustáticas que se sucederam na região,durante os últimos 6 000 anos, após o final da Transgressão Flandriana. A primeira barreira formou-se durante o nivel máximo atingido pelo mar no final da grande transgressão holocênica, construida a partir de longos esporões arenosos ancorados aos promontórios existentes na entrada das várias baias que ornamentavam a costa de então. Sobre tais esporões acumularam-se, durante pequenas oscilações do nivel do mar, extensos depósitos arenosos de natureza eólica Outra barreira foi desenvolvida a partir da emersão de barras marinhas durante a fase regressiva que se sucedeu, aprisionando um corpo lagunar sobre um terraço marinho recém exposto. Ainda no decorrer desta transgressão, grandes quantidades de areia trazidas da antepraia foram mobilizadas pelo vento construindo grandes campos de dunas sobre a barreira emersa.Na área lagunar, igualmente afetada pela regressão, depósitos lagunares e paludais foram acumulados sobre o terraço marinho. Assim estruturada, a barreira resistiu a fase transgressiva subsequente quando o aumento do nivel do mar foi insuficiente para encobri-Ia. Na margem oceânica a ação das ondas promoveu a formação de falésias, retrabalhando o material arenoso e redistribuindo-o pela antepraia. Na margem da Lagoa dos Patos de então, o avanço das aguas causou a abrasão do terraço marinho parcialmente recoberto por depósitos paludais e lagunares. Nova fase regressiva ocasionou o desenvolvimento de outra barreira no lado oceânico isolando uma nova laguna enquanto que na margem da Lagoa dos Patos emergia um terraço lagunar. Obedecendo a este mesmo mecanismo a quarta barreira foi acrescentada a costa oceânica e um segundo terraço lagunar construido na borda da Lagoa dos Patos. O constante acúmulo de sedimentos arenosos que se processou na área após a transgressão holocênica, através de processos praiais e eólicos desenvolvidos num ambiente de completa estabilidade tectônica, aumentou consideravelmente a área emersa da província costeira A parte superior da cobertura holocênica constitui assim uma grande sequência regressiva deposicional, que teve como principal fonte os extensos depósitos que recobriam a plataforma continental adjacente. De posse de tais elementos, a costa atual do Rio Grande do Sul é uma costa secundária, de barreiras, modelada por agentes marinhos, conforme a classificação de Shepard. A tentativa de correlaçao entre as várias oscilaçoes eustáticas deduzidas a partir da análise geomorfológica da região ( com aquelas que constam na curva de variaçao do nlvel do mar o corrida nos últimos 6 000 anos, apresentada por Fairbridge, revela coincidências encorajadoras no sentido de estender o esquema evolutivo aqui proposto, como uma hipótese de trabalho no estudo dos terrenos holocênicos restantes da Província Costeira do Rio Grande do Sul. A sua utilização tornará muito mais fácil a organização crono-estratigráfica das diversas unidades que nela se encontram.
Resumo:
O objetivo deste estudo foi avaliar a utilidade da oftalmoscopia direta realizada por não-oftalmologistas em 400 pacientes hipertensos não diabéticos. Em um estudo transversal, analisou-se a associação entre exame fundoscópico, categorizado em normal e anormal e de acordo com uma classificação de Keith, Wagener e Barker (KW) modificada, com pressão arterial, duração da hipertensão e anormalidades eletrocardiográficas. Associações entre pressão arterial e anormalidades eletrocardiográficas também foram realizadas. As anormalidades de fundo-de-olho foram mais freqüentes em pacientes com pressão arterial diastólica maior que 105 mmHg (P = 0,001), pressão sistólica maior que 180 mmHg (P < 0,001) e com duração da hipertensão maior que 3 anos (P = 0.003). Também houve maior freqüência de anormalidades à fundoscopia em pacientes com estágios mais graves de hipertensão segundo a classificação do V Joint National Committee (V-JNC). Não houve associação entre gravidade da hipertensão e as classes KW 1 e KW 2: 34,5% dos pacientes classificados como KW 1 tinham pressão diastólica acima de 105 mmHg, contra somente 25,3% daqueles classificados como KW 2. Esta categoria também foi mais freqüente em todos os estágios de hipertensão segundo o V-JNC. As anormalidades da classe 3 de KW foram pouco freqüentes, ocorrendo em somente 2,5% dos pacientes da coorte. Em um modelo de regressão logística, o estreitamento arteriolar difuso foi associado com maior pressão diastólica (P = 0,002) e maior idade (P < 0,001). Anormalidades de cruzamentos arteriovenosos foram associados com maior pressão sangüínea sistólica (P = 0,003) e duração da hipertensão maior do que 3 anos (P = 0,024). O valor preditivo positivo de qualquer anormalidade fundoscópica estimar a gravidade da hipertensão foi de 75,20% e o valor preditivo negativo, 41,75%. Observou-se maior proporção de eletrocardiograma anormal (qualquer anormalidade) e de sobrecarga ventricular esquerda em pacientes com pressão diastólica maior que 105 mmHg (P = 0,039 e P = 0,032 respectivamente) e com sistólica maior que 180 mmHg (P = 0,034 e P = 0,001 respectivamente). Anormalidades entre oftalmoscopia e eletrocardiograma não mostraramse associadas. Os resultados deste estudo demostraram que, apesar das anormalidades fundoscópicas terem sido mais freqüentes em hipertensos mais graves, o exame de fundode- olho não proporcionou uma idéia acurada da gravidade da hipertensão na maioria dos pacientes examinados por internistas e cardiologistas e, que a classificação de Keith, Wagener e Barker teve uma aplicação limitada. A observação de um cruzamento arteriovenoso alterado sugere que a pressão sistólica seja elevada. A presença de estreitamento arteriolar difuso é mais freqüente em pacientes mais velhos e naqueles com pressão diastólica elevada.
Resumo:
O objetivo deste trabalho foi verificar as reduções no peso hidrostático e as alterações na freqüência cardíaca em pessoas submetidas a imersão vertical do corpo na água, nas profundidades de tornozelo, joelho, quadril, cicatriz umbilical, apêndice xifóide, ombro e pescoço. Na profundidade do ombro as medidas foram feitas com os braços dentro e fora d'água. Observa-se que vários autores realçam uma diminuição de peso nos indivíduos quando estão imersos no meio líquido, mas com uma ausência total de informações a respeito do percentual de redução deste peso em diferentes profundidades de água. Em relação ao comportamento da freqüência cardíaca, a literatura é contraditória, pois enquanto diversos autores afirmam que ocorre uma bradicardia durante a imersão, outros afirmam que ocorre uma taquicardia, e existem ainda os que relatam que não ocorrem alterações na freqüência cardíaca durante a imersão vertical do corpo na água. A amostra deste estudo foi formada por 54 indivíduos brancos, de ambos os sexos, com no mínimo 1 (um) ano de prática de natação, com idade entre 18 e 25 anos, estatura entre 160 e 180 cm e percentual de gordura entre 12 e 15%, para homens, e 16 e 20%, para as mulheres. Foi utilizado um protótipo cuja finalidade é imergir o indivíduo em diferentes profundidades de água, ao mesmo tempo que permite o monitoramento dos pesos, através de informações da célula de carga. A leitura da freqüência cardíaca foi realizada através de um sensor de freqüência cardíaca. Utilizou-se a estatística descritiva, a análise de variância (ANOVA) e teste F, para comparar as classes das variaveis classificatórias. Para a localização das diferenças, usou-se o teste de TUKEY (p<0,05). Foi utilizada também a análise de regressão. A partir da análise dos dados constata-se uma redução média no percentual do peso hidrostático que variou de 2,418 ± 0,445% na profundidade do tornozelo a 92,137 ±1,210% na profundidade do pescoço. Ao analisar-se o comportamento da frequência cardíaca em diferentes profundidades de água encontra-se uma diminuição média de até 17 bpm, à medida que aumentava a profundidade da imersão, com exceção do ponto anatômico do pescoço e do ombro com os braços fora d'água.