70 resultados para Processo de recuperação da informação

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o desenvolvimento e crescimento das tecnologias de informação e, em especial, a Internet, encontrar informação relevante e útil tornou-se uma tarefa complexa que envolve os aspectos computacionais dos Sistemas de Recuperação de Informação (SRIs) e os aspectos situacionais, psicológicos e cognitivos dos usuários. No entanto, há um desequilíbrio neste cenário pois o enfoque das pesquisas de recuperação de informação (RI) está extremamente voltado para a abordagem computacional. Decorrente deste viés, o aspecto central da recuperação de informação – o julgamento de relevância – tornou-se muito limitado e acarretou em baixo desempenho dos SRIs. Notando esta problemática, esta pesquisa teve como objetivo caracterizar os fatores de relevância empregados pelos usuários durante o processo de RI com o intuito de contribuir para a especificação de requisitos e avaliação daqueles sistemas. Assim, a pesquisa foi composta por duas etapas de avaliação denominadas ex ante e ex post para verificar a mudança de percepção em torno dos julgamentos de relevância. Para tanto, foi criado um instrumento de pesquisa para verificar os julgamentos de relevância que foram avaliados por 49 respondentes, obtendo um total de 238 objetos informacionais avaliados no momento ex ante e destes, 224 foram retornados (ex post). Os resultados encontrados mostraram que existe uma significativa mudança de percepção dos usuários nas duas medições, e demonstraram que os fatores de relevância obedecem a um processo decisório bem definido. Observou-se também que a utilidade e os aspectos cognitivos são as manifestações de relevância consideradas mais importantes pelos usuários e as demais servem para ter a noção de rejeição ou não do objeto informacional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Muitas abordagens para recuperação de informação (RI) assumem duas hipóteses: (i) cada termo de um documento é estatisticamente independente de todos os outros termos no texto, e (ii) métodos lingüísticos são de difícil aplicação nesta área. Contudo, há regularidades lingüísticas, produzidas pelas dependências entre termos, que precisam ser consideradas quando um texto é representado, e a representação de textos é crucial para aplicações que utilizam processamento da linguagem natural, como a RI. Um texto é mais do que uma simples seqüência de caracteres ou palavras. As palavras apresentam características morfológicas e relações de coesão que não podem ser esquecidas na descrição dos conceitos presentes no texto. Nesse sentido, um novo modelo com dependência de termos para a RI, denominado TR+, é proposto. Ele inclui: (i) nominalização, como processo de normalização lexical, e identificação de relações lexicais binárias (RLBs) e (ii) novas fórmulas para cálculo do peso das unidades de indexação (descritores). Essas fórmulas se baseiam no conceito de evidência, que leva em conta, além da freqüência de ocorrência, os mecanismos de coesão do texto. O modelo também inclui operadores Booleanos na consulta, para complementar a especificação da dependência de termos. Avaliações experimentais foram realizadas para demonstrar que (i) a nominalização apresenta melhores resultados em relação aos processos de normalização lexical usuais, (ii) a aquisição de informação lingüística, através de RLBs, e o uso de consultas Booleanas contribuem para a especificação de dependência de termos, e (iii) o cálculo da representatividade dos descritores baseado em evidência apresenta vantagens em relação ao cálculo baseado em freqüência de ocorrência. Os experimentos relatados indicam que esses recursos melhoram os resultados de sistemas de RI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dentre as grandes mudanças ocorridas nos últimos anos é merecido o devido destaque aos fenômenos da globalização e da convergência da tecnologia de informação. Tais fatores propiciaram a mudança do paradigma de uma economia baseada na atividade industrial para uma economia que possui a informação por base. Dentro desta realidade, a Internet mostrou-se campo propício aos negócios, através do desenvolvimento do Comércio Eletrônico. Dentre as várias categorias de negócios emergentes neste ambiente, destacamse as organizações especializadas na intermediação e agenciamento da informação. A necessidade de conhecer os processos que compõem a atividade destas organizações torna-se mais evidente, pois a informação deixou de ser apenas uma ferramenta de controle para tomar a posição de recurso básico à sobrevivência de qualquer atividade econômica. Esta pesquisa buscou, primeiramente, entender as diversas facetas do processo de intermediação de informação na Internet. Para isso, construiu-se, com base na literatura, um modelo preliminar de infomediação focado na identificação e qualificação das demandas informacionais. E, por meio da realização do estudo das necessidades informacionais das empresas gaúchas para a expansão de seus negócios, aplicou-se o modelo construído e desenvo lveuse um sistema semiautomático de coleta de dados em forma de survey via Internet. Assim, espera-se instrumentalizar pesquisadores e administradores para o desenvolvimento de sistema eficaz de identificação e qualificação das demandas informacionais para o processo de Infomediação.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Apresenta-se neste estudo o potencial de recuperação de informação em C&T nas bases de dados nacionais e internacionais na grande área das Ciências da Saúde, na área da Medicina e na pesquisa médica em Câncer no Brasil. Esta capacitação científica instalada foi hierarquizada geográfica e institucionalmente usando como parâmetro o conceito de mérito científico fornecido pelo próprio sistema de C&T brasileiro. Os dados foram complementados pela análise da produção científica para identificar o grau de inserção internacional da pesquisa médica em Câncer no Brasil. Para tanto foram incorporadas informações das bases de dados do Institute for Scientific Information. Pode-se concluir que a grande área das Ciências da Saúde é a maior em contingente de pesquisa no Brasil, sendo a Medicina a área numericamente predominante. Na pesquisa médica em Câncer constatou-se que existem apenas dois cursos de pós-graduação diretamente relacionados com a formação de recursos humanos neste tema de pesquisa, 569 grupos de pesquisa (3,8% do total do país), 785 pesquisadores doutores, dos quais somente 153 são pesquisadores com bolsa de produtividade em pesquisa do CNPq (1,7% do total do país) No entanto, a produção científica, apesar de pouco expressiva do ponto de vista quantitativo, apresenta uma inserção internacional qualificada, sendo utilizada por outros pesquisadores com um elevado percentual, 84% de citações dos artigos brasileiros produzidos entre 1998-2002. Conclui-se, portanto, que apesar de não esgotar completamente as muitas especificidades do tema investigado, as informações disponíveis nas bases de dados nacionais e internacionais podem apontar caminhos para a investigação de tendências significativas da comunidade científica em todas as áreas do conhecimento ou temas de pesquisa, conforme os modos de recuperação apresentados. Através da interpretação criteriosa a partir de estudos continuados nessas bases, como é o caso deste trabalho, é possível utilizar a informação em C&T como subsídio para o planejamento de políticas de CT&I no Brasil.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O processo de transformação da pele em couro envolve uma seqüência complexa de reações químicas e processos mecânicos, no qual o curtimento representa fundamental estágio, por propiciar à pele características como qualidade, estabilidade hidrotérmica e excelentes propriedades para uso. O sulfato básico de cromo trivalente é o agente curtente predominantemente empregado no curtimento de peles em todo o mundo. É produzido a partir do cromato de sódio, industrialmente obtido do minério de cromo. Consideráveis quantidades de resíduos sólidos contendo cromo são geradas pelas indústrias coureira e calçadista. Estes resíduos tem sido motivo de preocupação constante, uma vez que são considerados perigosos devido a presença do cromo. O processo de incineração destes resíduos é uma importante alternativa a ser considerada, em decorrência de suas características de redução de massa, volume e possibilidade de aproveitamento da energia térmica dos gases de combustão. O processo de incineração dos resíduos das indústrias coureira e calçadista dá origem a cinzas contendo cerca de 40% de cromo que pode ser submetida a um processo de recuperação. Este trabalho apresenta os resultados da pesquisa sobre a utilização das cinzas, provenientes da incineração dos resíduos sólidos da indústria coureira e da indústria calçadista, para a produção de cromato de sódio(VI). No processo de planejamento e de condução dos experimentos foram utilizadas as técnicas de Planejamento Fatorial 2k, Metodologia de Superfície de Resposta e Análise de Variância na avaliação da produção de cromato de sódio(VI). Os fatores investigados foram: temperatura, taxa de aquecimento, tempo de reação, vazão de ar e quantidade de dolomita. A partir das variáveis selecionadas identificaram-se como parâmetros importantes a temperatura e a taxa de aquecimento. As superfícies de resposta tridimensionais obtidas a partir dos modelos de segunda ordem ajustados aos dados experimentais, apresentaram o comportamento do efeito conjugado dos fatores temperatura e taxa de aquecimento sobre a variável resposta grau de oxidação, desde a temperatura de inicio da reação química até a temperatura limite utilizada industrialmente. As condições de operação do processo de produção de cromato de sódio(VI) foram otimizadas. Os níveis ótimos dos fatores de controle aplicados as cinzas dos resíduos da indústria calçadista, geradas em uma planta piloto com incinerador de leito fixo, com tecnologia de gaseificação e combustão combinadas, apresentaram um grau de oxidação superior a 96% para as cinzas coletadas no ciclone e de 99,5% para as cinzas coletas no reator de gaseificação. Os resíduos sólidos, as cinzas e o produto de reação foram caracterizados por análises químicas, fluorescência de raio-X, microscopia eletrônica de varredura e difração de raio-X.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo principal propor uma metodologia que agilize a construção de uma ferramenta no campo da Documentação. Trata-se da geração de uma base de dados terminológica com sustentação na terminologia utilizada pelo especialista em sua área de domínio. Ela se apóia nos pressupostos teóricos da Teoria da Enunciação, da Teoria Comunicativa da Terminologia e da Socioterminologia. Com esse referencial acredita-se ser possível assegurar a efetiva comunicação entre os Sistemas de Recuperação de Informação e os usuários, sendo o bibliotecário o mediador do processo comunicativo que tem origem no autor do texto indexado. Buscou-se o suporte da Terminografia e da Lingüística de Corpus pela possibilidade de coletar, tratar e armazenar um grande volume de informações de uma determinada área do saber.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As grandes reservas de carvão existentes no Estado do Rio Grande do Sul e as crescentes necessidades energéticas do país estabelecem o cenário para um incremento no aproveitamento deste bem mineral. A presente pesquisa trata-se de um estudo de caso abordando o processo de recuperação ambiental de áreas mineradas na mina de carvão da Companhia Riograndense de Mineração, em Candiota, RS, através do levantamento da atual situação ambiental e dos impactos causados pelo empreendimento, além de procurar identificar as percepções que a empresa e a comunidade têm do atual desempenho ambiental da mineração. Os resultados visam amostrar tendências comportamentais que podem contribuir para o estabelecimento de políticas e ações no sentido de melhorar o relacionamento entre a mineração e a comunidade onde está inserida. Por fim, são apresentadas recomendações para a empresa, a partir dos dados levantados em campo, bem como sugestões para futuros trabalhos nesta área.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Estudo compreendido como uma inter-relação lógica entre tesauros e Terminologia, mais especificamente nos princípios da Teoria Comunicativa da Terminologia — TCT. Analisa um tesauro do ponto de vista da sua organização estrutural. Estuda os descritores verificando sua representatividade como um elemento de representação e recuperação das informações de uma área de especialidade. Sinaliza para uma nova abordagem em relação ao tratamento dos descritores aproximando-os a uma unidade lexical terminológica. Tem como pressuposto de trabalho que a relação que se estabelece entre um sistema de recuperação da informação — SRI e os usuários do sistema é uma relação de comunicação. Apresenta algumas considerações e recomendações.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho aplica a Teoria de Autômatos na proposição de uma nova alternativa para prover animações 2D na World Wide Web, verificando as contribuições alcançadas para as questões relacionadas ao espaço de armazenamento, reutilização e manutenção do conteúdo e suporte à recuperação de informação. Para este objetivo, é proposto o modelo AGA (Animação Gráfica baseada em Autômatos Finitos), o qual especifica a animação a partir de uma estrutura baseada em autômatos finitos com saída. Esse modelo é definido de tal forma que os mesmos autômatos utilizados na especificação, ao serem simulados, realizam o controle da animação durante a apresentação. O modelo AGA apresenta características que favorecem a redução do espaço de armazenamento da animação, provêem suporte à recuperação de informação, colaboram com a reutilização e manutenção do conteúdo das animações. Uma implementação multiplataforma foi desenvolvida para apresentar animações especificadas nesse modelo na Web. Essa implementação proporciona a elaboração de consultas ao conteúdo da animação, além dos recursos tradicionais de reprodução. A partir dessa implementação, o AGA foi submetido a um estudo de caso prático, onde os resultados obtidos são comparados com o produzidos pelo GIF (Graphic Interchange Format). Esse comparativo demonstra que o AGA possui várias vantagens em relação à estrutura adotada pelo GIF. O modelo AGA é estendido utilizando autômatos temporizados para prover restrições temporais às especificações e também ampliar as funcionalidades de interação com o observador da animação. Essa extensão, chamada de modelo AGA-S (Animação Gráfica baseada em Autômatos Temporizados Sincronizados), é definida a partir do autômato temporizado proposto por Alur e Dill. Para esse modelo, é definida uma operação formal para sincronização dos componentes da animação e adicionada uma estrutura baseada em autômatos finitos para controlar a interação do observador com a animação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

É bem documentada na literatura a alta incidência de lesões mioarticulares em corredores; e um método atrativo de treinamento desenvolvido não só para complementar a corrida em terra, mas até mesmo para substituí-la é a corrida em piscina funda. É uma modalidade que além de melhorar a capacidade aeróbia, não oferece riscos de traumas ortopédicos devido à menor incidência de estresse mioarticular e auxilia durante o processo de recuperação de lesões de membro inferior. Este estudo teve por objetivo avaliar e comparar a ocorrência de lesão muscular e o comportamento do consumo máximo de oxigênio (VO2máx) entre um programa de treinamento de corrida em terra (CT) e um programa de treinamento de corrida em piscina funda (CPF), em indivíduos não-treinados. Os sujeitos foram divididos em dois grupos experimentais: CT e CPF. Os programas de treinamento foram realizados durante 12 semanas, sendo a intensidade do treinamento avaliada a partir da sensação subjetiva ao esforço. Analisou-se o comportamento do VO2máx pré e pós-treinamento. Para a análise de lesão muscular, utilizaram-se a concentração sangüínea de creatina quinase (CK) e a ultra-sonografia (US) na região dos isquiostibiais, em vários momentos do treinamento. Para a determinação da CK entre as medidas de cada coleta e entre os grupos experimentais, foi utilizado o teste estatístico ANOVA two-way com medidas repetidas; e, para análise do comportamento da CK entre as quatro coletas e entre os grupos experimentais, foi utilizada ANOVA two-way com medidas repetidas. O post-hoc de Bonferroni foi realizado quando havia diferença estatisticamente significativa. Para o VO2máx em cada grupo experimental, foi utilizado o Teste t de Student para amostras pareadas; e, para comparação entre os grupos, foi realizado ANOVA two-way com medidas repetidas; e novamente o post-hoc de Bonferroni foi realizado quando havia diferença estatisticamente significativa Para análise dos dados de US, foi utilizado o teste estatístico de Cochran’s Q. O nível de significância aceito foi de 5% (p < 0,05). Quando se analisou o comportamento do VO2máx para os grupos CPF e CT, verificou-se que houve diferença estatisticamente significativa entre os valores pré e pós-treinamento, mas não houve diferença entre os grupos experimentais. Quanto à CK, após a análise dos dados da coleta 1, verificou-se diferença estatisticamente significativa entre os grupos experimentais na medida 24 h após a sessão de treinamento, o que não foi verificado nas outras coletas, em que não houve diferença entre os grupos experimentais em nenhum momento. Para o grupo CT, somente nas coletas 2 e 4 verificou-se diferença estatisticamente significativa entre as medidas 24h após e 48h após a sessão de treinamento. Nas análises entre as medidas pré, pós, 24h após e 48h após nas diferentes coletas, não ocorreram diferenças significativas entre as medidas e nem entre os grupos experimentais. Quanto à US, tanto no grupo CPF quanto no CT, não houve diferença significativa entre os exames, mas foi no grupo CT que apareceram duas lesões na terceira coleta. Concluiu-se que as duas modalidades de treinamento proporcionam uma melhora na aptidão cardiorrespiratória dos sujeitos; e, embora não tenha ocorrido diferença significativa em algumas coletas de CK entre os grupos de treinamento, a corrida em terra provocou maiores níveis de aumento na concentração sangüínea de CK do que a corrida em piscina funda, sugerindo que o meio líquido pode ser o mais indicado para proteger o sistema musculoesquelético.