958 resultados para Goiaba – Armazenamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas atuais de Gerenciamento da Drenagem Urbana preconizam que a drenagem da água da precipitação seja realizada com o uso de dispositivos de controle que agem na fonte do escoamento superficial. Tais dispositivos têm o objetivo de recuperar a capacidade natural de armazenamento do solo, reduzida devido aos impactos da urbanização. Com o desvio do escoamento das áreas impermeáveis para esses dispositivos, o solo recupera as condições de escoamento anteriores à urbanização. A presente dissertação descreve um experimento inédito no Brasil, onde foi aplicada a técnica do Pavimento Permeável. Foi montado um aparato experimental que possibilita o monitoramento do desempenho do dispositivo, com o objetivo principal de analisar a viabilidade técnica da utilização de um pavimento permeável de baixo custo e tecnologia simples, no controle da geração de escoamento superficial na fonte. Com o trabalho, permitiuse uma maior difusão do conhecimento e propagação da técnica, ainda pouco dominada pelos engenheiros e contratantes. A obra consta de um lote de estacionamento de aproximadamente 264m2, que foi dividido em duas partes iguais, onde foram utilizados os seguintes revestimentos: asfalto poroso, de granulometria aberta; blocos vazados intertravados de concreto. O experimento foi projetado para permitir o monitoramento quali-quantitativo dos escoamentos nos dois tipos de pavimento, com relação à redução no escoamento superficial, quando sujeitos às condições de tráfego encontradas na prática, no lote de estacionamento situado próximo ao bloco de ensino do IPH/UFRGS. São discutidos aspectos relacionados às condições de funcionamento, adequação dos materiais empregados, eficiência do dispositivo e custos envolvidos. A avaliação da eficiência hidráulica-hidrológica do dispositivo foi feita através do monitoramento e análise de dados de precipitação, armazenamento no reservatório, escoamento superficial e umidade no solo subjacente. O pavimento permeável se mostrou uma técnica eficiente de controle na fonte do escoamento superficial. Foram obtidas taxas médias de 5% de escoamento superficial para a superfície com revestimento asfáltico, e de 2,3% para o revestimento em blocos vazados intertravados. Os dados de armazenamento mostraram que em nenhum evento o volume armazenado superou 25% da capacidade máxima do reservatório. Ainda com base nesses dados, verificou-se que a metodologia de dimensionamento utilizada super-dimensionou a estrutura reservatório. A importância do dimensionamento preciso da estrutura é evidenciada pela estimativa dos custos, onde se verifica que o reservatório de britas contribui para uma significativa parcela dos custos totais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa trata da memória tendo como campo de observação as entidades de preservação ferroviária enquanto organizações civis juridicamente constituídas que interpelam o poder público à preservação da memória ferroviária. No levantamento inicial foram identificadas 17 entidades, das quais são recortadas duas para aprofundamento da análise: Associação Fluminense de Preservação Ferroviária e o Movimento de Preservação Ferroviária, sediadas na cidade do Rio de Janeiro. A proposta é demonstrar como esses grupos se estruturam em torno dessa memória. Aprofundo o debate sobre a consolidação desse conceito como uma categoria instituída e proponho a reconstrução à luz dos debates atuais. Abordo em maior detalhe duas maneiras pelas quais os grupos entendem preservar a memória ferroviária: a operação de trens turísticos e o patrimônio cultural. Para alcançar seus objetivos esses grupos usam de diversas estratégias que vai da inclusão da comunidade à denúncia aos órgãos responsáveis pelo patrimônio da União, inclusive do direito a preservação da memória ferroviária pelo Estado. Há nesses espaços uma dupla interferência do corpo político e acadêmico que se retroalimentam. Uma das hipóteses é que a extinção da RFFSA intensificou a criação dessas entidades sob a justificativa da perda da identidade do trabalhador ferroviário. Utilizo o método de observação participante, da história oral e da internet ferramenta comum na divulgação e armazenamento de dados desses grupos. Os referenciais teóricos estão representados nos debates sobre memória, patrimônio cultural e industrial, movimentos sociais, museus e turismo. E, concluo que as entidades são exemplos das formas como a sociedade civil se organiza perante a instituição política. As entidades do Rio contribuem para a preservação de uma parcela daquilo que pode representar uma dada memória ferroviária

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The number of research papers available today is growing at a staggering rate, generating a huge amount of information that people cannot keep up with. According to a tendency indicated by the United States’ National Science Foundation, more than 10 million new papers will be published in the next 20 years. Because most of these papers will be available on the Web, this research focus on exploring issues on recommending research papers to users, in order to directly lead users to papers of their interest. Recommender systems are used to recommend items to users among a huge stream of available items, according to users’ interests. This research focuses on the two most prevalent techniques to date, namely Content-Based Filtering and Collaborative Filtering. The first explores the text of the paper itself, recommending items similar in content to the ones the user has rated in the past. The second explores the citation web existing among papers. As these two techniques have complementary advantages, we explored hybrid approaches to recommending research papers. We created standalone and hybrid versions of algorithms and evaluated them through both offline experiments on a database of 102,295 papers, and an online experiment with 110 users. Our results show that the two techniques can be successfully combined to recommend papers. The coverage is also increased at the level of 100% in the hybrid algorithms. In addition, we found that different algorithms are more suitable for recommending different kinds of papers. Finally, we verified that users’ research experience influences the way users perceive recommendations. In parallel, we found that there are no significant differences in recommending papers for users from different countries. However, our results showed that users’ interacting with a research paper Recommender Systems are much happier when the interface is presented in the user’s native language, regardless the language that the papers are written. Therefore, an interface should be tailored to the user’s mother language.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho, de caráter exploratório, visou identificar o valor percebido pelos alunos de graduação de uma Instituição de Ensino Superior a respeito dos recursos de Tecnologia da Informação e de sua utilização voltada para as atividades acadêmicas. Para tal, foi utilizada a técnica de entrevistas em laddering. Vinte e cinco alunos de graduação foram entrevistados, através de uma das três seguintes modalidades: e-mail, telefone ou pessoalmente. Os resultados do trabalho incluem a construção do mapa hierárquico de valor e a identificação das dimensões de valor mais importantes. Foram identificados como importantes 4 atributos, 12 conseqüências de uso e 3 valores. Os atributos identificados como importantes são: “Bom acesso à Internet”, “Bom equipamento”, “Bom software” e “Capacidade de armazenamento”. As conseqüências de uso identificadas como importantes são: “Acesso a mais informações”, “Comunicação”, “Conseguir fazer os trabalhos”, “Facilidade de uso”, “Fazer trabalhos melhores”, “Ganhar tempo”, “Maior rapidez”, “Melhor desempenho acadêmico”, “Reutilização do material”, “Maior acesso ao mercado de trabalho”, “Mais tempo disponível” e “Poder trabalhar em qualquer horário”. Os valores identificados como importantes são: “Clareza e boa apresentação melhoram a avaliação”, “Meu tempo é importante” e “Ser competitivo no mercado de trabalho”. Como resultado do trabalho também pode ser apontado que a técnica de entrevistas em laddering mostrou-se adequada para o estudo em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitas abordagens para recuperação de informação (RI) assumem duas hipóteses: (i) cada termo de um documento é estatisticamente independente de todos os outros termos no texto, e (ii) métodos lingüísticos são de difícil aplicação nesta área. Contudo, há regularidades lingüísticas, produzidas pelas dependências entre termos, que precisam ser consideradas quando um texto é representado, e a representação de textos é crucial para aplicações que utilizam processamento da linguagem natural, como a RI. Um texto é mais do que uma simples seqüência de caracteres ou palavras. As palavras apresentam características morfológicas e relações de coesão que não podem ser esquecidas na descrição dos conceitos presentes no texto. Nesse sentido, um novo modelo com dependência de termos para a RI, denominado TR+, é proposto. Ele inclui: (i) nominalização, como processo de normalização lexical, e identificação de relações lexicais binárias (RLBs) e (ii) novas fórmulas para cálculo do peso das unidades de indexação (descritores). Essas fórmulas se baseiam no conceito de evidência, que leva em conta, além da freqüência de ocorrência, os mecanismos de coesão do texto. O modelo também inclui operadores Booleanos na consulta, para complementar a especificação da dependência de termos. Avaliações experimentais foram realizadas para demonstrar que (i) a nominalização apresenta melhores resultados em relação aos processos de normalização lexical usuais, (ii) a aquisição de informação lingüística, através de RLBs, e o uso de consultas Booleanas contribuem para a especificação de dependência de termos, e (iii) o cálculo da representatividade dos descritores baseado em evidência apresenta vantagens em relação ao cálculo baseado em freqüência de ocorrência. Os experimentos relatados indicam que esses recursos melhoram os resultados de sistemas de RI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo estudar a manutenção da viabilidade das borbulhas de laranjeira ‘Valência’ e tangerineira ‘Montenegrina’, oriundas de ambiente protegido e pomar, sob diferentes processos de desinfestação e períodos de armazenamento em câmara fria, assim como avaliar o comportamento das substâncias de reserva contidas nos ramos porta-borbulhas nos diferentes períodos de armazenamento. Com estes objetivos foram conduzidos dois experimentos em câmara fria com temperatura em torno de 5ºC. No experimento 1, testou-se borbulhas de duas cultivares de citros oriundas de ambiente protegido, três tratamentos químicos (testemunha, 1x tratado com Captan e 2x tratado com Captan na dose de 10g/L) e três períodos de armazenamento (0, 90, e 180 dias), com quatro repetições. No experimento 2, testou-se borbulhas de duas cultivares de citros oriundas do pomar de citros, três tratamentos químicos (testemunha, 1x tratado com Captan e 2x tratado com Captan na dose de 10g/L) e cinco períodos de armazenamento (0, 45, 90, 135 e 180 dias), com quatro repetições. As borbulhas da cultivar Montenegrina, mantiveram-se viáveis por 90 dias sem tratamento com fungicida e por, no mínimo, 180 dias se submetidas a 1 tratamento com fungicida no momento de seu armazenamento. As borbulhas da cultivar Valência, coletadas de ambiente protegido, mantiveram-se viáveis por, no mínimo, 180 dias sem a necessidade de tratamento com fungicida. As substâncias de reserva dos ramos porta-borbulhas sofreram redução ao longo do armazenamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho constou de três estudos. No primeiro estudo, cinco ejaculados de 30 machos foram analisados conforme a manutenção da MOT a 17ºC, sendo classificados em três tipos: MOT <60% nas 72h (EI); MOT ≥60% nas 72h e <60% nas 144h (EII) e MOT ≥60% nas 144h (EIII). Doze machos foram selecionados e distribuídos em três grupos: MAIOR, MÉDIA e MENOR sensibilidade espermática ao resfriamento. Em seguida, foram coletados cinco ejaculados de cada macho, sendo a MOT avaliada a cada 24h, e a integridade da membrana espermática (IM) e de acrossomas normais (NAR) nas 24, 72, 120 e 168h. Machos menos sensíveis ao resfriamento apresentaram menor variação na MOT do período pré- para o pós-seleção. Diferenças entre os machos foram observadas desde as 24 até 168h para MOT, nas 120 e 168h para MI e nas 72 e 168h para NAR. A MOT foi mais afetada que MI e NAR durante o armazenamento do sêmen in vitro. No estudo 2 foi avaliada a possibilidade de reverter a sensibilidade espermática ao resfriamento pela troca de plasma seminal (PS) entre machos com diferente manutenção da MOT a 17ºC. Foram utilizados ejaculados de cinco cachaços selecionados e classificados como: menor (MES) e maior sensibilidade ao resfriamento (MAS). Foram utilizados seis tratamentos, com cinco repetições cada. Nos tratamentos T1 e T3, o sêmen dos machos MES e MAS, respectivamente, foram processados de acordo com o protocolo convencional. Foi efetuada centrifugação (800g por 10 min) e adição do PS (10mL) homólogo para os espermatozóides MES e MAS, respectivamente, nos T2 e T4. Após a centrifugação, foi realizada a troca do PS, sendo que espermatozóides dos machos MES foram expostos ao PS dos machos MAS (T5) e o PS dos machos MES foi adicionado aos espermatozóides dos machos MAS (T6). A MOT foi avaliada a cada 24h, durante sete dias de conservação. NAR e de IM foram avaliados nas 24, 72, 120 e 168h. Diferenças na MOT, entre os machos MES (T1) e MAS (T3), foram observadas após armazenamento de 48h. Não foram observadas alterações em MOT e IM, quando foi efetuada a troca de PS entre os machos MES e MAS. Não foi possível reverter a maior sensibilidade ao resfriamento de espermatozóides suínos, após a ejaculação, com a adição de 10% do PS de machos com sêmen de menor sensibilidade. No terceiro estudo, foi avaliada a fertilidade de sêmen suíno pelo teste de ligação de espermatozóides a um substrato sintético. A MOT e o percentual de espermatozóides ligados (PEL) foram avaliados nas 5, 24, 48 e 72 horas de armazenamento a 17ºC. O PEL foi determinado em soluções contendo 6,25 ou 12,5 milhões de espermatozóides/mL, com ou sem albumina sérica bovina (BSA), preparadas a partir de dois a cinco ejaculados de cada um dos quatro machos. Houve correlação positiva (r=0,33) entre a MOT e o PEL. Os machos diferem quanto à capacidade de ligação de seus espermatozóides ao substrato sintético, a partir de 24 horas de armazenamento do sêmen. Maior percentual de espermatozóides ligados ao substrato sintético é verificado com a inclusão de BSA e com o aumento da concentração espermática.