958 resultados para Goiaba – Armazenamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os experimentos tiveram como objetivo determinar a taxa de eclosão dos embriões vitrificados em volumes diferentes de 9,0 M de etileno glicol. Simultaneamente, testou-se dois procedimentos de estocagem dos fios de teflon, denominados caixa de aço inoxidável e globete/raque. No experimento I, os 881 embriões coletados foram distribuídos em 4 tratamentos: tratamento 1 (T1= controle): 307 embriões foram cultivados in vitro em meio PBSm, acrescido de 0,4% de BSA; tratamento 2 (T2): 292 embriões foram expostos à solução de glicerol 10% acrescida de 0,4% de BSA, envasados em palhetas de 0,25 mL e submetidos ao congelamento pelo método rápido em Biocool; tratamento 3 (T3): 138 embriões foram expostos durante 2 minutos à solução de desidratação (10% de EG + 6% BSA em PBSm) e então transferidos para a solução de vitrificação (50% de EG + 6% de BSA em PBSm), onde permaneceram por 30 segundos e foram colocados em volume de 1 μL no interior de um fio de teflon, medindo 0,4 mm de diâmetro, 2,0 cm de comprimento e 0,05 mm de espessura. Os fios foram acondicionados em uma caixa de aço inoxidável para serem armazenados em nitrogênio líquido; tratamento 4 (T4): 144 embriões foram expostos à solução de desidratação (10% de EG + 6% BSA em PBSm) e após 2 minutos, foram transferidos para a solução de vitrificação (50% de EG + 6% BSA em PBSm), onde permaneceram por 30 segundos, sendo após transferidos para um volume de 1 μL no interior do fio de teflon. Os fios de teflon foram estocados em globetes unidos às raques e mantidos em nitrogênio líquido. Após o aquecimento, os embriões foram cultivados em PBSm suplementado com 0,4% de BSA. As taxas de eclosão embrionária observadas foram: T1=76,29% (245/307); T2=41,05% (117/292); T3=37,98% (54/138) e T4=26,78% (37/144). No segundo experimento, 747 embriões foram distribuídos em 3 tratamentos: tratamento 1 (T1= controle): 80 embriões foram cultivados in vitro em meio KSOM acrescido de 0,4% de BSA; tratamento 2 (T2): 334 embriões expostos em solução de glicerol 10% acrescida de 0,4% de BSA, foram envasados em palhetas de 0,25 mL e submetidos ao congelamento pelo método rápido em Biocool; tratamento 3 (T3): 333 blastocistos foram expostos durante 2 minutos à solução de desidratação (10% de EG + 0,4% BSA em PBSm) e então transferidos para tubos eppendorf de 2,0 mL em contato com a solução de vitrificação (50% de EG + 0,4% BSA em PBSm). Após o cultivo in vitro, as taxas de eclosão embrionária observadas nos 3 tratamentos foram respectivamente: 88,75% (71/80), 40,44% (141/334) e 19,70% (66/333). Baseado nesses resultados conclui-se que embriões Mus domesticus domesticus submetidos à técnica de vitrificação após exposição à solução de 9,0 M de etileno glicol e envase em fios de teflon assegurou índices satisfatórios de sobrevivência embrionária. As taxas de sobrevivência dos embriões Mus domesticus domesticus foi independente do procedimento de estocagem em botijão de nitrogênio líquido. A vitrificação em solução de 9,0 M de etileno glicol com envase em tubos eppendorf não foi eficiente para promover altas taxas de sobrevivência embrionária, mas proporcionou segurança biológica aos embriões, durante o armazenamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O consumo do leite caprino e derivados vêm apresentando um incremento no Rio Grande do Sul. A produção de caprinos de leite ocorre na maioria das vezes em pequenas propriedades de associados a cooperativas. Estudos que contribuam para incremento da produção dos animais e melhoria da qualidade do leite produzido são importantes para a viabilidade desta atividade econômica. Desta forma, o objetivo deste estudo foi investigar a ocorrência de mastites e os padrões higiênicos do leite de mistura produzido pelas oito propriedades de associados de uma cooperativa na região do Vale do Taquari-RS. Foram realizadas duas visitas em todas as propriedades durante o período de maior produção de leite. Todos os animais em produção foram examinados clinicamente, sendo a seguir submetidos ao Califórnia Mastite Teste (CMT). De todas as metades mamárias foram coletadas amostras de leite, submetidas, posteriormente a contagem de Células Somáticas (CCS) e exame bacteriológico. Uma amostra de leite de mistura foi coletada em cada visita realizada, sendo avaliada quanto à contagem de coliformes fecais e totais e contagem de estafilococos coagulase-positivos. Ainda foram coletadas amostras de água para realização de colimetria em todas as propriedades visitadas. Verificou-se que 30,8% das metades mamárias apresentaram resultados no exame bacteriológico compatível com a ocorrência de mastite subclínica. A maior percentagem (41%) deste grupo era representada por animais na fase de maior produção (8-60 dias de lactação). A bactéria mais isolada nas amostras de leite foi o Staphylococcus coagulase-negativo. Houve correlação entre os resultados do CMT e CCS, bem como do CMT com a contagem de Unidades Formadoras de Colônia de bactérias (UFC). Não houve correlação entre o CCS e UFC. Entretanto, observou-se que o escore zero do CMT e a CCS >106 e ≤ 5 x106 predominaram em todos os períodos de lactação, e apresentaram resultados muitas vezes discrepantes com os resultados obtidos nos demais testes. Estes resultados estão de acordo com relatos anteriores e indicam a necessidade de adaptação dos testes utilizados para o diagnóstico indireto de mastite subclínica na espécie caprina. Da mesma forma, observou-se a necessidade de associar o resultado destes testes com o exame bacteriológico para alcançar uma maior exatidão do diagnóstico. O leite de mistura analisado apresentou contagens de coliformes que variaram de zero até 1,4 x 106 UFC/mL. Apenas duas propriedades apresentaram coliformes fecais e estafilococos coagulase-positiva não foram encontrados no leite de mistura. As amostras de água coletadas estavam dentro dos limites propostos pela legislação vigente. As contagens de coliformes totais encontradas no leite de mistura e o elevado índice de animais com mastite foram associadas a algumas práticas de manejo inadequados dos animais durante a ordenha e a problemas no sistema de armazenamento do leite encontradas em algumas propriedades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de uma arquitetura e o modelo de um Agente de Intercâmbio Eletrônico de Dados, Agente EDI, cuja função é, permitir a troca de dados estruturados entre Sistemas de Informações Distribuídos através da Internet. A estratégia de interação dos agentes possibilita uma maneira alternativa de tratar a recuperação, o armazenamento e a distribuição de dados, permitindo assim, o desenvolvimento de um modelo de Sistema de Informações baseado em Web, igualmente proposto neste trabalho. É apresentado também o desenvolvimento do Agente EDI proposto. O qual poderá ser utilizado por entidades que necessitam disponibilizar ou recuperar dados estruturados via Web, como por exemplo: informações de produtos, listas de preços, dados cadastrais, etc. A relevância deste trabalho está no fato de apresentar uma tecnologia simples e acessível, capaz de ser implementada sem a necessidade de altos investimentos e capaz de facilitar a implementação de Sistemas Distribuídos via Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o ambiente econômico atual tem imposto desafios em atividades como atendimento de pedidos de produção, com lotes e prazos de entrega cada vez menores e garantia de inexistência de erros de qualidade e entrega. Portanto, se faz imperativo um tratamento diferenciado da manutenção dos equipamentos, exigindo o uso de tecnologias que permitam, através da minimização dos tempos envolvidos em reparos, avanços contínuos na direção de "zero-quebra" e "zero-defeito". Embora a busca sempre deva ser de eliminar paradas por quebra, atacando suas causas na raiz, através de ações de melhoramento contínuo das condições das máquinas e instalações, estas ainda persistem. Seja por falta de recursos para a implantação das ações técnicas necessárias ou pela inviabilidade econômica desta implantação, as intervenções corretivas, que em quase sua totalidade estão estruturadas com base na experiência individual dos profissionais da área, continuam sendo requeridas. A empresa fica então na dependência da correta avaliação de profissionais especialistas, os quais são também suscetíveis a erros de diagnóstico, o que coloca em risco a continuidade das operações fabris. Este trabalho revisa o conceito de TPM (Total Productive Management ou Gestão Produtiva Total) aplicado a organizações, processos produtivos e resultados potenciais tangíveis e intangíveis de sua aplicação. A manutenção planejada, um dos pilares do TPM onde são focalizadas as intervenções por quebra-máquina, descreve as divisões de atividades em uma intervenção de conserto. Neste ponto são localizadas as etapas onde o CBR (Case-Based Reasoning) ou Raciocínio Baseado em Casos, pode ser utilizado a fim de minimizar o tempo total da intervenção. Um protótipo de CBR é criado para auxiliar especialistas de manutenção durante o processo de diagnóstico de causas de quebras de máquinas. Este protótipo utiliza CBR como método para armazenamento de casos pregressos de quebras de máquina. A base de casos do CBR fornece ferramentas para recuperação e reutilização destas experiências quando da recorrência da quebra de máquina, auxiliando profissionais da manutenção a executar seu trabalho O pacote de ferramentas CBR Content Navigator, Versão 3.2 desenvolvido pela Inference CorporationTM foi utilizado como: (i) repositório para modelagem e armazenamento do banco de casos, (ii) mecanismo de recuperação (ou busca) de casos na base do sistema e, (iii) ferramentas para apresentar a solução dos problemas de quebra de máquina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O papel do milho na alimentação humana e animal é importante por causa da composição química e do valor nutritivo; por isso, é um dos cereais mais cultivados e consumidos no mundo. Uma das principais causas de danos à qualidade dos grãos é a infecção fúngica e a conseqüente contaminação por micotoxinas. Neste trabalho, foi identificado os efeitos do retardamento da colheita, do grau de umidade e do período de armazenamento dos grãos na ocorrência de fungos patogênicos e de grãos ardidos e a possível contaminação por micotoxinas na lavoura e durante o armazenamento, com o objetivo de caracterizar a influência dos fungos de pré e pós colheita na qualidade dos grãos de milho nas safras 98/99 e 99/00. A incidência de fungos patogênicos foi quantificada em 400 grãos e de grãos ardidos (GA), a percentagem de grãos com injúria mecânica visível (IMV) e de grãos normais (GN) em quatro repetições de 250 g de grãos. A contaminação por micotoxinas foi analisada por cromatografia de camada delgada e as características nutricionais foram analisadas por espectrometria de reflectância no infravermelho proximal. O retardamento da colheita gerou condições favoráveis para a elevação da incidência dos fungos das espécies Aspergillus spp., Cephalosporium spp., Fusarium graminearum e Penicillium spp. A incidência de GA se elevou enquanto os grãos apresentavam umidade acima de 20%. A incidência de Fusarium moniliforme foi reduzindo à medida que os grãos perdiam água. O percentual de grãos com IMV somados a incidência GA foi de 15,90% no silo de Lodi e de 15,78% na Cotrel. O retardamento de colheita influenciou na ocorrência de fungos, de GA e de micotoxinas na lavoura. As práticas de manejo das lavouras e a operação de colheita afetaram qualidade comercial dos grãos de milho e o armazenamento conservou as características nutricionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preservação e o armazenamento de células e tecidos têm sido utilizados largamente em pesquisa científica e aplicações clínicas. No entanto, há uma aparente contradição entre o conceito de preservaão e as conclusões baseadas em resultados experimentais que materiais biológicos criopreservados podem ser danificados pelo próprio processo de preservação. A compreensão do processo de solidificação de soluções salinas é fundamental para a proposição de novos protocolos de criopreservação. No presente estudo, o congelamento de uma solução de cloreto de sódio a 1% em massa é simulado. As equações de conservação de massa, momentum, energia, e espécies químicas foram discretizadas e resolvidas numericamente utilizando-se o método dos volumes de controle para um domínio bidimensional que contém a parede da bolsa plástica e a solução salina. A perda de água da célula foi calculada a partir da história de temperatura e concentração durante o processo de solidificação e verificou-se que, dependendo da posição inicial da célula na bolsa, a célula tem probabilidades diferentes de sobreviver durante o processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulações Numéricas são executadas em um código numérico de alta precisão resolvendo as equações de Navier-Stokes e da continuidade para regimes de escoamento incompressíveis num contexto da turbulência bidimensional. Este código utiliza um esquema compacto de diferenças finitas de sexta ordem na aproximação das derivadas espaciais. As derivadas temporais são calculadas usando o esquema de Runge-Kuta de terceeira ordem com baixo armazenamento. Tal código numérico fornece uma representação melhorada para uma grande faixa de escalas de comprimento e de tempo. As técnicas dos contornos imersos acopladas ao método dos contornos virtuais permitem modelar escoamentos não-estacionários sobre geometrrias complexas, usando simplesmente uma malha Cartesiana uniforme. Por meio de procedimentos de aproximação/interpolação, as técnicas dos contornos imersos (aproximação Gaussiana, interpolação bilinear e redistribuição Gaussiana), permitem a representação do corpo sólido no interior do campo de escoamento, com a superfície não coincidindo com a malha computacional. O método dos contornos virtuais, proposto originalmente por Peskin, consiste, basicamente, na imposição na superfície e/ou no interior do corpo, de um termo de força temporal acrescentando às equações do momento. A aplicação deste campo de força local leva o fluido ao repouso na superfície do corpo, permitindo obter as condições de contorno de não-deslizamento e de não penetração de fluido na parede. A análise das oscilações induzidas no escoamento-contorno pelo processo de desprendimento de vórtices na esteira do cilindro circular e de geometria retangulares na incidência, para números de Reybolds variando de 40 a 400, confirma a eficiência computacional e a aplicabilidade das técncias implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve a especificação e implementação do protótipo Assistente de Feedback que ajuda os usuários a ajustarem os parâmetros do serviço de filtragem de mensagens vindas do correio eletrônico de sistemas como o Direto. O Assistente de Feedback é instalado no computador do usuário do Direto para monitorar suas preferências representadas pelas ações aplicadas nas mensagens do correio eletrônico. O trabalho apresenta, ainda, uma revisão bibliográfica sobre os conceitos gerais de probabilidades, redes Bayesianas e classificadores. Procura-se descrever as características gerais dos classificadores, em especial o Naive Bayes, sua lógica e seu desempenho comparado a outros classificadores. São abordados, também, conceitos relacionados ao modelo de perfil de usuário e o ambiente Direto. O Naive Bayes torna-se atraente para ser utilizado no Assistente de Feedback por apresentar bom desempenho sobre os demais classificadores e por ser eficiente na predição, quando os atributos são independentes entre si. O Assistente de Feedback utiliza um classificador Naive Bayes para predizer as preferências por intermédio das ações do usuário. Utiliza, também, pesos que representarão a satisfação do usuário para os termos extraídos do corpo da mensagem. Esses pesos são associados às ações do usuário para estimar os termos mais interessantes e menos interessantes, pelo valor de suas médias finais. Quando o usuário desejar alterar os filtros de mensagens do Direto, ele solicita ao Assistente de Feedback sugestões para possíveis exclusões dos termos menos interessantes e as possíveis inclusões dos termos mais interessantes. O protótipo é testado utilizando dois métodos de avaliação para medir o grau de precisão e o desempenho do Assistente de Feedback. Os resultados obtidos na avaliação de precisão apresentam valores satisfatórios, considerando o uso de cinco classes pelo classificador do Assistente de Feedback. Os resultados dos testes de desempenho permitem observar que, se forem utilizadas máquinas com configurações mais atualizadas, os usuários conseguirão receber sugestões com tempo de respostas mais toleráveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é feito um estudo do processo de dispersão e combustão de uma mistura gasosa, assim como uma avaliação de alguns dos vários métodos disponíveis para estimar os resultados de uma explosão de nuvem de gás inflamável-ar. O método Multienergia foi utilizado para estimar os campos de sobrepressão resultantes de explosões de nuvens de GLP em áreas congestionadas pela presença de árvores, próximas a esferas de armazenamento de gás. Foram considerados como áreas congestionadas propícias para geração de turbulência os hortos florestais como os comumente encontrados em torno de indústrias petroquímicas e refinarias de petróleo. Foram feitas simulações para áreas de horto florestal de formato quadrado variando entre 50.000 m2 e 250.000 m2 e altura de 10 m. Para avaliar o efeito da explosão sobre a esfera, o critério de risco se baseou num elongamento máximo de 0,2% dos tirantes críticos de sustentação da mesma. Foram avaliados os efeitos destas explosões sobre uma esfera de GLP de diâmetro externo de 14,5 m para distâncias de 10 a 100 m entre a esfera e a borda do horto. É mostrado que áreas congestionadas com no mínimo 100.000 m2 podem representar um risco para a integridade das esferas menos preenchidas com GLP. Do ponto de vista da segurança das unidades de armazenamento, foi visto com base nos resultados obtidos que é preferível manter um menor número de esferas com maior preenchimento do que dividir o volume de GLP disponível entre várias unidades. Foi estimado que para áreas com grau de congestionamento de 25% a distância mínima segura entre a borda do horto e a esfera varia entre 10 m, para hortos com área de 100.000 m2, e 87,6 m, para hortos de 250.000 m2 A influência do espaçamento das árvores, representada pelo grau de obstrução da área de passagem da frente de chama, também foi analisada, indicando o quanto sua alteração pode afetar a distância mínima segura para as esferas. Por fim são feitas recomendações quanto à distância mínima entre o parque de esferas e o horto, bem como outras formas de diminuir o risco representado por explosões oriundas da formação acidental de mistura inflamável no interior dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.