120 resultados para Ovos - Armazenamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O papel do milho na alimentação humana e animal é importante por causa da composição química e do valor nutritivo; por isso, é um dos cereais mais cultivados e consumidos no mundo. Uma das principais causas de danos à qualidade dos grãos é a infecção fúngica e a conseqüente contaminação por micotoxinas. Neste trabalho, foi identificado os efeitos do retardamento da colheita, do grau de umidade e do período de armazenamento dos grãos na ocorrência de fungos patogênicos e de grãos ardidos e a possível contaminação por micotoxinas na lavoura e durante o armazenamento, com o objetivo de caracterizar a influência dos fungos de pré e pós colheita na qualidade dos grãos de milho nas safras 98/99 e 99/00. A incidência de fungos patogênicos foi quantificada em 400 grãos e de grãos ardidos (GA), a percentagem de grãos com injúria mecânica visível (IMV) e de grãos normais (GN) em quatro repetições de 250 g de grãos. A contaminação por micotoxinas foi analisada por cromatografia de camada delgada e as características nutricionais foram analisadas por espectrometria de reflectância no infravermelho proximal. O retardamento da colheita gerou condições favoráveis para a elevação da incidência dos fungos das espécies Aspergillus spp., Cephalosporium spp., Fusarium graminearum e Penicillium spp. A incidência de GA se elevou enquanto os grãos apresentavam umidade acima de 20%. A incidência de Fusarium moniliforme foi reduzindo à medida que os grãos perdiam água. O percentual de grãos com IMV somados a incidência GA foi de 15,90% no silo de Lodi e de 15,78% na Cotrel. O retardamento de colheita influenciou na ocorrência de fungos, de GA e de micotoxinas na lavoura. As práticas de manejo das lavouras e a operação de colheita afetaram qualidade comercial dos grãos de milho e o armazenamento conservou as características nutricionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preservação e o armazenamento de células e tecidos têm sido utilizados largamente em pesquisa científica e aplicações clínicas. No entanto, há uma aparente contradição entre o conceito de preservaão e as conclusões baseadas em resultados experimentais que materiais biológicos criopreservados podem ser danificados pelo próprio processo de preservação. A compreensão do processo de solidificação de soluções salinas é fundamental para a proposição de novos protocolos de criopreservação. No presente estudo, o congelamento de uma solução de cloreto de sódio a 1% em massa é simulado. As equações de conservação de massa, momentum, energia, e espécies químicas foram discretizadas e resolvidas numericamente utilizando-se o método dos volumes de controle para um domínio bidimensional que contém a parede da bolsa plástica e a solução salina. A perda de água da célula foi calculada a partir da história de temperatura e concentração durante o processo de solidificação e verificou-se que, dependendo da posição inicial da célula na bolsa, a célula tem probabilidades diferentes de sobreviver durante o processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulações Numéricas são executadas em um código numérico de alta precisão resolvendo as equações de Navier-Stokes e da continuidade para regimes de escoamento incompressíveis num contexto da turbulência bidimensional. Este código utiliza um esquema compacto de diferenças finitas de sexta ordem na aproximação das derivadas espaciais. As derivadas temporais são calculadas usando o esquema de Runge-Kuta de terceeira ordem com baixo armazenamento. Tal código numérico fornece uma representação melhorada para uma grande faixa de escalas de comprimento e de tempo. As técnicas dos contornos imersos acopladas ao método dos contornos virtuais permitem modelar escoamentos não-estacionários sobre geometrrias complexas, usando simplesmente uma malha Cartesiana uniforme. Por meio de procedimentos de aproximação/interpolação, as técnicas dos contornos imersos (aproximação Gaussiana, interpolação bilinear e redistribuição Gaussiana), permitem a representação do corpo sólido no interior do campo de escoamento, com a superfície não coincidindo com a malha computacional. O método dos contornos virtuais, proposto originalmente por Peskin, consiste, basicamente, na imposição na superfície e/ou no interior do corpo, de um termo de força temporal acrescentando às equações do momento. A aplicação deste campo de força local leva o fluido ao repouso na superfície do corpo, permitindo obter as condições de contorno de não-deslizamento e de não penetração de fluido na parede. A análise das oscilações induzidas no escoamento-contorno pelo processo de desprendimento de vórtices na esteira do cilindro circular e de geometria retangulares na incidência, para números de Reybolds variando de 40 a 400, confirma a eficiência computacional e a aplicabilidade das técncias implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve a especificação e implementação do protótipo Assistente de Feedback que ajuda os usuários a ajustarem os parâmetros do serviço de filtragem de mensagens vindas do correio eletrônico de sistemas como o Direto. O Assistente de Feedback é instalado no computador do usuário do Direto para monitorar suas preferências representadas pelas ações aplicadas nas mensagens do correio eletrônico. O trabalho apresenta, ainda, uma revisão bibliográfica sobre os conceitos gerais de probabilidades, redes Bayesianas e classificadores. Procura-se descrever as características gerais dos classificadores, em especial o Naive Bayes, sua lógica e seu desempenho comparado a outros classificadores. São abordados, também, conceitos relacionados ao modelo de perfil de usuário e o ambiente Direto. O Naive Bayes torna-se atraente para ser utilizado no Assistente de Feedback por apresentar bom desempenho sobre os demais classificadores e por ser eficiente na predição, quando os atributos são independentes entre si. O Assistente de Feedback utiliza um classificador Naive Bayes para predizer as preferências por intermédio das ações do usuário. Utiliza, também, pesos que representarão a satisfação do usuário para os termos extraídos do corpo da mensagem. Esses pesos são associados às ações do usuário para estimar os termos mais interessantes e menos interessantes, pelo valor de suas médias finais. Quando o usuário desejar alterar os filtros de mensagens do Direto, ele solicita ao Assistente de Feedback sugestões para possíveis exclusões dos termos menos interessantes e as possíveis inclusões dos termos mais interessantes. O protótipo é testado utilizando dois métodos de avaliação para medir o grau de precisão e o desempenho do Assistente de Feedback. Os resultados obtidos na avaliação de precisão apresentam valores satisfatórios, considerando o uso de cinco classes pelo classificador do Assistente de Feedback. Os resultados dos testes de desempenho permitem observar que, se forem utilizadas máquinas com configurações mais atualizadas, os usuários conseguirão receber sugestões com tempo de respostas mais toleráveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é feito um estudo do processo de dispersão e combustão de uma mistura gasosa, assim como uma avaliação de alguns dos vários métodos disponíveis para estimar os resultados de uma explosão de nuvem de gás inflamável-ar. O método Multienergia foi utilizado para estimar os campos de sobrepressão resultantes de explosões de nuvens de GLP em áreas congestionadas pela presença de árvores, próximas a esferas de armazenamento de gás. Foram considerados como áreas congestionadas propícias para geração de turbulência os hortos florestais como os comumente encontrados em torno de indústrias petroquímicas e refinarias de petróleo. Foram feitas simulações para áreas de horto florestal de formato quadrado variando entre 50.000 m2 e 250.000 m2 e altura de 10 m. Para avaliar o efeito da explosão sobre a esfera, o critério de risco se baseou num elongamento máximo de 0,2% dos tirantes críticos de sustentação da mesma. Foram avaliados os efeitos destas explosões sobre uma esfera de GLP de diâmetro externo de 14,5 m para distâncias de 10 a 100 m entre a esfera e a borda do horto. É mostrado que áreas congestionadas com no mínimo 100.000 m2 podem representar um risco para a integridade das esferas menos preenchidas com GLP. Do ponto de vista da segurança das unidades de armazenamento, foi visto com base nos resultados obtidos que é preferível manter um menor número de esferas com maior preenchimento do que dividir o volume de GLP disponível entre várias unidades. Foi estimado que para áreas com grau de congestionamento de 25% a distância mínima segura entre a borda do horto e a esfera varia entre 10 m, para hortos com área de 100.000 m2, e 87,6 m, para hortos de 250.000 m2 A influência do espaçamento das árvores, representada pelo grau de obstrução da área de passagem da frente de chama, também foi analisada, indicando o quanto sua alteração pode afetar a distância mínima segura para as esferas. Por fim são feitas recomendações quanto à distância mínima entre o parque de esferas e o horto, bem como outras formas de diminuir o risco representado por explosões oriundas da formação acidental de mistura inflamável no interior dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de gerência de workflow estão sendo amplamente utilizados para a modelagem e a execução dos processos de negócios das organizações. Tipicamente, esses sistemas interpretam um workflow e atribuem atividades a participantes, os quais podem utilizar ferramentas e aplicativos para sua realização. Recentemente, XML começou a ser utilizada como linguagem para representação dos processos bem como para a interoperação entre várias máquinas de workflow. Os processos de negócio são, na grande maioria, dinâmicos, podendo ser modi- ficados devido a inúmeros fatores, que vão desde a correção de erros até a adaptação a novas leis externas à organização. Conseqüentemente, os workflows correspondentes devem também evoluir, para se adequar às novas especificações do processo. Algumas propostas para o tratamento deste problema já foram definidas, enfocando principalmente as alterações sobre o fluxo de controle. Entretanto, para workflows representados em XML, ainda não foram definidos mecanismos apropriados para que a evolução possa ser realizada. Este trabalho apresenta uma estratégia para a evolução de esquemas de workflow representados em XML. Esta estratégia é construída a partir do conceito de versionamento, que permite o armazenamento de diversas versões de esquemas e a consulta ao hist´orico de versões e instâncias. As versões são representadas de acordo com uma linguagem que considera os aspectos de evolução. As instâncias, responsáveis pelas execuções particulares das versões, também são adequadamente modeladas. Além disso, é definido um método para a migração de instâncias entre versões de esquema, no caso de uma evolução. A aplicabilidade da estratégia proposta é verificada por meio de um estudo de caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A extrusão reativa do polietileno de alta densidade (PEAD) em presença de peróxidos orgânicos pode promover sua reticulação, provocando mudanças em suas propriedades. Isto deve-se à capacidade do peróxido orgânico de abstrair hidrogênios secundários e terciários da cadeia, podendo assim formar os radicais livres necessários à ocorrência da reticulação. Neste trabalho, amostras de pó de PEAD produzido com catalisador Ziegler-Natta, para utilização em processamento por injeção, sopro ou extrusão de filmes, foram extrusadas com o peróxido de dicumila e o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano em teores de 0,001 a 0,08 pcp. Os produtos obtidos foram caracterizados quanto a suas taxas de fluidez (MFR), densidades, propriedades reológicas, físicas e mecânicas. Para a avaliação reológica foram analisadas as curvas de viscosidade em função da taxa de cisalhamento e determinadas as taxas de cisalhamento críticas, ambas no reômetro capilar. O comportamento viscoelástico foi avaliado pelos módulos de armazenamento e de perda e pela viscosidade complexa. A massa molar e sua distribuição foram determinadas por cromatografia de exclusão por tamanho (SEC). O percentual de reticulação foi verificado pela determinação do teor de material de solúveis em xileno. As propriedades mecânicas analisadas foram resistência à tração, à flexão, ao tensofissuramento e módulo de elasticidade. As propriedades analisadas foram relacionadas às estruturas dos produtos resultantes da extrusão reativa. Verificou-se que a extrusão reativa do PEAD com peróxidos orgânicos originou resinas com distribuição de massas molares mais larga, caráter mais pseudoplástico e com comportamento do fundido mais elástico do que as resinas não modificadas por peróxido. A reologia, dentre as técnicas analíticas utilizadas, apresentou maior sensibilidade às mudanças estruturais decorrentes da extrusão reativa. A extrusão reativa com peróxidos originou resinas com propriedades mecânicas diferenciadas, havendo incremento na resistência ao impacto Charpy e ao tensofissuramento e diminuição no módulo de elasticidade comparativamente às resinas não modificadas. A resistência à tração não apresentou variações significativas entre as resinas modificadas e as não modificadas. O peróxido que se mostrou mais eficiente na extrusão reativa foi o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação apresenta um levantamento de dados sobre acidentes de trabalho feito a partir de informações extraídas de um documento denominado CAT (Comunicação de Acidente de Trabalho). Com base neste documento, analisaram-se informações referentes à empresa, ao acidentado e acidentes de trabalho registrados no setor metalúrgico e metalmecânico do estado do Rio Grande do Sul nos anos de 1996/1997. Após a coleta dos dados, procedeu-se ao armazenamento dos mesmos em um software de banco de dados que permite analisar as informações levantadas no intuito de melhor conhecer a magnitude, natureza e distribuição dos acidentes. O estudo, deixa evidente a insalubridade do ambiente de trabalho do acidentado devido à quantidade de registros causados pôr ruído (principalmente fábricas de cutelaria) e DORT (Doenças Osteomusculares Relacionadas ao Trabalho). Há também grande incidência de impacto sofrido pêlos acidentados, devido a ferramentas, peças e máquinas. Os metalúrgicos foram a categoria profissional que mais acidentes de trabalho registraram. No entanto, os soldadores apresentaram um dado curioso, pois sofreram muitos acidentes pôr impacto sofrido, devido a queda de tubos, canos e barras, fora de seu posto de trabalho ou de suas atividades tradicionais de solda Fica evidente que, além da falta de organização do posto de trabalho do acidentado, existe a própria desorganização do trabalho. Os profissionais atuam fora de seu posto e em tarefas que não são características de sua função, fatores que provavelmente contribuem para o aumento de riscos de acidentes. Com os resultados obtidos neste trabalho, pretende-se sensibilizar as empresas para que tomem medidas mais eficientes a fim de minimizar os riscos aos quais os trabalhadores estão envolvidos e expostos.