118 resultados para Manga (Fruta) - Armazenamento
Resumo:
Análise econômica dos principais sistemas de cultivo de macieiras adotados no município de Vacaria/RS. O estudo compara as tecnologias de cultivo de baixa densidade, de alta densidade e de super alta densidade de plantio, buscando encontrar aquela que proporciona maior rentabilidade econômica para o produtor ao longo dos anos. Ao longo da pesquisa, apresenta-se um cenário da situação da cultura, caracterizam-se os sistemas de cultivo, comparam-se as tecnologias de cultivo e os investimentos para produção, buscando o mais rentável, e realiza-se a análise de sensibilidade a partir dos resultados obtidos. A metodologia empregada para avaliação dos sistemas de cultivo é a análise de investimentos, utilizando-se os métodos do Valor Presente Líquido (VPL), da Taxa Interna de Retorno (TIR), do Período de Recuperação do Capital (PRC) ou “Pay Back” e da Razão Benefício/Custo. Os dados utilizados para determinação da estrutura de custos dos sistemas de cultivo foram obtidos junto à assistência técnica local e empresas produtoras da fruta. Já o preço de comercialização da maçã pelos produtores foi obtido na EMATER/RS. Os resultados indicaram o sistema de cultivo de super alta densidade como o mais apropriado para implantação pelos métodos do VPL, TIR e PRC. No entanto, pelo método da Razão B/C, deve-se optar pelo sistema de alta densidade. A análise de sensibilidade revela que se deve atentar para particularidades dos locais onde os sistemas são implantados e para a situação dos produtores, uma vez que algumas características especiais, que alterem os custos de produção ou produtividade dos pomares, modificam o sistema de cultivo recomendado.
Resumo:
Simulações Numéricas são executadas em um código numérico de alta precisão resolvendo as equações de Navier-Stokes e da continuidade para regimes de escoamento incompressíveis num contexto da turbulência bidimensional. Este código utiliza um esquema compacto de diferenças finitas de sexta ordem na aproximação das derivadas espaciais. As derivadas temporais são calculadas usando o esquema de Runge-Kuta de terceeira ordem com baixo armazenamento. Tal código numérico fornece uma representação melhorada para uma grande faixa de escalas de comprimento e de tempo. As técnicas dos contornos imersos acopladas ao método dos contornos virtuais permitem modelar escoamentos não-estacionários sobre geometrrias complexas, usando simplesmente uma malha Cartesiana uniforme. Por meio de procedimentos de aproximação/interpolação, as técnicas dos contornos imersos (aproximação Gaussiana, interpolação bilinear e redistribuição Gaussiana), permitem a representação do corpo sólido no interior do campo de escoamento, com a superfície não coincidindo com a malha computacional. O método dos contornos virtuais, proposto originalmente por Peskin, consiste, basicamente, na imposição na superfície e/ou no interior do corpo, de um termo de força temporal acrescentando às equações do momento. A aplicação deste campo de força local leva o fluido ao repouso na superfície do corpo, permitindo obter as condições de contorno de não-deslizamento e de não penetração de fluido na parede. A análise das oscilações induzidas no escoamento-contorno pelo processo de desprendimento de vórtices na esteira do cilindro circular e de geometria retangulares na incidência, para números de Reybolds variando de 40 a 400, confirma a eficiência computacional e a aplicabilidade das técncias implementadas.
Resumo:
Este trabalho descreve a especificação e implementação do protótipo Assistente de Feedback que ajuda os usuários a ajustarem os parâmetros do serviço de filtragem de mensagens vindas do correio eletrônico de sistemas como o Direto. O Assistente de Feedback é instalado no computador do usuário do Direto para monitorar suas preferências representadas pelas ações aplicadas nas mensagens do correio eletrônico. O trabalho apresenta, ainda, uma revisão bibliográfica sobre os conceitos gerais de probabilidades, redes Bayesianas e classificadores. Procura-se descrever as características gerais dos classificadores, em especial o Naive Bayes, sua lógica e seu desempenho comparado a outros classificadores. São abordados, também, conceitos relacionados ao modelo de perfil de usuário e o ambiente Direto. O Naive Bayes torna-se atraente para ser utilizado no Assistente de Feedback por apresentar bom desempenho sobre os demais classificadores e por ser eficiente na predição, quando os atributos são independentes entre si. O Assistente de Feedback utiliza um classificador Naive Bayes para predizer as preferências por intermédio das ações do usuário. Utiliza, também, pesos que representarão a satisfação do usuário para os termos extraídos do corpo da mensagem. Esses pesos são associados às ações do usuário para estimar os termos mais interessantes e menos interessantes, pelo valor de suas médias finais. Quando o usuário desejar alterar os filtros de mensagens do Direto, ele solicita ao Assistente de Feedback sugestões para possíveis exclusões dos termos menos interessantes e as possíveis inclusões dos termos mais interessantes. O protótipo é testado utilizando dois métodos de avaliação para medir o grau de precisão e o desempenho do Assistente de Feedback. Os resultados obtidos na avaliação de precisão apresentam valores satisfatórios, considerando o uso de cinco classes pelo classificador do Assistente de Feedback. Os resultados dos testes de desempenho permitem observar que, se forem utilizadas máquinas com configurações mais atualizadas, os usuários conseguirão receber sugestões com tempo de respostas mais toleráveis.
Resumo:
Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.
Resumo:
Neste trabalho é feito um estudo do processo de dispersão e combustão de uma mistura gasosa, assim como uma avaliação de alguns dos vários métodos disponíveis para estimar os resultados de uma explosão de nuvem de gás inflamável-ar. O método Multienergia foi utilizado para estimar os campos de sobrepressão resultantes de explosões de nuvens de GLP em áreas congestionadas pela presença de árvores, próximas a esferas de armazenamento de gás. Foram considerados como áreas congestionadas propícias para geração de turbulência os hortos florestais como os comumente encontrados em torno de indústrias petroquímicas e refinarias de petróleo. Foram feitas simulações para áreas de horto florestal de formato quadrado variando entre 50.000 m2 e 250.000 m2 e altura de 10 m. Para avaliar o efeito da explosão sobre a esfera, o critério de risco se baseou num elongamento máximo de 0,2% dos tirantes críticos de sustentação da mesma. Foram avaliados os efeitos destas explosões sobre uma esfera de GLP de diâmetro externo de 14,5 m para distâncias de 10 a 100 m entre a esfera e a borda do horto. É mostrado que áreas congestionadas com no mínimo 100.000 m2 podem representar um risco para a integridade das esferas menos preenchidas com GLP. Do ponto de vista da segurança das unidades de armazenamento, foi visto com base nos resultados obtidos que é preferível manter um menor número de esferas com maior preenchimento do que dividir o volume de GLP disponível entre várias unidades. Foi estimado que para áreas com grau de congestionamento de 25% a distância mínima segura entre a borda do horto e a esfera varia entre 10 m, para hortos com área de 100.000 m2, e 87,6 m, para hortos de 250.000 m2 A influência do espaçamento das árvores, representada pelo grau de obstrução da área de passagem da frente de chama, também foi analisada, indicando o quanto sua alteração pode afetar a distância mínima segura para as esferas. Por fim são feitas recomendações quanto à distância mínima entre o parque de esferas e o horto, bem como outras formas de diminuir o risco representado por explosões oriundas da formação acidental de mistura inflamável no interior dos mesmos.
Resumo:
A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.
Resumo:
Sistemas de gerência de workflow estão sendo amplamente utilizados para a modelagem e a execução dos processos de negócios das organizações. Tipicamente, esses sistemas interpretam um workflow e atribuem atividades a participantes, os quais podem utilizar ferramentas e aplicativos para sua realização. Recentemente, XML começou a ser utilizada como linguagem para representação dos processos bem como para a interoperação entre várias máquinas de workflow. Os processos de negócio são, na grande maioria, dinâmicos, podendo ser modi- ficados devido a inúmeros fatores, que vão desde a correção de erros até a adaptação a novas leis externas à organização. Conseqüentemente, os workflows correspondentes devem também evoluir, para se adequar às novas especificações do processo. Algumas propostas para o tratamento deste problema já foram definidas, enfocando principalmente as alterações sobre o fluxo de controle. Entretanto, para workflows representados em XML, ainda não foram definidos mecanismos apropriados para que a evolução possa ser realizada. Este trabalho apresenta uma estratégia para a evolução de esquemas de workflow representados em XML. Esta estratégia é construída a partir do conceito de versionamento, que permite o armazenamento de diversas versões de esquemas e a consulta ao hist´orico de versões e instâncias. As versões são representadas de acordo com uma linguagem que considera os aspectos de evolução. As instâncias, responsáveis pelas execuções particulares das versões, também são adequadamente modeladas. Além disso, é definido um método para a migração de instâncias entre versões de esquema, no caso de uma evolução. A aplicabilidade da estratégia proposta é verificada por meio de um estudo de caso.
Resumo:
A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.
Resumo:
A extrusão reativa do polietileno de alta densidade (PEAD) em presença de peróxidos orgânicos pode promover sua reticulação, provocando mudanças em suas propriedades. Isto deve-se à capacidade do peróxido orgânico de abstrair hidrogênios secundários e terciários da cadeia, podendo assim formar os radicais livres necessários à ocorrência da reticulação. Neste trabalho, amostras de pó de PEAD produzido com catalisador Ziegler-Natta, para utilização em processamento por injeção, sopro ou extrusão de filmes, foram extrusadas com o peróxido de dicumila e o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano em teores de 0,001 a 0,08 pcp. Os produtos obtidos foram caracterizados quanto a suas taxas de fluidez (MFR), densidades, propriedades reológicas, físicas e mecânicas. Para a avaliação reológica foram analisadas as curvas de viscosidade em função da taxa de cisalhamento e determinadas as taxas de cisalhamento críticas, ambas no reômetro capilar. O comportamento viscoelástico foi avaliado pelos módulos de armazenamento e de perda e pela viscosidade complexa. A massa molar e sua distribuição foram determinadas por cromatografia de exclusão por tamanho (SEC). O percentual de reticulação foi verificado pela determinação do teor de material de solúveis em xileno. As propriedades mecânicas analisadas foram resistência à tração, à flexão, ao tensofissuramento e módulo de elasticidade. As propriedades analisadas foram relacionadas às estruturas dos produtos resultantes da extrusão reativa. Verificou-se que a extrusão reativa do PEAD com peróxidos orgânicos originou resinas com distribuição de massas molares mais larga, caráter mais pseudoplástico e com comportamento do fundido mais elástico do que as resinas não modificadas por peróxido. A reologia, dentre as técnicas analíticas utilizadas, apresentou maior sensibilidade às mudanças estruturais decorrentes da extrusão reativa. A extrusão reativa com peróxidos originou resinas com propriedades mecânicas diferenciadas, havendo incremento na resistência ao impacto Charpy e ao tensofissuramento e diminuição no módulo de elasticidade comparativamente às resinas não modificadas. A resistência à tração não apresentou variações significativas entre as resinas modificadas e as não modificadas. O peróxido que se mostrou mais eficiente na extrusão reativa foi o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
O cultivo de citros no Brasil tem sido assolado por diversos problemas, como pragas e doenças; entre as últimas, uma das mais importantes e que tem chegado a limitar a cultura, está a pinta preta, causada por Guignardia citricarpa Kiely; que provoca diminuição do tamanho dos frutos, manchas na casca e queda precoce. É de vital importância conhecer a epidemiologia desta doença nas condições locais, para tentativa de controle mais eficiente, principalmente em pomares sob manejo orgânico, nos quais não são utilizados insumos químicos industriais. Com este trabalho, objetivou-se identificar e comparar a incidência e a severidade da doença dentro e entre pomares da bergamoteira ‘Montenegrina’ (Citrus deliciosa Tenore) e tangor ‘Murcott’ (C. reticulata Blanco x C. sinensis Osbeck), a relação entre a severidade e a queda precoce dos frutos; a variação na produção de esporos e a relação de todos estes, com fatores climáticos. Os dados foram coletados entre agosto de 2001 e setembro de 2002, no município de Montenegro, RS, através da contagem direta de todos os frutos das plantas amostradas e, em laboratório, contou-se o número de lesões e seus diâmetros por fruto. Os índices de incidência e severidade da doença foram confrontados com fatores meteorológicos, avaliando-se as implicações no aumento da doença e na queda de frutos. O início dos sintomas deu-se em fevereiro para Murcott e, em março para Montenegrina, agravando-se progressivamente, atingindo valores máximos próximo à colheita. A análise estatística dos dados obtidos mostrou que o número de lesões difere dentro e entre cultivares, mas seus tamanhos parecem ser independentes. A severidade foi relacionada à queda de frutos em Montenegrina, mas não ocorrendo o mesmo em Murcott. Os resultados não evidenciaram influências da umidade relativa do ar, mas temperaturas médias e precipitação pareceram ter relação com o aumento da incidência e da severidade para ambas as cultivares.
Resumo:
A presente dissertação apresenta um levantamento de dados sobre acidentes de trabalho feito a partir de informações extraídas de um documento denominado CAT (Comunicação de Acidente de Trabalho). Com base neste documento, analisaram-se informações referentes à empresa, ao acidentado e acidentes de trabalho registrados no setor metalúrgico e metalmecânico do estado do Rio Grande do Sul nos anos de 1996/1997. Após a coleta dos dados, procedeu-se ao armazenamento dos mesmos em um software de banco de dados que permite analisar as informações levantadas no intuito de melhor conhecer a magnitude, natureza e distribuição dos acidentes. O estudo, deixa evidente a insalubridade do ambiente de trabalho do acidentado devido à quantidade de registros causados pôr ruído (principalmente fábricas de cutelaria) e DORT (Doenças Osteomusculares Relacionadas ao Trabalho). Há também grande incidência de impacto sofrido pêlos acidentados, devido a ferramentas, peças e máquinas. Os metalúrgicos foram a categoria profissional que mais acidentes de trabalho registraram. No entanto, os soldadores apresentaram um dado curioso, pois sofreram muitos acidentes pôr impacto sofrido, devido a queda de tubos, canos e barras, fora de seu posto de trabalho ou de suas atividades tradicionais de solda Fica evidente que, além da falta de organização do posto de trabalho do acidentado, existe a própria desorganização do trabalho. Os profissionais atuam fora de seu posto e em tarefas que não são características de sua função, fatores que provavelmente contribuem para o aumento de riscos de acidentes. Com os resultados obtidos neste trabalho, pretende-se sensibilizar as empresas para que tomem medidas mais eficientes a fim de minimizar os riscos aos quais os trabalhadores estão envolvidos e expostos.
Resumo:
A meta dessa dissertação foi estudar a possibilidade de contaminação de um solo por hidrocarbonetos e metais pesados associados em zona industrial, estabelecendo uma metodologia de amostragem para avaliação de solos potencialmente contaminados. Para estudo de caso foi selecionada uma refinaria de petróleo localizada em território nacional. Conjuntamente com a metodologia de amostragem, foram estabelecidos como objetivos: a caracterização e avaliação do solo, a identificação dos possíveis “hot spot’s” para servir de subsídios para o monitoramento em investigações mais detalhadas do local e a avaliação da eficiência das barreiras argilosas que compõem os diques dos tanques. Foram investigados os solos que compõem os diques de contenção dos tanques armazenadores de petróleo. As diversas operações realizadas na área são fontes potencias de adição de contaminantes, que ocorrem, normalmente, em pequenas doses e de maneira contínua, pois a fonte nunca é estancada. Foram estabelecidas duas etapas de investigação: uma preliminar, que se consistiu em um levantamento do histórico da área, listando as evidências que pudessem indicar quais locais poderiam ser focos de contaminação A partir dos dados levantados na investigação preliminar foi feito o planejamento de uma campanha de amostragem para a coleta de amostras de solo. Além das análises usuais de caracterização, foram executadas análises de Hidrocarbonetos Totais de Petróleo (TPH Total Petroleum Hydrocarbon) e dos metais cádmio, chumbo, cromo, níquel e mercúrio. Para o enquadramento da área sob o ponto de vista de área contaminada foram utilizados como valores orientadores a “Nova Lista da Holanda” e os “Valores orientadores para solos e águas subterrâneas para o estado de São Paulo”. Dos quatro pontos amostrados, um foi classificado como um “hot spot”, atingindo valores que classificam a área como contaminada. Foi constatado que as barreiras argilosas que compõem os diques de contenção junto aos tanques de armazenamento são ineficientes, ou seja, os hidrocarbonetos estão percolando através dos diques de contenção.