24 resultados para Extração semântica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A síntese de redes de trocadores de calor foi muito bem estudada pela comunidade científica nos últimos trinta anos, porém, o desenvolvimento de métodos e a melhoria dos já existentes sempre foram o foco principal da grande maioria dos autores. São poucos os trabalhos que aplicam qualquer uma das metodologias a situações reais e discorrem sobre as dificuldades encontradas - provavelmente porque as empresas não têm interesse em tornar público os resultados obtidos. Este trabalho aplica a metodologia do ponto de estrangulamento na nova fábrica de farelo branco do Parque Industrial de Esteio e, portanto, pode servir como um guia prático aos profissionais que desejem fazer o mesmo em outras plantas industriais. Esta dissertação sintetiza duas redes de trocadores de calor para a fábrica de farelo branco de Esteio, levando em consideração as condições econômicas e os custos de equipamento e de montagem no Brasil. A primeira rede estabelecida é baseada em aproveitamentos térmicos utilizados pelos fabricantes e pelas empresas que dominam a tecnologia de extração de óleos vegetais, já a segunda rede sintetizada utiliza a metodologia do ponto de estrangulamento. Os dois resultados obtidos são bastante viáveis economicamente, sendo que a rede sintetizada pelo ponto de estrangulamento é mais econômica. O Valor Presente Líquido é utilizado como critério de cálculo de viabilidade das duas redes. Foi demonstrado que para a realidade brasileira este critério é mais adequado que o Custo Total Anualizado. A flexibilidade da rede produzida pelo método do ponto de estrangulamento foi avaliada de maneira preliminar por simulação e tabelas de sensibilidade. O resultado obtido é robusto na posta em marcha e quando a planta é submetida a variações no extrator - situações que produzem distúrbios importantes e freqüentes. A aplicação da metodologia do ponto de estrangulamento na integração energética da fábrica de farelo branco confirmou a simplicidade do método e a sua forte interação com o engenheiro de processos. O Rio Grande do Sul tem muito a ganhar se esta metodologia for disseminada nas universidades e nas empresas que compõe o parque industrial do estado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estudar a composição química das folhas de erva-mate, sob diferentes condições agronômicas e técnicas de extração. Os métodos de extração usados foram maceração, ultra-som, extração com líquido pressurizado e extração com fluído supercrítico. Foram investigadas as variáveis que podem influenciar no processo de extração, tais como temperatura, pressão, polaridade do solvente, tempo de extração, massa de amostra, entre outras. A identificação dos compostos foi realizada por cromatografia gasosa acoplada à espectrometria de massas. Todos os métodos de extração utilizados mostraram-se eficientes para a obtenção dos extratos, com as diferenças sendo mais quantitativas do que qualitativas . Entre os métodos de extração que utilizam solventes orgânicos, a extração com líquido pressurizado mostrou-se mais eficiente, produzindo maior rendimento em massa de extrato e maior concentração de alguns dos compostos de interesse, com as vantagens de redução de solvente e tempo de extração. A composição química da erva-mate é influenciada pelas condições agronômicas de plantio, bem como pelas condições de extração de suas folhas. A melhor condição agronômica avaliada, ou seja, aquela que produziu maior quantidade de extrato, foi o cultivo das plantas a pleno sol, adubadas com nitrogênio e com idade de poda de 18 meses. A variável mais importante das técnicas de extração utilizadas foi a polaridade do solvente. Solventes de maior polaridade produziram maior rendimento em extrato. A análise cromatográfica dos extratos obtidos permitiu identificar cerca de 50 compostos qualitativamente e 6 quantitativamente, destacando-se a cafeína, fitol, ácido palmítico, ácido esteárico, esqualeno e vitamina E.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo estudar a composição química das flores de Hibiscus tiliaceus L usando diferentes técnicas de extração. Os métodos de extração usados foram maceração, Soxhlet, ultra-som, extração com fluido supercrítico e extração com líquido pressurizado. Foram investigadas as variáveis que podem influenciar no processo de extração tais como temperatura, pressão, polaridade do solvente, tempo de extração e massa de amostra, entre outras. A identificação dos compostos foi realizada por cromatografia gasosa acoplada com detector de espectrometria de massas. Os métodos de extração utilizados mostraram-se eficientes para a obtenção dos extratos, com algumas diferenças qualitativas. Quantitativamente, os compostos majoritários, em todas as técnicas de extração usadas, foram ácidos carboxílicos (C16 e C18), hidrocarbonetos com número ímpar de carbonos (C27, C29 e C31) e fitosteróis. Entre os métodos de extração que utilizam solventes orgânicos, a extração com líquido pressurizado apresentou maior rendimento em massa de extrato e maior concentração de alguns dos compostos presentes nas flores de Hibiscus tiliaceus L., com as vantagens de redução de solventes e do tempo de extração. A variável que se mostrou mais importante nos procedimentos de extração foi a polaridade do solvente. A composição química das flores Hibiscus tiliaceus L apresentou além dos compostos citados, álcoois, aldeídos e vitamina E. A determinação do potencial antioxidante da planta, utilizando o método por quimiluminescência, permitiu encontrar valores para TAR e TRAP superiores ao trolox, utilizado como padrão, indicando a presença de antioxidantes nos extratos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos de bancos de dados têm sido progressivamente estendidos a fim de melhor capturar necessidades específicas de aplicações. Bancos de dados versionados, por exemplo, provêm suporte a versões alternativas de objetos. Bancos de dados temporais, por sua vez, permitem armazenar todos os estados de uma aplicação, registrando sua evolução com o passar do tempo. Tais extensões sobre os modelos de dados se refletem nas respectivas linguagens de consulta, normalmente sob a forma de extensões a linguagens conhecidas, tais como SQL ou OQL. O modelo de banco de dados TVM (Temporal Versions Model ), definido sobre o modelo de banco de dados orientado a objetos, suporta simultaneamente versões alternativas e o registro de alterações de objetos ao longo do tempo. A linguagem de consulta TVQL (Temporal Versioned Query Language), definida a partir da linguagem de consulta SQL, permite recuperar informações do modelo de dados TVM. As construções introduzidas em TVQL têm como objetivo tornar simples a consulta do banco de dados em diversos pontos da linha temporal. Apesar das vantagens da utilização da linguagem TVQL para resgatar dados temporais do modelo TVM, existem algumas limitações importantes para seu aprimoramento. Uma delas é a alta complexidade do modelo TVM, proveniente da integração de conceitos variados como estados alternativos e rótulos temporais. Outro ponto é que, até o presente momento, não existe um interpretador para TVQL, impedindo uma experiência prática de programação de consultas. O objetivo principal deste trabalho é o desenvolvimento de uma especificação formal para a linguagem TVQL, tornando possível um estudo consistente de suas construções. Adicionalmente, uma especificação formal serve como documentação para futuras implementações de interpretadores. Neste trabalho foi desenvolvido um protótipo de avaliador de consultas e verificador de tipos para um núcleo funcional da linguagem TVQL, possibilitando também uma experimentação prática sobre os modelos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desenvolveu-se uma metodologia que dispensa a dissolução completa da amostra para determinar Hg em solos, sedimentos fluvial e marinho. O Hg é quantitativamente extraído do sedimento marinho usando-se HNO3 30% (v/v), ultra-som (120 s, 70 W) e granulometria ≤ 120 µm. Condições similares são eficientes para sedimento fluvial e solo, exceto o tempo de sonicação (180 s) e a adição de KCl 0,15% (m/v). As suspensões sonicadas são centrifugadas e o Hg é determinado no sobrenadante por FI-CV AAS. A validação da metodologia foi feita com CRMs: PACS-2, MESS-3 (NRCC); Buffalo River (NIST 8704), Montana Soil (NIST 2710) e RS-3 (não certificada). Os parâmetros de mérito do método são: massa característica de 25 pg; LD (3s) de 0,2 µg l–1; LQ (10s) de 0,012 µg g–1 (800 µl de solução obtida de 1 g de amostra em 20 ml de suspensão). Aplicou-se a metodologia à análise de amostras reais (solo, sedimentos fluvial e marinho), as quais também foram preparadas com digestão ácida (85 °C durante 3 h) em mistura oxidante (K2S2O8 1 a 2% (m/v) e HNO3 30% (v/v)). Concentrações concordantes foram obtidas. Utilizou-se calibração externa e, quando necessário, ajuste de matriz com KCl ou K2S2O8. Para investigar a extração de Hg orgânico utilizando ultra-som, adicionou-se MeHg aos CRMs. Aproximadamente 5% do MeHg adicionado transformam-se em Hg2+ pelo método proposto, enquanto que chega a 100% quando a amostra é digerida. Assim, propõe-se uma especiação química semiquantitativa entre Hg inorgânico e orgânico, pois o Hg orgânico pode ser obtido pela diferença entre Hg total (determinado pela digestão) e Hg inorgânico (determinado pelo método proposto).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A quantidade e diversidade dos dados disponíveis na Web aumentam constantemente. Os motores de busca disponíveis, que usam palavras-chave, fornecem ao usuário resultados inexatos. Atualmente, os sistemas convencionais de consultas utilizam técnicas de base sintática. As pesquisas voltam-se para o estudo de abordagens de consultas através de conceitos, permitindo a recuperação semântica. Neste sentido, algumas propostas envolvem a criação de metadados que seguem modelos de ontologias.O propósito deste trabalho é apresentar, avaliar e permitir uma melhor compreensão de um conjunto de conceitos, linguagens e ferramentas que são usadas na Web Semântica. Dentre elas, linguagens para construção de ontologias e linguagens para consultas; além das ferramentas associadas que objetivam o armazenamento, manutenção e anotação em ontologias. Para atingir este propósito, estas linguagens e ferramentas são aplicadas a um caso de dimensão e complexidade realistas, o Currículo Lattes. O trabalho apresenta um modelo de metadados com semântica para o Currículo Lattes. Este modelo é baseado numa ontologia especificada na linguagem DAML+OIL. Além disso, é apresentada uma avaliação dos métodos de instanciação desta ontologia. Uma avaliação dos métodos e/ou linguagens de consulta mais adequadas para a consulta semântica das informações também é apresentada.