115 resultados para Extração de Rodovias
Resumo:
Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.
Resumo:
Amostras de solo (latossolo vermelho destroférrico) coletadas em três pontos distintos, no município de Caibaté (Região das Missões, RS), na profundidade de aproximadamente 10 cm (da superfície do solo), em diferentes estações do ano e com diferentes tipos de manejo de solo (plantio convencional; plantio direto e cultivo mínimo), foram analisadas com o intuito de verificar a presença e a persistência de pesticidas no solo. Adicionalmente foi avaliada a relação entre a concentração dos produtos e tipo de manejo de solo aplicado. Este estudo é justificado por ser esta região de caráter tipicamente agrícola, com uso sistemático de pesticidas, tais como: monocrotofós, tiabendazole, triadimenol, lufenuron e imazetapir. Primeiramente foram estudadas as melhores condições de extração, considerando as técnicas mais comumente utilizadas, como o soxhlet, o banho e a sonda de ultra-som. As análises foram realizadas por Cromatografia Líquida de Alta Eficiência com Detector UV-visível (lufenuron e imazetapir) e Cromatografia Gasosa com Detector Seletivo de Massas (monocrotofós, tiabendazole e triadimenol), dependendo das características do analito em estudo. Os resultados mostram a presença de todos os pesticidas estudados, permitindo inferir que os mesmos persistem no solo. Além disto, os resultados indicam que não há uma uniformidade da extração dos analitos nas amostras dos solos, que foram extraídas com as técnicas de soxhlet, banho e sonda de ultra-som. Tais diferenças podem ser devido à heterogeneidade das amostras ou uma extração seletiva dos analitos. Quanto as influências do tipo de manejo das lavouras, não foi possível constatar a contribuição destas formas de plantio para a persistência de resíduos de pesticidas no solo.
Resumo:
A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.
Resumo:
Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.
Resumo:
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
Esta dissertação analisa a evolução da irregularidade longitudinal de pavimentos, devida à execução de recapes em concreto asfáltico. Consideraram-se nove trechos de rodovias, totalizando aproximadamente 265 km, com estruturas representativas da malha viária do Estado do Rio Grande do Sul. Registraram-se irregularidades antes e após o recape, e as reduções medidas foram comparadas com valores previstos pelos modelos linear e bilinear propostos pelo programa HDM-4 do Banco Mundial. As diferenças entre reduções previstas e medidas alertaram para a necessidade de ajuste dos modelos em alguns casos, levando em conta as estruturas dos pavimentos e as espessuras de recape analisadas. Propõe-se nesta dissertação valores para os parâmetros ajustáveis dos modelos, com cuja aplicação foram minimizadas as diferenças entre as reduções medidas e previstas. De forma complementar, desenvolveu-se um estudo de sensibilidade para determinar o efeito que as diferenças, por ventura existentes, entre espessuras projetadas e executadas de recape poderiam ter na redução da irregularidade. Também, por meio de uma análise estatística, obteve-se um modelo para previsão da redução da irregularidade em função da espessura do recape e da irregularidade anterior à execução do mesmo.
Resumo:
No presente trabalho foram caracterizadas as frações de substâncias húmicas resultantes do processo de extração alcalina da turfa, utilizando hidróxido de potássio, tendo em vista sua utilização na composição de um fertilizante organo-mineral. As substâncias húmicas foram fracionadas em humina, substância húmica (humato e fulvato de potássio), ácido fúlvico, ácido húmico e ácido húmico purificado, não sendo possível realizar a purificação do ácido fúlvico. Foram avaliadas a presença e distribuição do potássio nestas frações, verificando-se que após a extração, 78% do potássio ficou agregado na fração substância húmica e 22% na fração humina. Após a separação da fração substância húmica em ácido húmico e ácido fúlvico observou-se que 7% e 93% do potássio, respectivamente, ficaram distribuídos nessas frações. Comparando-se a diferença de teores de potássio entre as frações de ácido húmico purificado e não purificado, e a quantidade de potássio encontrado na água da diálise verificou-se a eficiência da utilização do processo de diálise para a purificação das substâncias húmicas, bem como a adequabilidade da metodologia para a análise de potássio. Também foram determinadas nas frações a análise elementar; razão E4/E6, a qual confirmou a maior condensação aromática da fração ácido húmico; presença de grupos funcionais na estrutura das substâncias húmicas, verificado qualitativamente através de espectroscopia no infravermelho, e quantitativamente grupos carboxílicos, OH-fenólico e carbonila, responsáveis pela acidez dessas substâncias. Os resultados obtidos quanto à presença de grupos funcionais e razão E4/E6, confirmaram a existência do ácido húmico no extrato da turfa, porém ficou evidenciada ausência de ácido fúlvico ou sua presença em pequena quantidade no material extraído.
Resumo:
Resumo não disponível.
Resumo:
Uma das tecnologias que mais avançou nas últimas décadas, como uma alternativa para as tradicionais técnicas de extração de produtos naturais, é a técnica de Extração com Fluidos Supercríticos. A extração com fluidos supercríticos destacase entre os processos industriais de extração pela qualidade dos produtos obtidos e por não causar danos ambientais quando usa dióxido de carbono (CO2) no estado supercrítico como solvente. Este trabalho teve como objetivo a realização de experimentos de extração de óleos essenciais com dióxido de carbono no estado supercrítico de folhas de duas variedades da árvore Canforeira (Cinnamomum camphor Ness & Eberm.) conhecidas como Hon-sho e Ho-sho, a fim de determinar as melhores condições operacionais de processo. Os óleos essenciais obtidos destas plantas têm importância econômica devido aos seus principais componentes: linalol e cânfora. Os melhores parâmetros de extração obtidos, quando se consideram os rendimentos de óleo essencial, foram os seguintes: vazão de CO2 = 2 mL/min, temperatura = 50°C, pressão = 90 bar e diâmetro de partícula = 0,1 mm. Outro objetivo foi a obtenção das curvas de extração: Rendimento de óleo essencial versus Tempo de extração, adequando, a partir dos dados experimentais, alguns modelos matemáticos encontrados na literatura para descrever o comportamento destas extrações. Dos modelos estudados o que melhor se adequou à extração de óleos essenciais de folhas foi o modelo proposto por Reverchon (1996), o qual proporcionou uma boa reprodutibilidade dos dados experimentais, mostrandose eficiente na representação de extração com fluidos supercríticos de óleos essenciais de Hon-sho e Ho-sho a partir de suas folhas.
Resumo:
Nesta dissertação é realizado o estudo e caracterização do comportamento de uma Unidade de Extração de Butadieno. O objetivo deste estudo é a proposição de estratégias de controle para esta unidade que, respeitando as restrições e características do processo, permitam que sejam alcançadas as seguintes metas operacionais: elevação da carga processável, aumento do tempo de campanha, aumento da corrente de produto e diminuição das perdas de butadieno ao longo do processo. O estudo e proposição das estratégias de controle é feito de modo sistemático, seguindo uma metodologia na qual o aspecto fundamental é o entendimento do processo e a compreensão das relações causa e efeito entre as variáveis manipuladas, controladas (ou medidas) e distúrbios. A presença de reciclos mássicos e energéticos somados aos efeitos da destilação extrativa faz com que, muitas vezes, essa relação contrarie o que é esperado pelo senso comum. As informações utilizadas na proposição e classificação das estruturas são oriundas de estudos em modelos do processo construídos em simuladores comerciais (ASPEN Plus v10.1 e ASPEN Dynamics). Ao longo desses estudos, as características estacionárias e dinâmicas do processo foram elucidadas, permitindo com que fosse proposta uma estrutura com potencialidade de atingir os objetivos referidos acima. Como resultados importantes podem ser citados: a importância do conjunto de parâmetros binários na modelagem termodinâmica do processo, a detecção do efeito "SnowBall", relacionado com a forma como os níveis dos equipamentos e vazões das correntes são controladas em sistemas com reciclo, e a determinação do comportamento da composição de vinil acetileno no topo da 2º Coluna de Destilação Extrativa (componente chave de separação nesta coluna) em relação a quantidade de solvente. Conforme a maneira como a corrente de alimentação da coluna Recuperadora de Butadieno é operada (temperatura ou taxa de resfriamento constante), quando a vazão de solvente na 2º Coluna de Destilação Extrativa é modificada, pode ocorrer uma inversão de ganho na concentração deste componente.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.