18 resultados para inferência bayesiana

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo visa mostrar as relações existentes entre as fases do estresse apresentadas por gerentes de diferentes segmentos, e a cultura organizacional e o modo de gestão, considerando-os como componentes do ambiente organizacional. Examina o conceito do estresse, a psicodinâmica e as diferentes formas de lidar com o estresse, apresenta diferentes tipologias de cultura organizacional de diversos autores, conceitos e base histórica da cultura organizacional e focaliza o modo de gestão do ponto de vista político e de procedimentos. Para tanto, a metodologia adotada inclui uma pesquisa de campo junto a 289 gerentes de oito empresas. O tratamento estatístico envolveu técnicas e métodos descritivos de análise fatorial de correspondência e análise de resíduo , mediante rotinas disponíveis no programa Statistical Package for Social Science (SPSS), processadas no Centro de Estudos e Pesquisas em Administração (CEPA) e na Inferência, empresa de consultoria em estatística; utilizou métodos qualitativos complementares através dos instrumentos analíticos de Hall (1990), dados de entrevistas e observações. Comparou resultados da análise fatorial de correspondência com os resultados da análise de resíduo e teste do Qui-quadrado. Finalmente, o trabalho apresenta sugestões de medidas elaboradas como contribuição à gestão de pessoal no que se refere ao interrelacionamento no trabalho e condução dos processos de mudança organizacional, com o objetivo de melhorar a qualidade de vida no ambiente de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o artigo descreve o programa de rastreamento de câncer de colo de útero em uma população de mulheres de 20-59 anos, usuárias de um serviço de Atenção Primária à Saúde (APS), em Porto Alegre. Esta coorte histórica de 5 anos foi constituída usando os registros de família de três unidades do Serviço de Saúde Comunitária do Grupo Hospitalar Conceição, em Porto Alegre, Brasil. O estudo caracteriza a associação entre a detecção de hipertensão, diabetes, depressão e ansiedade nestas mulheres, e as freqüências de sua captação e adesão ao programa de rastreamento do câncer de colo de útero. As mulheres com 50 anos ou mais tiveram um risco relativo de 1,70 (IC95%=1,40-2,06) de não serem captadas pelo programa de rastreamento, quando comparadas com as mais jovens. Os resultados sugerem a necessidade de intensificar o rastreamento de rotina às mulheres de 50 anos ou mais. A captação e a adesão de usuárias poderiam ser usadas como indicadores da qualidade do processo de trabalho. São necessários novos estudos para o estabelecimento de inferência causal e para definir a captação e a adesão como indicadores da qualidade do processo de trabalho em Atenção Primária à Saúde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Perícia é a capacidade de aplicar habilidades intelectuais para resolver problemas em domínios estratégicos, com um desempenho e qualidade de solução superior à média dos profissionais da área. Ampliar a compreensão do que é a perícia fornece suporte e justificativas para a proposição de novos recursos para aquisição e modelagem de conhecimento na área da Engenharia de Conhecimento. Esta tese apresenta os resultados de um estudo sobre a perícia em Geologia, em especial numa aplicação em Petrografia Sedimentar. A tarefa em questão é especialmente significativa porque, ao contrário das tarefas típicas, cujo estudo tem levado ao desenvolvimento de diversas metodologias de aquisição de conhecimento, essa tarefa aplica primariamente raciocínio baseado na análise de imagens e, secundariamente, busca e métodos analíticos para interpretar os objetos da perícia (no caso, rochas-reservatório de petróleo). O objetivo deste projeto de tese é a identificação dos recursos cognitivos aplicados por especialistas na solução de problemas, que são essencialmente de reconhecimento visual e a representação do que é reconhecido. A interpretação dessas habilidades fornece fundamentos para a proposta de novos recursos para aquisição e modelagem, e posterior desenvolvimento de sistemas especialistas para interpretação de rochas. Também contribuem para o tratamento da perícia em outros campos que possuam o mesmo caráter de reconhecimento visual tal como a interpretação de rochas. O estudo foi desenvolvido em duas fases. Na primeira, o conhecimento foi eliciado de um especialista em Petrografia Sedimentar e estruturado, utilizando técnicas tradicionais de aquisição de conhecimento. A segunda fase envolveu o desenvolvimento de um experimento com dezenove geólogos com diferentes níveis de perícia, para identificar os tipos de conhecimentos que suportam a perícia e quais os métodos de solução que são aplicados nos altos níveis da perícia. O estudo das habilidades cognitivas demonstrou que especialistas em Petrografia sedimentar desenvolvem uma grande variedade de formas mentais e hierarquias que diferem daquelas normalmente descritas na literatura da área. Especialistas retém ainda um grande conjunto de abstrações simbólicas de imagens, denominados aqui de pacotes visuais. Os pacotes visuais possuem importante papel na indexação das estruturas mentais e na condução do processo de inferência. As representações são tipicamente associadas com seus próprios métodos de solução de problemas adequados à complexidade da tarefa de caracterização de reservatórios. A aplicação desses recursos faz parte do conjunto de conhecimentos tácitos dos especialistas. A associação de grafos de conhecimento e a análise de casos mostrou-se, neste trabalho, um método adequado para a externalizar e adquirir o conhecimento declarativo e as relações causais, as quais não são evidenciadas com as técnicas de aquisição de conhecimento tradicionais. Métodos de solução de problemas, por sua vez, foram eliciados com o auxílio das bibliotecas de solução de problemas disponíveis na literatura e grafos de conhecimento. O modelo de representação, aqui proposto, expressa o conhecimento em dois níveis: o nível da externalização, compatível com o conhecimento de um intermediário em Petrografia Sedimentar, e o nível da inferência, que modela o conhecimento tácito do especialista. Esta tese apresenta de forma inédita o conceito de pacote visual como uma primitiva de representação e um conjunto de métodos de solução de problemas adequados à interpretação de rochas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo avalia a aplicação em ambiente de banhados, especificamente no Banhado do Taim, de metodologia existente de investigação da continuidade espacial de variáveis através da análise preliminar de variogramas experimentais de semivariância. A variável utilizada foi a Diferença Normalizada das bandas do infravermelho próximo e vermelho (Landsat TM) - NDVI, em 10 datas, de 1987 a 2003. A verificação de dependência espacial neste estudo teve por fim definir o melhor delineamento de amostragem, para caracterizar parâmetros de populações, de forma que os dados não sejam autocorrelacionados e possibilitem o tratamento estatístico adequado para a inferência. As áreas escolhidas para a análise foram a região central e sul do banhado. Os resultados mostraram a existência de gradientes e padrões em todas as regiões estudadas. Os alcances dos patamares, quando ocorreram, variaram de 450 a 1600m. Este estudo evidenciou que a variografia por análise de semivariância realiza um papel importante ao quantificar e identificar patamares de variância, o alcance em que eles ocorrem quando ocorrem, assim como também ao identificar as direções de anisotropia do processo. Conclui, neste sentido que um delineamento amostral que considere a autocorrelação dos dados no espaço pode ser efetivamente melhorado pela variografia preliminar da variável de interesse ou de variável bem correlacionada com esta como no caso do NDVI com aspectos de vegetação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um estudo envolvendo populações asiáticas e ameríndias foi realizado para avaliar os relacionamentos históricos e genéticos entre eles através de polimorfismos moleculares autossômicos. Um deles é uma seqüência polimórfica localizada na região 16p13.3. Um total de 1558 pares de base foram investigados em 98 indivíduos da Mongólia, Beringia e das Américas. Estes resultados foram comparados com aqueles obtidos em uma prévia investigação por outros autores. Cinqüenta e cinco sítios polimórficos foram classificados em trinta e cinco haplótipos. Uma árvore de haplótipos (median joining network) baseada neles, revelou dois grupos distintos, um mais compacto com haplótipos derivados das cinco categorias etno-geográficas estabelecidas; enquanto o outro, com haplótipos mais divergentes, era composto principalmente por africanos e ameríndios. Quase todos os parâmetro de neutralidade apresentaram valores negativos. Simulações realizadas para interpretar estes resultados foram executadas com dois conjuntos de dados: um composto exclusivamente de ameríndios e outro com populações mundiais. O primeiro, sugerindo crescimento e declínio populacional, rejeitou os cenários com crescimento abaixo de cinco vezes e anteriores a ~18 mil anos atrás; enquanto que o segundo, sugerindo crescimento populacional, não rejeitou cenários nos quais a magnitude de crescimento foi maior que dez vezes e anteriores a ~21 mil anos atrás, provavelmente refletindo um crescimento antigo fora da África. Doze polimorfismos de inserções Alu foram também estudados em 170 indivíduos pertencentes a 7 grupos nativos sul-americanos, 60 a dois siberianos, e 91 a dois mongóis. Estes dados foram integrados com aqueles de 488 indivíduos associados a outros 13 grupos, para determinar as relações entre asiáticos, Beringianos e ameríndios. Nestes três grupos, foi observado um decréscimo da heterozigosidade e da quantidade de fluxo gênico, na mesma ordem indicada acima. A solidez destas subdivisões foi demonstrada nas distâncias genéticas, nas análises de componentes principais, de variância molecular, no teste de Mantel, e numa abordagem Bayesiana de atribuição genética. Entretanto, não pode ser observada uma clara estrutura entre os nativos Sul-americanos, indicando a importância dos fatores dispersivos (deriva genética, efeito fundador) na sua diferenciação. A congruência dos resultados obtidos com os dois marcadores são: (a) não foi confirmada uma história de declínio populacional forte associado com a chegada do homem pré-histórico nas Américas; (b) os ameríndios não apresentaram estruturação clara dentro do continente e não se diferenciaram dos asiáticos do nordeste da Ásia (beringianos); e (c) o povo Aché foi o grupo mais divergente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work proposes an animated pedagogical agent that has the role of providing emotional support to the student: motivating and encouraging him, making him believe in his self-ability, and promoting a positive mood in him, which fosters learning. This careful support of the agent, its affective tactics, is expressed through emotional behaviour and encouragement messages of the lifelike character. Due to human social tendency of anthropomorphising software, we believe that a software agent can accomplish this affective role. In order to choose the adequate affective tactics, the agent should also know the student’s emotions. The proposed agent recognises the student’s emotions: joy/distress, satisfaction/disappointment, anger/gratitude, and shame, from the student’s observable behaviour, i. e. his actions in the interface of the educational system. The inference of emotions is psychologically grounded on the cognitive theory of emotions. More specifically, we use the OCC model which is based on the cognitive approach of emotion and can be computationally implemented. Due to the dynamic nature of the student’s affective information, we adopted a BDI approach to implement the affective user model and the affective diagnosis. Besides, in our work we profit from the reasoning capacity of the BDI approach in order for the agent to deduce the student’s appraisal, which allows it to infer the student’s emotions. As a case study, the proposed agent is implemented as the Mediating Agent of MACES: an educational collaborative environment modelled as a multi-agent system and pedagogically based on the sociocultural theory of Vygotsky.