15 resultados para fuzzy rule base models
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Esta dissertação trata de um estudo e o desenvolvimento de uma proposta de um ambiente de aprendizagem, para qualquer instituição de ensino superior, em três níveis de ensino da área de controle e automação: graduação, pós-graduação Lato Sensu e Stricto Sensu. Primeiramente, foram feitas visitas aos laboratórios em universidades e entrevistas com professores que ministram as disciplinas de controle e automação nos três níveis de aprendizagem. Foram constatadas virtudes e fragilidades metodológicas na questão da prática laboratorial em relação a aspectos industriais na área de engenharia elétrica de três instituições do Estado do Rio de Janeiro, sendo uma federal, uma estadual e outra privada. Posteriormente, foram analisados mecanismos e instrumentos necessários para interagir com modelos experimentais propostos nas entrevistas de maneira didática, para fins de constituir o ambiente de aprendizagem em automação, no qual foi eleito o LABVIEW como a interface mais favorável para aplicação de controles, mantendo uma analogia de cunho prático-industrial. A partir dessas análises foram sugeridos ainda elementos típicos de automação e três estudos de caso: um sistema térmico, um controle de velocidade de motores e um pêndulo invertido, por meio de controles simples e avançados como o controlador nebuloso, caracterizando-se pelo fortalecimento da atividade acadêmico-industrial
Resumo:
Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
A divulgação de informação sobre qualidade das águas para um público não especialista é fundamental para subsidiar ações políticas e institucionais de gestão dos ambientes aquáticos. Para tanto, índices de qualidade de água têm sido propostos por serem capazes de sintetizar em um único valor ou categoria a informação normalmente descrita a partir de um conjunto extenso de variáveis químicas, físicas e biológicas de qualidade de água. A maioria das metodologias propostas para o desenvolvimento de índices de qualidade de água é baseada no conhecimento de especialistas quanto à escolha das variáveis a serem utilizadas, a ponderação da importância relativa de cada variável e métodos utilizados para agregar os dados das variáveis em um único valor. Este trabalho propõe um novo índice de qualidade de água, baseado em lógica nebulosa e direcionado para o ambiente lótico. Esse índice, o IQAFAL, foi desenvolvido com a colaboração de especialistas com ampla e comprovada experiência na área de qualidade de água. A essência do desenvolvimento de um índice, usando-se lógica nebulosa, está na capacidade dessa metodologia representar, de forma mais eficiente e clara, os limites dos intervalos de variação dos parâmetros de qualidade de água para um conjunto de categorias subjetivas, quando esses limites não são bem definidos ou são imprecisos. O índice proposto neste trabalho foi desenvolvido com base no conhecimento dos especialistas em qualidade de água do Instituto Estadual do Ambiente - INEA e aplicado aos dados de qualidade de água do Rio Paraíba do Sul, obtidos pelo INEA, nos anos de 2002 a 2009. Os resultados do IQAFAL mostraram que esse índice foi capaz de sintetizar a qualidade da água deste trecho do Rio Paraíba do Sul correspondendo satisfatoriamente às avaliações de qualidade de água descritas nos relatórios disponíveis. Verificou-se também que com essa metodologia foi possível evitar que a influência de uma variável em condições críticas fosse atenuada pela influência das outras variáveis em condições favoráveis produzindo um resultado indesejável no índice final.
Resumo:
A Bacia de São José de Itaboraí está localizada no Município de Itaboraí, no Estado do Rio de Janeiro. Ela foi descoberta em 1928, pelo Engenheiro Carlos Euler, que após analisar um suposto caulim encontrado na Fazenda São José pelo seu então proprietário, Sr. Ernesto Coube, verificou que se tratava de calcário. Os Professores Rui Lima e Silva e Othon H. Leonardos, enviados ao local para estudos, encontraram uma grande quantidade de fósseis de gastrópodes continentais, despertando o interesse científico pela região. Os estudos preliminares de campo e análises químicas evidenciaram boas perspectivas de exploração do calcário para a fabricação de cimento do tipo Portland. Por mais de 50 anos, a Companhia Nacional de Cimento Portland Mauá (CNCPM) explorou a pedreira. Desde sua descoberta, a Bacia de São José, paralelamente às atividades de mineração, foi objeto de pesquisas científicas realizadas por geólogos, paleontólogos e arqueólogos. No início da década de 80, a Cia. de Cimento Mauá decidiu abandonar a área em função do esgotamento econômico da reserva de minério. Com a retirada das bombas que impediam a inundação da pedreira, formou-se uma lagoa que passou a impedir o livre acesso aos afloramentos. Desde então as pesquisas sobre a Bacia ficaram concentradas aos materiais coletados no período de exploração de calcário. Material esse distribuído no Museu Nacional (MN), Departamento Nacional da Produção Mineral (DNPM), Instituto de Geociências da UFRJ, entre outros. Em 1990, a área que pertencia a CNCPM foi desapropriada por pressão da comunidade científica. A mesma passou a pertencer ao Município de Itaboraí, que criou o Parque Paleontológico de São José de Itaboraí, por meio da Lei 1.346, de 12 de dezembro de 1995. O objetivo desse trabalho foi gerar novos dados através do método geofísico conhecido como magnetometria. Para isso foram realizados levantamentos de campo utilizando um magnetômetro portátil e GPS, foram analisados e corrigidos dados utilizando softwares específicos, elaborados modelos e criados perfis a partir de descrições de testemunhos de sondagem. Os resultados obtidos visam possibilitar uma nova interpretação da geologia e da estratigrafia da bacia, dando condições para que se possa ter uma atualização dos conhecimentos relacionados à região, após quase meio século de atividade mineradora.
Resumo:
A influência humana sobre as unidades de conservação (UCs) deve ser considerada a partir de modelos mais amplos, entendendo que há influência dos processos sociais nas mesmas e que essa é uma dimensão a ser discutida no âmbito das práticas de proteção da natureza. É importante que seja levado em consideração na criação, na ampliação e na gestão de uma UC a participação dos atores envolvidos direta e indiretamente, já que o quadro mundial indica ser uma tendência a criação de novas áreas e o envolvimento da sociedade neste processo. Ante esta realidade objetivou-se, nesta tese, contribuir para o fortalecimento da gestão participativa em UCs no Cone Sul, aqui definido como o conjunto de quatro países: Brasil, Argentina, Uruguai e Chile e tendo como estudo de caso quatro áreas protegidas: Parque Nacional do Itatiaia - Brasil, Parque Nacional Lago Puelo - Argentina, Santuário da Natureza Parque Pumalín - Chile e Paisagem Protegida Lagoa de Rocha Uruguai. Tendo por base os instrumentos de gestão em unidades de conservação no Brasil: plano de manejo, zona de amortecimento, educação ambiental e conselho gestor e sendo os mesmos determinados por normas legais (Leis, Decretos, Resoluções, Instruções Normativas) tais normas foram analisadas e comparadas com a finalidade de averiguar se nos países estudados estes instrumentos eram determinados legalmente, da mesma forma como são no Brasil, bem como se a vertente participativa estava presente nesta determinação. Após verificou-se se na Argentina, no Uruguai e no Chile havia a aplicação dos mesmos instrumentos de gestão em áreas protegidas que no Brasil; bem como foi averiguada a situação dos mesmos nos estudos de caso tendo por base a vertente participativa. Depois houve a contextualização e apresentação das dificuldades na gestão e das pressões sofridas pelas áreas protegidas buscando trazer à tona a realidade em que estão inseridas e das quais compartilham. Para tanto se utilizou de levantamentos bibliográficos, documentais, entrevistas semi-estruturadas com pessoas que tiveram experiências práticas com o problema pesquisado e os estudos de caso. Constatou-se que a determinação legal de instrumentos que propiciem a participação não é, via de regra, essencial para efetivar a gestão participativa da UC, mas a existência dos mesmos sim. Verificou-se que um bom resultado está atrelado às qualidades técnicas e subjetivas da gestão e também dos gestores, que podem ajudar e muito na gestão participativa, juntamente com uma parceria bem fortalecida.
Resumo:
Esta tese é composta por três artigos que veiculam os resultados da realização e análise de uma intervenção de base escolar com o objetivo de reduzir o ganho de peso excessivo em adolescentes. O ensaio, denominado PAPPAS (Pais, Alunos e Professores Pela Alimentação Saudável), foi conduzido com alunos do 5 ano de vinte escolas públicas do município de Duque de Caxias, Rio de Janeiro. As atividades desenvolvidas durante o ano letivo de 2010 desencorajaram o consumo de bebidas adoçadas e biscoitos e estimularam o consumo de feijão e frutas. Pais/ responsáveis e professores receberam informação e material de divulgação sobre os mesmos temas abordados em sala de aula. O consumo de alimentos foi avaliado por meio de um questionário de frequência alimentar aplicado ao início e ao final do estudo. A aferição do peso e da estatura se deu em três momentos: na linha de base, na metade do ano letivo e ao fim do estudo. Para as análises longitudinais, empregou-se modelos generalizados lineares mistos, que levam em conta tanto os dados faltantes quanto o efeito de conglomerado. No primeiro artigo é apresentado o efeito da intervenção no Índice de Massa Corporal (IMC) dos estudantes. Análise por intenção de tratamento revelou que a alteração no IMC dos adolescentes ao longo do tempo não foi estatisticamente diferente entre os grupos intervenção e controle. Observou-se redução estatisticamente significativa no consumo de bebidas adoçadas e biscoitos e aumento no consumo de frutas nos participantes do grupo intervenção quando comparados aos do grupo controle. Pôde-se concluir que estratégias baseadas exclusivamente na qualidade da dieta podem não levar à alterações no peso corporal de adolescentes. No segundo artigo verificou-se a influência do estágio de prontidão para modificação dos hábitos alimentares dos adolescentes na alteração do consumo de refrigerantes, biscoitos e frutas. Observou-se maior alteração no consumo dentre os participantes do grupo intervenção que se encontravam nos estágios de ação na linha de base (relataram já ter alterado seus hábitos alimentares), sugerindo que essa estratégia pode auxiliar em estudos de intervenção visando à alteração do comportamento. O terceiro artigo revisou evidências do ajuste inadequado para características da linha de base, em análises de ensaios randomizados de base escolar que objetivaram alteração no estado nutricional de adolescentes. Foram avaliados 37 estudos e 35% apresentaram desbalanceamento estatisticamente significativo para o IMC na linha de base. Concluiu-se que o ajuste para o IMC na linha de base é frequente em ensaios comunitários randomizados, porém, esta prática força um balanço, que pode levar à resultados espúrios sobre o efeito do tratamento. Os resultados dos artigos 2 e 3 permitem explicar, ao menos em parte, as inconsistências nos resultados de estudos de intervenções voltadas para alteração de hábitos alimentares em escolares.
Resumo:
Os antipsicóticos são drogas utilizadas no tratamento de muitos transtornos psiquiátricos, sendo classificados em dois grupos: típicos e atípicos. Os típicos formam o grupo de drogas que bloqueiam especialmente os receptores de dopamina e, por isto, causam efeitos colaterais característicos, que se manifestam através de sintomas extrapiramidais e podem terminar em discinesia tardia. Os atípicos apresentam eficácia antipsicótica similar à dos antipsicóticos típicos, mas produzem menos efeitos colaterais extrapiramidais e não causam discinesia tardia. Os antipsicóticos se ligam às proteínas plasmáticas, principalmente a albumina, a qual representa cerca de 60% do total das proteínas no soro humano. Neste trabalho estudamos os processos de interação de duas drogas antipsicóticas atípicas, risperidona e sulpirida, com as albuminas séricas humana (HSA) e bovina (BSA), através da técnica de supressão da fluorescência intrínseca do triptofano. A partir dos espectros de fluorescência, a análise dos dados foi feita obtendo-se os gráficos e as constantes de Stern-Volmer. A análise da supressão da fluorescência foi feita a partir da média aritmética dos dados oriundos dos experimentos realizados em cada condição adotada. Como a molécula da sulpirida é fluorescente desenvolvemos uma modelagem matemática do processo de interação, que nos permitiu então obter os dados referentes à supressão da fluorescência da proteína. Os resultados mostraram que a risperidona e a sulpirida suprimem a fluorescência de ambas albuminas por um processo de quenching estático, formando complexos droga-albumina. A risperidona tem uma afinidade com a HSA cerca de 6,5 vezes maior do que a sulpirida, a 37 oC. As constantes de associação calculadas para a interação risperidona-HSA, através da Teoria de Stern-Volmer, foram 1,43 ( 0,05) x 105 M-1, a 37 C, e 2,56 ( 0,09) x 105 M-1, a 25 C1; e para a sulpirida, 2,20 ( 0,08) x 104 M-1, a 37 C, e 5,46 ( 0,20) x 104 M-1, a 25 C. Como a taxa de quenching da BSA foi maior do que a da HSA, sugerimos que o sítio primário para a risperidona nas albuminas esteja localizado mais próximo ao domínio do triptofano 134 da BSA do que do domínio do triptofano 212 da HSA. O mesmo sugerimos com relação ao sítio para a sulpirida a 37 C.
Resumo:
Os métodos potenciais são conhecidos como uma ferramenta útil para estudos regionais. Na Ibéria Ocidental, a gravimetria e a magnetometria podem ser utilizadas para auxiliar no entendimento de algumas questões sobre a estruturação tectônica offshore. Nesta região, tanto as estruturas geradas pela quebra continental, quanto às herdadas do embasamento variscano, tem uma importante contribuição para a resposta geofísica regional observada com estes métodos. Este trabalho tem como objetivo correlacionar as feições geofísicas observadas com alguns modelos geológicos do arcabouço tectônico da Ibéria Ocidental já publicados na literatura. Mapas filtrados foram usados para auxiliar no reconhecimento de diferentes assinaturas geofísicas, os quais foram calculados a partir dos mapas de gravidade Bouguer e do campo magnético total tais como o gradiente horizontal total, derivada tilt, derivada vertical, e integral vertical. O domínio crustal continental foi definido a partir da interpretação dos dados gravimétricos, utilizando gradiente de gravidade horizontal total da Anomalia Bouguer. Os dados magnéticos, originais e filtrados, foram utilizados para identificar mais três domínios regionais offshore, que sugerem a existência de três tipos de crosta não-siálica. Dois deles são propostos como domínios de transição. A região da crosta de transição mais próxima do continente tem uma fraca resposta regional magnética, e a porção mais distal é um domínio de anomalia de alta amplitude, semelhante à resposta magnética oceânica. O limite crustal oceânico não pôde ser confirmado, mas um terceiro domínio offshore, a oeste da isócrona C34, poderia ser considerado como crosta oceânica, devido ao padrão magnético que apresenta. Alguns lineamentos do embasamento foram indicados na crosta continental offshore. As feições gravimétricas e magnéticas interpretadas coincidem, em termos de direção e posição, com zonas de sutura variscanas, mapeados em terra. Assim, esses contatos podem corresponder à continuação offshore destas feições paleozoicas, como o contato entre as zonas de Ossa Morena-Zona Centro-Ibérica. Nesta interpretação, sugere-se que a crosta continental offshore pode ser composta por unidades do Sudoeste da Península Ibérica. Isto permite considerar que a Falha de Porto-Tomar pertence a uma faixa de deformação strike-slip, onde parte das bacias mesozoicas da margem continental está localizada.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
Trata do indulto, modalidade coletiva da graça, procurando estabelecer seus limites e finalidades no âmbito do Estado moderno. Após a delimitação do tema, distinguindo-se a graça das demais modalidades de clemência estatal, e justificação das escolhas terminológicas, passa-se à evolução histórica do instituto e, em seguida, à sucinta exposição sobre a configuração atual nos ordenamentos estrangeiros. Identifica-se, não obstante a concretização da graça na maioria das Constituições modernas, uma tendência de restrição do âmbito de aplicação do instituto, tanto por parte da doutrina quanto pela jurisprudência e produção legislativa. As restrições são impostas com base na suposta necessidade de adequação da graça, cuja origem remete às prerrogativas monárquicas típicas do Estado absolutista, aos princípios fundamentais do Estado Democrático de Direito, especialmente os princípios da separação de poderes e da igualdade. Adentrando o núcleo do trabalho, procura-se estabelecer a relação entre indulto e os princípios do Estado Democrático de Direito, de forma que sejam identificados limites ao exercício da atribuição, com fulcro no texto constitucional. Afere-se, assim, a legitimidade da restrição do indulto a hipóteses caracterizadas pela excepcionalidade e irrepetibilidade, baseada em alegada relação de contradição entre a atribuição de indultar do Poder Executivo e o princípio da separação de poderes, o princípio da igualdade e os eventos regulares do mecanismo sancionatório. Delimitadas as possibilidades de exercício legítimo da atribuição, busca-se, então, fixar os parâmetros que devem pautar o conteúdo dos atos de indulto, com base nas teorias da pena. Adota-se, para tanto, a teoria preventiva positiva, procurando-se identificar hipóteses em que a execução da pena aplicada não contribuiria para a realização de suas finalidades, para elaborar, a partir disso, casos de cabimento do exercício do indulto.
Resumo:
Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.
Resumo:
Esta dissertação testa e compara dois tipos de modelagem para previsão de uma mesma série temporal. Foi observada uma série temporal de distribuição de energia elétrica e, como estudo de caso, optou-se pela região metropolitana do Estado da Bahia. Foram testadas as combinações de três variáveis exógenas em cada modelo: a quantidade de clientes ligados na rede de distribuição de energia elétrica, a temperatura ambiente e a precipitação de chuvas. O modelo linear de previsão de séries temporais utilizado foi um SARIMAX. A modelagem de inteligência computacional utilizada para a previsão da série temporal foi um sistema de Inferência Fuzzy. Na busca de um melhor desempenho, foram feitos testes de quais variáveis exógenas melhor influenciam no comportamento da energia distribuída em cada modelo. Segundo a avaliação dos testes, o sistema Fuzzy de previsão foi o que obteve o menor erro. Porém dentre os menores erros, os resultados dos testes também indicaram diferentes variáveis exógenas para cada modelo de previsão.
Resumo:
No presente trabalho, foram processados compósitos de polietileno de alta densidade (PEAD) com hidroxiapatita deficiente de cálcio (HA), com o objetivo de obter materiais com melhores propriedades mecânicas e bioatividade. A adição da HA deficiente de cálcio proporcionou um aumento no módulo de elasticidade (maior rigidez), menor resistência ao impacto e decréscimo do grau de cristalinidade do PEAD, proporcionando uma maior bioatividade ao material. A análise térmica exploratória (sistema não isotérmico) foi realizada por meio da técnica de calorimetria exploratória diferencial (DSC) e foram avaliados os teores de fosfato de cálcio e a velocidade de rotação da rosca no processamento dos materiais. No estudo da cristalização não-isotérmica observou-se uma diminuição da temperatura de cristalização com o aumento da taxa de resfriamento para todos os materiais sintetizados. A energia de ativação (Ea) da cristalização dos materiais foi avaliada por meio dos métodos Kissinger e Ozawa. A amostra com 5% de HA deficiente de cálcio e velocidade de processamento de 200 rpm foi a que apresentou menor valor de energia de ativação, 262 kJ/mol, menor desvio da linearidade e a que mais se assemelhou à matriz de PEAD sem HA. O teor de hidroxiapatita deficiente de cálcio não favorece o processo de cristalização devido à alta energia de ativação determinada pelos métodos descritos. Provavelmente, a velocidade de rotação, favorece a dispersão da carga na matriz de PEAD, dificultando o processo de cristalização. Na aplicação do método de Osawa-Avrami, os coeficientes de correlação indicaram perda na correlação linear. Estas perdas podem estar associadas a uma pequena percentagem de cristalização secundária e/ou à escolha das temperaturas utilizadas para determinar a velocidade de cristalização. Na determinação dos parâmetros pelo método de Mo, as menores percentagens de cristalização apresentaram um grande desvio da linearidade, com coeficiente de correlação bem menor que 1 e com o aumento da percentagem de cristalização, o desvio da linearidade diminui, ficando próximo de 1. Os resultados obtidos mostraram que o modelo de Mo e de Osawa-Avrami não foram capazes de definir o comportamento cinético dos materiais produzidos neste trabalho.