1000 resultados para Sistema de regras
Resumo:
A Bacia do Alto do Descoberto é importante fonte de água para o Distrito Federal. Essa bacia tem apresentado ao longo dos anos expansão agrícola e urbana em detrimento das áreas de vegetação natural. A ocupação inadequada, assim como a falta de planejamento do uso e ocupação do solo, pode levar a alterações do escoamento superficial e, consequentemente, do ciclo hidrológico, a feições erosivas, à contaminação dos mananciais superficiais e subterrâneos e ao desequilíbrio do ecossistema da região. Portanto, o monitoramento e a análise do uso e ocupação do solo são imprescindíveis na prevenção desses impactos e na manutenção dos mananciais. Dessa forma, este estudo tem como objetivo o mapeamento e a análise comparativa do uso e ocupação do solo da Bacia do Alto do Descoberto entre os anos 1994 e 2011. As classificações de uso e ocupação do solo foram elaboradas utilizando um classificador orientado ao objeto baseado em regras e lógica nebulosa, permitindo uma análise dos avanços do uso do solo e a perda da cobertura vegetal da bacia. O sistema de classificação utilizado foi considerado bem-sucedido, com índice de exatidão temática (Kappa) de 0,64. Apesar de ainda haver algumas confusões temáticas no processo de classificação, as análises comparativas entre as classes temáticas dos mapas dos referidos anos evidenciaram a forte expansão agrícola da região em aproximadamente 11% da área da bacia, bem como uma perda de vegetação natural.
Resumo:
Entender o comportamento e suas pequenas variações decorrentes das mudanças do ambiente térmico e desenvolver modelos que simulem o bem-estar a partir de respostas das aves ao ambiente constituem o primeiro passo para a criação de um sistema de monitoramento digital de aves em galpões de produção. Neste trabalho, foi desenvolvido um sistema de suporte à decisão com base na teoria dos conjuntos fuzzy para a estimativa do bem-estar de matrizes pesadas em função de frequências e duração dos comportamentos expressos pelas aves. O desenvolvimento do sistema passou por cinco etapas distintas: 1) organização dos dados experimentais; 2) apresentação dos vídeos em entrevista com "especialista"; 3) criação das funções de pertinência com base nas entrevistas e na revisão da literatura; 4) simulação de frequências de ocorrências e tempos médios de expressão dos comportamentos classificados como indicadores de bem-estar utilizando equações de regressão obtidas na literatura, e 5) construção das regras, simulação e validação do sistema. O sistema fuzzy desenvolvido estimou satisfatoriamente o bem-estar de matrizes pesadas, tendo na sua última versão, com maior número de regras, acertado 77,8% dos dados experimentais, comparados com as respostas esperadas por um especialista. O sistema pode ser utilizado como instrumento matemático-computacional para apoiar decisões em galpões de produção de matrizes pesadas.
Resumo:
Um sistema de inferência fuzzy foi desenvolvido baseado em dados da literatura para predição do consumo de ração, ganho de peso e conversão alimentar de frangos de corte com idade variando de 1 a 21, dias submetidos a diferentes condições térmicas. O sistema fuzzy foi estruturado com base em três variáveis de entrada: idade das aves (semanas), temperatura (°C) e umidade relativa (%) ambientes, sendo que as variáveis de saída consideradas foram: ganho de peso, consumo de ração e conversão alimentar. A inferência foi realizada por meio do método de Mamdani, que consistiu na elaboração de 45 regras e a defuzzificação por meio do método do Centro de Gravidade. Com base nos resultados, ao se compararem os dados da literatura com os obtidos pelo sistema fuzzy proposto, verificou-se desempenho satisfatório na predição das variáveis respostas, com R² da ordem de 0,995; 0,998 e 0,976, respectivamente. O ganho de peso predito pela lógica fuzzy foi validado com dados experimentais de campo, no qual se obteve R² = 0,975, apresentando grande potencial de uso em sistemas de climatização automatizado.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
O tema central deste trabalho é o Planejamento, Programação e Controle da Produção na indústria, com o auxílio de uma ferramenta computacional, do tipo Finite Capacity Schedule (FCS). No Brasil, essa categoria de software é denominada, genericamente, por Sistemas de Planejamento Fino de Produção ou de Capacidade Finita. Alinhado com as tendências mundiais e a vantagem de menores investimentos em hardware, o sistema escolhido é compatível com a operação em microcomputadores. Na primeira parte do trabalho, o assunto é tratado de forma geral, quando se pretende caraterizar amplamente o problema da programação da produção, as dificuldades na sua execução, as soluções existentes e suas limitações. A segunda parte do trabalho discute, detalhadamente, os métodos tradicionais de planejamento de materiais e capacidade. A revisão bibliográfica se encerra com uma apresentação dos sistemas FCS e sua classificação. A terceira parte trata da descrição, ensaios e avaliação da programação gerada por um software de Planejamento Fino de Produção determinístico, baseado na lógica de simulação computacional com regras de decisão. Embora a avaliação esteja limitada ao software utilizado, a análise ainda vai procurar identificar as diferenças fundamentais entre os resultados da programação de Capacidade Finita e a convencional, representada pelos sistemas da categoria MRPII ou Planejamento dos Recursos de Manufatura (Manufacturing Resources Planning). As lógicas dos sistemas MRPII e de Capacidade Finita são discutidas na revisão bibliográfica, enquanto que, para o software empregado no trabalho, ainda há um capítulo específico tratando da sua descrição, fundamentos, software house, hardware necessário e outras informações relevantes. Os ensaios serão implementados com o objetivo de analisar o sistema FCS como ferramenta de planejamento e de programação de produção. No caso, uma fração de um processo produtivo será modelada no sistema, através do qual serão gerados planos de produção que serão confrontados com a programação usual e com o comportamento real dos recursos envolvidos. Os ensaios serão realizados numa das unidades pertencentes a uma empresa transnacional de grande porte, que atua no ramo de pneumáticos. Por último, são apresentadas as conclusões gerais, recomendações na aplicação do sistema estudado e sugestões para futuras pesquisas relacionadas com o assunto.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
O Sistema Hidrológico do Taim, que inclui o Banhado do Taim, insere-se em uma região de áreas alagáveis contínuas caracterizadas por banhados e lagoas de água doce, em uma dinâmica de baixo relevo entre o Oceano Atlântico e a Lagoa Mirim, litoral Sul do Rio Grande do Sul. Este sistema encontra-se associado a uma vasta área de monocultura de arroz irrigado. As alterações antropogênicas ou naturais dos níveis d’água no sistema podem afetar a estrutura das comunidades planctônicas associadas às lagoas e à vegetação macrofítica. O objetivo principal do presente trabalho foi caracterizar a estrutura da comunidade zooplanctônica e verificar sua variação horizontal e temporal num eixo formado por uma área aberta (livre de vegetação) e uma área vegetada por densos estandes de macrófitas, assim como verificar a relação das características limnológicas e climatológicas com estas comunidades de forma a contribuir com elementos para a definição de regras adequadas ao uso dos recursos hídricos desta área. O estudo foi conduzido numa lagoa rasa interna ao Banhado (Lagoa Jacaré), e na porção do Banhado do Taim adjacente à Lagoa. Foi definida uma transecção Banhado-Lagoa composta por três pontos de amostragem (Banhado, Interface e Lagoa). Amostras de água foram coletadas trimestralmente, ao longo de um ano (Agosto/2002 a Junho/2003), para a análise do zooplâncton e das características ambientais. A comunidade zooplanctônica esteve representada por um total de 85 espécies, dentre as quais 39 pertencem aos cladóceros, caracterizando-o como o grupo de maior riqueza específica. O Índice de Constância demonstrou como espécies constantes no eixo Banhado-Lagoa, os rotíferos Lecane leontina e Testudinella sp., e os cladóceros Ceriodaphnia richardi e Chydorus sphaericus. Os copépodos foram o grupo de maior abundância, representada pela dominância dos náuplios e copepoditos, pois os indivíduos adultos freqüentemente ocorreram em número reduzido. Agosto (inverno) foi o período com o maior número de indivíduos, com valores de densidade bastante acentuados em relação aos demais. O Banhado apresentou a maior densidade zooplanctônica, assim como os maiores valores de riqueza e diversidade específica. Este habitat revela-se como uma zona potencial de abrigo e manutenção da fauna zooplanctônica, enfatizando a importância da conservação dos ecossistemas de banhados. As flutuações do nível d’água demonstraram a maior correlação com a variação da comunidade zooplanctônica. A ocorrência de níveis d’água elevados permitiu ampla conexão entre os habitats e grande disponibilidade de nichos, contribuindo para a manutenção de elevada densidade, riqueza e diversidade zooplanctônica nos períodos com tais condições.
Resumo:
Recentes estudos referentes ao sistema político brasileiro têm apontado a necessidade de se analisar também as instituições internas aos legislativos. Neste estudo de caso, são presentadas e sistematizadas as regras formais que defrnem por quem e como são controlados os recursos parlamentares de uma Casa Legislativa estadual, a Assembléia paulista, em diferentes contextos constitucionais desde 1835 até março de 2000. O trabalho busca identificar os alicerces sobre os quais foram construídas as estruturas presentes, especialmente no que se refere a: prerrogativas e deveres dos deputados, atribuições do Poder Legislativo, atribuições da Mesa diretora, estrutura e funcionamento das comissões e das sessões. Constata-se que a estrutura do processo decisório altamente centralizado configurada pelo regimento em vigor, é decorrente de uma reforma ocorrida em 1956, tendo sobrevivido às inúmeras alterações nas legislações partidárias e eleitorais e, ainda, constitucionais sofridas desde então. Argumenta-se que mudanças nas regras eleitorais e partidárias sem uma correspondente alteração do Regimento Interno, de forma a descentralizar o sistema decisório da Assembléia, pouco influiriam no comportamento dos deputados paulistas e na capacidade de atuação do Legislativo no sistema de governo estadual.
Resumo:
Na atual conjuntura que o mundo dos negócios se encontra, cada vez mais as organizações são pressionadas a apresentar uma maior transparência em seus processos de gestão. As organizações de capital aberto já são forçadas, a bastante tempo, a cumprir regras que procuram estabelecer critérios mínimos de confiabilidade das informações que são disponibilizadas ao mercado acionário. No entanto, os últimos acontecimentos envolvendo grandes organizações americanas em escândalos acabaram comprometendo a confiança dos investidores nas informações e nos processos de governança vigente. Assim, desde então, tem sido exigida uma maior transparência corporativa por parte das organizações e órgãos reguladores do mercado acionário. Da mesma forma, muitas são as empresas de capital fechado e de controle acionário familiar que estão investindo fortemente em um processo de profissionalização. Estas organizações investem com o objetivo de fazer parte de um novo modelo empresarial que preserva a transparência e respeito aos investidores. Este estudo enfoca o processo de identificação dos requisitos informacionais para um sistema de informações a ser utilizado por um conselho de administração em uma empresa, cujo controle acionário é familiar. O conselho de administração assumiu um papel relevante no novo modelo empresarial que busca a boa governança corporativa, pois é ele o principal elo de ligação entre os acionistas e o grupo executivo das organizações. Para o desenvolvimento do estudo foi empregada a metodologia “Soft Systems”, com as seguintes finalidades: identificar o problema a ser abordado, definir os modelos conceituais, registrar os requisitos informacionais das principais atividades identificadas, comparar os modelos conceituais com os sistemas informacionais existentes e, por fim, propor melhorias para a situação problemática identificada.
Resumo:
O presente trabalho discute o tema dos dirigentes públicos, atores recentemente debatidos pela literatura como um grupo específico que atua orientado a resultados e à criação de valor público. Em geral, são escassos os estudos que discutem os dirigentes públicos empiricamente; assim, mostraremos os papéis que desempenham argumentando que são atores fundamentais para a formulação e implementação das políticas públicas na medida em que são capazes de dialogar tanto com a esfera política como com a da gestão. Para isso, analisaremos o caso Chileno, experiência bastante consolidada que reconhece o dirigente público como ator distinto dos demais, regido por regras específicas de recrutamento, seleção, nomeação e gestão segundo acordos de resultados. Apresentaremos uma análise dos dirigentes chilenos baseada em uma perspectiva histórica tanto sobre o surgimento e consolidação do Sistema de Alta Direção Pública como em relação às tensões e complementaridades entre tecnocratas e políticos que marcaram os governos chilenos no período que compreende desde a redemocratização até os dias atuais. Mostraremos que este Sistema nasce no contexto de um acordo político entre governo e oposição em busca da modernização e profissionalização do Estado e que as dimensões da política e da gestão são pilares centrais do modelo, presentes em todas as suas esferas, tais como seu desenho institucional e regras de gestão de pessoas e do desempenho.
Resumo:
Em 29 de maio de 2012 entrou em vigor a Lei nº 12.529/2011, que introduziu no Brasil o sistema de análise prévia dos atos de concentração. Nesse novo regime, as empresas deverão preservar as condições de concorrência entre si e não mais poderão consumar a operação antes de sua aprovação pelo Conselho Administrativo de Defesa Econômica (CADE), sob pena de violarem as regras do sistema de análise prévia das operações, i.e., praticarem gun-jumping ilegal. Contudo, nem a Nova Lei, nem o Novo Regimento Interno do CADE especificaram quais práticas implicariam a consumação da operação. Dessa forma, o presente trabalho buscou identificar parâmetros, através da experiência americana e europeia e da análise de acordos de preservação da reversibilidade da operação, que pudessem auxiliar as empresas a conduzirem suas atividades no momento que antecede a aprovação da operação.
Resumo:
As pesquisas sobre governança no sistema financeiro contribuem significativamente para a análise dos diversos elementos que influenciam a performance nesse setor. No entanto, estudos empíricos nessa área ainda são limitados. Um dos motivos é a complexidade inerente à noção de governança na área pública. Da mesma forma que os sistemas complexos, a governança pode ser descrita como um sistema que abrange um grande número de entidades interdependentes entre si, com diferentes graus de relacionamentos. Neste trabalho de pesquisa, o significado de governança regulamentar do SFN se insere nesse escopo de entendimento, isto é, a governança como um fenômeno que resulta das diversas interações existentes entre os atores que influenciam ou são influenciados pelas atividades de regulação do setor financeiro. Em função das especificidades dos sistemas complexos, desenvolve-se e implementa-se um modelo baseado em agentes para a análise da governança regulamentar do SFN mediante experimentos de simulação. Os modelos baseados em agentes possibilitam explicitar aspectos relativos às interações e comportamentos dos agentes (nível micro), ou seja, os comportamentos não-lineares do sistema, que são difíceis de serem capturados com outros formalismos matemáticos. O modelo baseado em agentes é integrado a um modelo econométrico que tem como função caracterizar o ambiente macro-econômico. O ambiente micro é modelado por intermédio de agentes computacionais, com o uso da arquitetura BDI (do inglês, beliefs-desires-intentions). Esses agentes interagem entre si e com o ambiente, possuem crenças sobre o meio onde atuam e desejos que querem satisfazer, levando-os a formar intenções para agir. O comportamento dos agentes foi modelado utilizando-se lógica difusa (fuzzy logic), com o uso de regras construídas por intermédio de pesquisa de análise de conteúdo, a partir de informações coletadas em notícias de jornais, e entrevistas semiestruturadas com especialistasda área financeira. Os resultados dos experimentos demonstram o potencial da simulação dos modelos baseados em agentes para a realização de estudos de ambientes complexos de governança regulamentar.