999 resultados para Modelo baseado em agentes
Resumo:
Esta dissertação, apresenta um simulador multi-agente para o mercado eléctrico. Neste simulador agentes heterogéneos, racionalmente limitados e com capacidade de aprendizagem, co-evoluem dinamicamente. O modelo de mercado apresentado é inspirado no mercado diário do MIBEL. É um modelo Pool, gerido por uma entidade operadora de mercado, onde compradores e vendedores podem licitar energia. No lado vendedor, empresas produtoras licitam a energia das suas unidades produtoras em pares quantidadepre ço. Por outro lado, uma vez que o cenário simulado é um mercado de venda, o comprador apresenta uma procura xa, i.e., submete apenas quantidades de energia. Todas as entidades do mercado eléctrico são vistas no sistema multi-agente, modelado através da plataforma INGENIAS, como agentes autónomos. Pelos resultados obtidos nas experiências feitas, confere-se que o simulador é uma ferramenta de apoio à tomada de decisão, pois ajuda a compreender o comportamento emergente do mercado e avalia o impacto das acções escolhidas, manualmente, pelo utilizador ou, automaticamente, atrav és da aprendizagem por reforço. A aprendizagem por reforço visa facilitar a tomada de decisão humana na venda de energia, licitando a energia das unidades produtoras de forma a maximizar os lucros.
Resumo:
A inovação e o desenvolvimento tecnológico obrigam os fabricantes a uma intensa competição global, face a uma redução no ciclo de desenvolvimento dos produtos e a rigorosos constrangimentos de custos, ao mesmo tempo que enfrentam consumidores mais exigentes, que procuram produtos de Qualidade. A Fiabilidade do bem é um aspecto marcante dessa Qualidade. Tradicionalmente o acesso a essa fiabilidade é baseado em testes de vida, normalmente acelerados. Todavia, para produtos altamente fiáveis, pouca informação a respeito da sua fiabilidade é fornecida por via dos testes de vida, nos quais poucas ou nenhumas falhas são observadas. Perante este cenário, a análise de degradação surge como uma técnica alternativa atractiva aos clássicos métodos de estudo da fiabilidade, apresentando como grande vantagem o facto de não ser necessário que nenhuma falha ocorra para se obter informação sobre a fiabilidade do bem, beneficiando ainda de uma redução no tempo de duração dos testes. Este trabalho começa por abordar os fundamentos da teoria da fiabilidade, e sua aplicação ao ciclo de vida dos componentes, fazendo alusão aos modelos de fiabilidade, ou distribuições de vida que mais usualmente se ajustam as várias fases de vida de um bem, nomeadamente a distribuição Exponencial, Normal e com particular destaque à versátil distribuição de Weibull. De seguida é feita a abordagem à análise de degradação dos componentes como uma técnica útil para estimar a fiabilidade de um bem, e neste contexto é feita a abordagem de uma metodologia de análise da degradação com base na monitorização da condição dos componentes. Quando um bem está sujeito a um processo de degradação, onde se pode fixar um valor limite para a característica que está a ser medida, pode-se recolher uma série de dados relativos ao processo em causa, servindo estes para ajustar um modelo matemático de degradação, que por extrapolação da curva de degradação permitem estimar o tempo até à falha, e por consequência o tempo de vida útil restante.O trabalho enquadra ainda a análise da degradação dos componentes numa perspectiva de apoio à estratégia de manutenção, no domínio da manutenção condicionada, e em particular no quadro da manutenção preditiva, tendo por objectivo fazer a optimização do programa de manutenção a aplicar, de forma a minimizar os custos globais da função manutenção. Nesta vertente são também considerados os intervalos P-F para monitorizar a evolução do estado de falha, em que é necessário definir o valor do parâmetro analisado para o qual se considere o início do processo de falha e o correspondente valor de falha efectiva. É apresentado um estudo prático com a colaboração duma prestigiada empresa de comercialização e distribuição de veículos pesados, focalizado num modelo de camião específico comercializado por essa marca. O estudo está direccionado para o sistema de travagem do veículo, mais concretamente a um dos seus componentes mecânicos, as pastilhas de travão. Este componente tem associado o mecanismo de degradação conhecido por desgaste. A medição do parâmetro de desgaste será feita por meio da técnica de simulação de valores, tendo no entanto em consideração, uma base de dados restrita de valores reais. O estudo de fiabilidade deste componente tem por objectivo fundamental estimar o tempo de Vida Útil Restante (“Residual Useful Life, RUL”) para as pastilhas, ou seja, até que se atinja o valor limite admissível (considerado como falha). Para os cálculos foi utilizado o programa informático denominado Weibull ++7. O caso de estudo permitiu determinar para situações particulares a relação entre o desgaste e a distância percorrida, estimando-se desta forma a vida restante (em distância), até ao momento em que o componente atinge o limite de desgaste considerado admissível. O grande potencial de estudo futuro passa pela elaboração de um modelo (com base em dados reais de exploração), que contemple os principais factores de influência, e que duma forma expedita permita a gestores de frota, fabricantes ou responsáveis da marca fazer a análise da fiabilidade do componente, tendo em conta uma situação específica de exploração. O conhecimento da fiabilidade das pastilhas pode levar à optimização da exploração do veiculo, por meio de um planeamento estratégico da sua manutenção,nomeadamente ao nível do aprovisionamento, na programação das intervenções, e em particular quanto à vida útil restante para as pastilhas.
Resumo:
Técnicas de estatística descritiva e métodos do modelo ponto evento foram utilizados para estudar-se séries temporais de meningite meningocócica de 100 municípios do Estado do Rio Grande do Sul, Brasil, no período de 1974 a 1980. Os dados foram separados por estado epidemiológico (epidemia ou endemia), e agregados em 5 grupos segundo as populações municipais. O número de casos notificados semanalmente da moléstia foram analisados através dos coeficientes de incidência, visando o estudo de limiares epidêmicos para o Estado. Os intervalos de tempo entre os eventos foram analisados pelas suas funções de densidade de probabilidade e das funções de densidade esperada, visando a estudar o relacionamento e a dependência entre os eventos. A análise dos limiares epidêmicos sugere que não deva ser utilizado um único valor de limiar, para detecção de surtos da moléstia para todo o Estado. A função de densidade esperada, analisada através de comparações entre os dados para o estado epidêmico e para o estado endêmico, sugere que os eventos dos estados epidêmicos apresentem-se correlacionados, com indicação de dependência entre aqueles separados até 14 semanas. Para o estado endêmico não foram encontradas correlações significativas, utilizando-se como modelo de base o embaralhamento da ordem dos intervalos originais.
Resumo:
Apesar da existência de produtos comerciais e da investigação na área, a construção de sistemas de informação com diversos componentes distribuídos, heterogéneos e autónomos - conhecidos como sistemas de informação federados - é ainda um desafio. Estes sistemas de informação oferecem uma visão global unificada sobre os vários modelos de dados (parciais). No entanto, a modelação destes sistemas é um desafio, já que modelos de dados como o relacional não incluem informação sobre a distribuição e tratamento de heterogeneidade. É também necessário interagir com estes sistemas de informação, através de interrogações sobre os diversos componentes dos sistemas, sem ser necessário conhecer os detalhes dos mesmos. Este trabalho propõe uma abordagem a estes desafios, através da utilização de modelos para descrição semântica, e.g. linguagem OWL (Ontology Web Language), para construir uma descrição unificada dos seus diversos modelos parciais. O modelo criado para dar suporte a esta descrição é, em parte, baseado em ontologias existentes, que foram alteradas e extendidas para resolver diversos desafios de modelação. Sobre este modelo, é criado um componente de software que permite a execução de interrogações SQL (Structured Query Language) sobre o sistema federado, resolvendo os problemas de distribuição e heterogeneidade existentes.
Resumo:
A família de especificações WS-* define um modelo de segurança para web services, baseado nos conceitos de claim, security token e Security Token Service (STS). Neste modelo, a informação de segurança dos originadores de mensagens (identidade, privilégios, etc.) é representada através de conjuntos de claims, contidos dentro de security tokens. A emissão e obtenção destes security tokens, por parte dos originadores de mensagens, são realizadas através de protocolos legados ou através de serviços especiais, designados de Security Token Services, usando as operações e os protocolos definidos na especificação WS-Trust. O conceito de Security Token Service não é usado apenas no contexto dos web services. Propostas como o modelo dos Information Cards, aplicável no contexto de aplicações web, também utilizam este conceito. Os Security Token Services desempenham vários papéis, dependendo da informação presente no token emitido. São exemplos o papel de Identity Provider, quando os tokens emitidos contêm informação de identidade, ou o papel de Policy Decision Point, quando os tokens emitidos definem autorizações. Este documento descreve o projecto duma biblioteca software para a realização de Security Token Services, tal como definidos na norma WS-Trust, destinada à plataforma .NET 3.5. Propõem-se uma arquitectura flexível e extensível, de forma a suportar novas versões das normas e as diversas variantes que os Security Token Services possuem, nomeadamente: o tipo dos security token emitidos e das claims neles contidas, a inferência das claims e os métodos de autenticação das entidades requerentes. Apresentam-se aspectos de implementação desta arquitectura, nomeadamente a integração com a plataforma WCF, a sua extensibilidade e o suporte a modelos e sistemas externos à norma. Finalmente, descrevem-se as plataformas de teste implementadas para a validação da biblioteca realizada e os módulos de extensão da biblioteca para: suporte do modelo associado aos Information Cards, do modelo OpenID e para a integração com o Authorization Manager.
Modelo operário e percepção de riscos ocupacionais e ambientais: o uso exemplar de estudo descritivo
Resumo:
Objetivou-se identificar os riscos resultantes da exposição a produtos químicos, de trabalhadores de indústria química e farmacêutica. Realizou-se estudo descritivo, através do modelo operário (MO), onde o acesso aos trabalhadores significava uma parte essencial do método e a única forma de neutralizar a impossibilidade de acesso ao local de trabalho. Reconstruíam-se as atividades dos setores de trabalho e identificaram-se as principais substâncias químicas utilizadas, as queixas mais referidas, os danos potenciais e os principais riscos ambientais, concluindo pela precariedade das condições gerais de trabalho. Com os resultados confirmados, ficou evidenciada a importância do MO e sua utilidade metodológica, levando trabalhadores a conseguir das autoridades que a empresa fosse vistoriada. A mobilização dos trabalhadores, através de denúncias nos meios de comunicação, ajudou a formar uma consciência popular dos riscos ocupacionais e ambientais daquela atividade produtiva.
Resumo:
O principal objectivo deste trabalho foi o desenvolvimento de um programa de cálculo automático de lajes baseado no método dos elementos finitos. Como introdução ao tema é efectuada uma análise da evolução das estruturas ao longo dos tempos, diferenciando os vários tipos de estruturas que existem. São explicitados os conceitos fundamentais da mecânica dos sólidos, bem como os vários tipos de análises estruturais, os tipos de elementos finitos mais utilizados, bem como a classificação dos diversos tipos de estruturas. Devido à importância que o método dos elementos finitos tem na engenharia actual, é apresentada uma breve descrição da sua evolução ao longo dos tempos. Como abordagem mais abrangente são apresentados os conceitos gerais do método, evoluindo depois para uma descrição mais pormenorizada, aplicado aos elementos de laje adoptados no programa de cálculo desenvolvido. As lajes podem ser modeladas através da teoria das lajes finas ou espessas, sendo apresentados os fundamentos teóricos e simplificações que sustentam estas duas abordagens. A validação do programa de cálculo elaborado nesta dissertação, é efectuado através de dois exemplos, um modelo simples e outro mais complexo onde se demonstram todas as potencialidades do programa. A validação é efectuada através da comparação dos resultados, obtidos pelo programa e por um programa de referência no cálculo estrutural, o SAP2000. O desenvolvimento deste trabalho tem um objectivo mais abrangente de no futuro, este módulo, poder ser incluído num pacote de cálculo estrutural alargado a outro tipo de estruturas. Com este pressuposto, foi efectuada uma descrição pormenorizada da organização do programa e das suas capacidades e desenvolvido um manual de utilização.
Resumo:
A crescente complexidade dos sistemas computacionais leva a que seja necessário equacionar novas formas de resolução para os mais variados tipos de problemas. Uma vertente particularmente interessante, que tem sido investigada, é a implementação de sistemas inspirados em características biológicas. Os Agentes são entidades autónomas de software que se relacionam de forma social com vista ao cumprimento dos seus objectivos próprios e do sistema como um todo. Apesar das vantagens existentes na utilização destes sistemas, em termos de utilização comercial são poucas as implementações conhecidas. Na sua maioria, estes sistemas são utilizados com fins de investigação e académicos. Este trabalho tem por objectivo o estudo e desenvolvimento de uma solução que permita aproximar este sistema das necessidades reais existentes em sistemas reais, no contexto da interacção transaccional suportada por mecanismos transaccionais comuns. O trabalho apresenta três vertentes principais: (i) estudo das abordagens existentes para a resolução de interacções em âmbito transaccional; (ii) estudo e concepção de uma solução adaptada à utilização em ambientes transaccionais reais; (iii) concepção e implementação de um protótipo demonstrativo da abordagem proposta.
Resumo:
En busca de métodos que apoyen la toma de decisiones y maximizar el beneficio al priorizar necesidades, el presente trabajo discute el modelo de inversión-producción-consumo (IPC) que intenta cuantificar el impacto socio-económico de la mortalidad. Este tipo de evaluación toma en cuenta la edad al morir y la potencial productividad futura generando así pérdidas o ganancias a la sociedad, dependiendo de la etapa de la vida en que ocurrió la muerte. Se ilustra para el caso de México el impacto de las diferentes causas de muerte y se compara con la importancia relativa a partir de el ordenamiento con tasas de mortalidad y el indicador de años de vida perdidos. El ordenamiento por tasas muestra a las enfermedades del corazón, accidentes y tumores como las primeras causas. Por otro lado el indicador de años de vida potencial perdidos tradicional muestra en primer lugar a las causas de muerte en edades menores. El indicador de años de vida produtivos perdidos, sin embargo, concede mayor importancia las infecciones, los accidentes y los homicidios desde el punto de vista de la producción y consumo.
Resumo:
O presente trabalho propõe a concepção e implementação de um sistema de recuperação de informação de diversos Objectos Digitais (objecto originalmente criado no meio informático, como por exemplo um documento, um vídeo…) com recurso a anotações/metadados descritivos do objecto (dados que descrevem outros dados). Para fomentar o processo de preenchimento dos metadados é proposto um mecanismo de créditos para estimular o preenchimento cooperativo entre utilizadores e autores de Objectos Digitais (OD), com base na metáfora da bolsa de valores. Deste processo de anotações resulta incerteza, ou seja, o mesmo objecto pode ser descrito de forma diferente por utilizadores distintos. Este sistema propõe uma forma de lidar com esta incerteza, recorrendo ao conceito de base de dados probabilística que não é mais que associar a cada termo armazenado, um valor (peso do termo) entre 0 e 1, a que demos o nome de peso do termo. Deste modo, foi também proposto um modelo de cálculo do peso dos termos descritivos dos OD baseado no feedback fornecido pelos utilizadores. Recorrendo ao peso dos termos, foi ainda possível determinar a relevância de um OD quando confrontado com uma pergunta dando assim a possibilidade a um utilizador, recuperar/pesquisar OD de qualquer tipo, ordenados por um valor de relevância. Para além da concepção e correspondente implementação do BOD, este trabalho discute ainda diferentes cenários de aplicação do sistema, ilustrando consequentemente a sua versatilidade e flexibilidade
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
A monitorização de processos ambientais conduz à obtenção de resultados cuja aferição da qualidade é um requisito raramente cumprido. No entanto, importantes decisões de gestão ambiental, sociais e políticas com impacto directo nas populações são tomadas suportadas nestes resultados. A validação de uma medição, como suporte à decisão, é impossível sem o conhecimento da incerteza associada ao próprio resultado. É a incerteza que define a qualidade do resultado. Com este trabalho pretendeu-se contribuir para o aperfeiçoamento do Controlo da Poluição na Refinaria da Galp Energia, em Sines, através do estabelecimento de um projecto de cálculo das incertezas associadas aos teores de poluentes medidos. Foram alvo deste estudo os valores medidos de dióxido de enxofre, óxidos de azoto e partículas monitorizadas. O conhecimento do valor de incerteza associada aos resultados permitirá actuar preventivamente e tomar acções correctivas de modo a garantir o cumprimento pleno da licença ambiental. Para avaliar a incerteza usou-se o procedimento preconizado pela norma ISO em que os passos envolvidos são a especificação do processo de medida, identificação das fontes de incerteza, cálculo da incerteza combinada e cálculo da incerteza expandida. Após a caracterização da actividade da empresa, do enquadramento legislativo, do desempenho no triénio 2005-2007 e da caracterização dos aparelhos de medida, foi feito um estudo estatístico aos valores medidos por estes três analisadores durante diversos períodos do ano de 2007 e foi determinado o modelo de cálculo do valor de incerteza associado a cada uma das medidas. Os valores, associados à respectiva incerteza, foram comparados com os limites impostos pela licença ambiental, verificando-se o cumprimento desta. A determinação da incerteza associada aos resultados de monitorização dos efluentes gasosos desta instalação reforça a credibilidade dos valores medidos, o compromisso da melhoria contínua da qualidade dos processos, produtos e serviços, do desempenho ambiental e da segurança das pessoas e bens, como contributo para um desenvolvimento sustentável desta companhia.
Resumo:
No presente trabalho simulou-se o comportamento térmico de sistemas solares do tipo pré-fabricado (factory made systems, norma EN 12976-2:2006), utilizando os parâmetros obtidos nos relatórios necessários à sua certificação, com o objectivo de conseguir introduzir estes sistemas na base de dados do programa SolTerm. Estes sistemas podem ser ensaiados segundo dois métodos de ensaio distintos que se encontram descritos nas normas ISO 9459-2:1995 (ensaio CSTG) e na norma ISO 9459-5:2007 (ensaio DST), contudo, devido ao facto do método DST estar baseado num software em código fechado, não é possível fazer a simulação no SolTerm, fazendo com que apenas se possa introduzir sistemas cujo ensaio tenha sido realizado segundo a norma ISO 9459-2 (ensaio CSTG). Este trabalho incidiu neste ponto, tendo sido elaborado um método de cálculo que permite inserir qualquer sistema no SolTerm, independentemente do ensaio que o caracterizou. Para isso foi necessário utilizar o modelo de cálculo do DST (programa em código fechado) simulando a metodologia de ensaio do CSTG, para que se consiga fazer a aproximação entre ambos. Após determinados os coeficientes, é feita uma verificação aos dois cálculoa a fim de corroborar os resultados anteriormente determinados. Desta forma, foi possível criar um algoritmo de cálculo que permite qualquer sistema térmico do tipo pré-fabricado, ser introduzido na base de dados do SolTerm, com um erro associado inferior a 3%.
Resumo:
Exemplifica-se a aplicação de análise multivariada, por estratificação e com regressão logística, utilizando dados de um estudo caso-controle sobre câncer de esôfago. Oitenta e cinco casos e 292 controles foram classificados segundo sexo, idade e os hábitos de beber e de fumar. As estimativas por ponto dos odds ratios foram semelhantes, sendo as duas técnicas consideradas complementares.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing.