95 resultados para Modelo baseado em agentes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Era objectivo do presente trabalho o desenvolvimento de um biossensor baseado na inibição da amidase de Pseudomonas aeruginosa para a quantificação de ureia em diversas amostras com recurso a um eléctrodo selectivo de iões amónio (ISE). A ureia é um poderoso inibidor do centro activo da amidase (Acilamida hidrolase EC 3.5.1.4) de Pseudomonas aeruginosa a qual catalisa a hidrólise de amidas alifáticas produzindo o ácido correspondente e amónia. O extracto celular de Pseudomonas aeruginosa L10 contendo actividade de amidase foi imobilizado em membranas de poliétersulfona modificadas (PES) e em membranas de nylon Porablot NY Plus na presença de gelatina e de glutaraldeído (GA) como agente bifuncional. Estas membranas foram posteriormente utilizadas na construção do biossensor baseado no ISE, utilizando acetamida como substrato, a reacção enzimática foi seguida medindo os iões amónio produzidos pela hidrólise da amida alifática, e a resposta do biossensor apresentada como a velocidade inicial da reacção (mV.min-1). A optimização dos parâmetros de imobilização foi efectuada de acordo com a metodologia ANOVA. Assim, a mistura de 30μL extracto celular, 2μL GA (5%) e 10 μL Gelatina 15% (p/v) foi a que conduziu a uma melhor resposta do biossensor. Efectuou-se ainda o estudo de optimização de alguns parâmetros experimentais pH e tempo de incubação em ureia, este conduziu ao valor pH=7,2 como pH óptimo de resposta do biossensor e 20 min como tempo óptimo de incubação das membranas nas soluções de ureia, sendo neste caso a resposta do biossensor dada pela diferença das respostas do biossensor antes e após incubação. A calibração do biossensor foi efectuada em soluções contendo concentrações conhecidas de ureia preparadas em tampão Tris, leite e vinho caseiro, exibindo um limite de detecção de 2,0 ×10-6 M de ureia. A incubação das membranas em hidroxilamina 2M por um período de 2h permitiu a recuperação de 70% da actividade enzimática da membrana. O biossensor apresentou uma elevada estabilidade de armazenamento por um período de 55 dias revelando uma perda de apenas 15% da sua resposta. O biossensor desenvolvido apresenta uma sensibilidade de 58,245 mV.min-1 e um tempo de resposta de aproximadamente 20s. A resposta do biossensor foi linear para concentrações de ureia presentes no vinho na gama de 4-10 μM de ureia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aborda a procura distribuída de soluções baseando-se em cenários cuja informação não esteja totalmente disponível, por não ser possível ou mesmo porque não é desejável. Os dois tipos de problemas abordados neste trabalho são: i) o problema de atribuição de tarefas, e ii) o problema de agendamento de eventos. O problema de atribuição de tarefas é ilustrado num cenário de catástrofe (atribuição de incêndios a bombeiros) cujos agentes tentam encontrar a melhor solução global de acordo com as capacidades de cada um. O problema do agendamento de eventos com múltiplos recursos, ocorre numa organiza- ção que pretende maximizar o valor do tempo dos seus empregados, enquanto preserva o valor individual (privacidade) atribuído ao evento (valor da importância relativa do evento). Estes problemas são explorados para confrontar os dois tipos de abordagem na sua resolução: centralizada e distribuída. Os problemas são formulados para resolução de maneira distribuída e centralizada, de modo a evidenciar as suas características e as situações em que fará mais sentido a utilização de cada abordagem. O desempenho a nível de tempo de execução e consumo de memória, bem como o conceito de privacidade são os pontos considerados no comparativo das abordagens centralizada e distribuída. Para analisar o problema de atribuição de tarefas e o problema de agendamento de eventos, é proposto um modelo que integra dois tipos de formulação de problemas distribuídos, e que utiliza um algoritmo distribuído para a resolução dos mesmos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os agentes químicos são frequentemente manipulados nos Laboratórios de Anatomia Patológica (AP), provocando uma preocupação crescente com a segurança, higiene e a saúde dos técnicos de AP. Não existe conhecimento relativo à percepção que os profissionais evidenciam relativamente à perigosidade das substâncias químicas e que paralelismo esta possui com a real perigosidade, tendo em conta que existem instrumentos internacionais que permitem quantificar o risco associado a cada um dos agentes químicos. O objectivo do trabalho é identificar a percepção dos técnicos de AP relativamente à perigosidade das substâncias químicas utilizadas nos laboratórios de histopatologia dos serviços de AP na região de Lisboa e Vale do Tejo e comparar essa percepção com a perigosidade definida pelos instrumentos internacionais, constituindo, desta forma, um índice de discrepância. Também se procuraram listar os principais sintomas/doenças potencialmente associados à actividade profissional. Para tal, recorreu-se a uma amostra não probabilística, constituída por dezassete técnicos de AP que trabalham em três hospitais na referida região. O instrumento de recolha de dados consistiu num questionário que agrupava questões sobre a temática proposta, incidindo na classificação de substâncias químicas quanto à sua perigosidade para a saúde numa escala de 0 a 5, padecimento ou não de patologias, entre outras. O tratamento estatístico foi realizado em SPSS 12.0. Na generalidade, a discrepância quanto à perigosidade das substâncias químicas é baixa, centrando-se em 1 a 2 e observa-se maior discrepância para as substâncias etanol, violeta de cristal e vermelho do Congo. Os sintomas mais referidos foram cefaleias, irritação dos olhos e das vias respiratórias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação, apresenta um simulador multi-agente para o mercado eléctrico. Neste simulador agentes heterogéneos, racionalmente limitados e com capacidade de aprendizagem, co-evoluem dinamicamente. O modelo de mercado apresentado é inspirado no mercado diário do MIBEL. É um modelo Pool, gerido por uma entidade operadora de mercado, onde compradores e vendedores podem licitar energia. No lado vendedor, empresas produtoras licitam a energia das suas unidades produtoras em pares quantidadepre ço. Por outro lado, uma vez que o cenário simulado é um mercado de venda, o comprador apresenta uma procura xa, i.e., submete apenas quantidades de energia. Todas as entidades do mercado eléctrico são vistas no sistema multi-agente, modelado através da plataforma INGENIAS, como agentes autónomos. Pelos resultados obtidos nas experiências feitas, confere-se que o simulador é uma ferramenta de apoio à tomada de decisão, pois ajuda a compreender o comportamento emergente do mercado e avalia o impacto das acções escolhidas, manualmente, pelo utilizador ou, automaticamente, atrav és da aprendizagem por reforço. A aprendizagem por reforço visa facilitar a tomada de decisão humana na venda de energia, licitando a energia das unidades produtoras de forma a maximizar os lucros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A inovação e o desenvolvimento tecnológico obrigam os fabricantes a uma intensa competição global, face a uma redução no ciclo de desenvolvimento dos produtos e a rigorosos constrangimentos de custos, ao mesmo tempo que enfrentam consumidores mais exigentes, que procuram produtos de Qualidade. A Fiabilidade do bem é um aspecto marcante dessa Qualidade. Tradicionalmente o acesso a essa fiabilidade é baseado em testes de vida, normalmente acelerados. Todavia, para produtos altamente fiáveis, pouca informação a respeito da sua fiabilidade é fornecida por via dos testes de vida, nos quais poucas ou nenhumas falhas são observadas. Perante este cenário, a análise de degradação surge como uma técnica alternativa atractiva aos clássicos métodos de estudo da fiabilidade, apresentando como grande vantagem o facto de não ser necessário que nenhuma falha ocorra para se obter informação sobre a fiabilidade do bem, beneficiando ainda de uma redução no tempo de duração dos testes. Este trabalho começa por abordar os fundamentos da teoria da fiabilidade, e sua aplicação ao ciclo de vida dos componentes, fazendo alusão aos modelos de fiabilidade, ou distribuições de vida que mais usualmente se ajustam as várias fases de vida de um bem, nomeadamente a distribuição Exponencial, Normal e com particular destaque à versátil distribuição de Weibull. De seguida é feita a abordagem à análise de degradação dos componentes como uma técnica útil para estimar a fiabilidade de um bem, e neste contexto é feita a abordagem de uma metodologia de análise da degradação com base na monitorização da condição dos componentes. Quando um bem está sujeito a um processo de degradação, onde se pode fixar um valor limite para a característica que está a ser medida, pode-se recolher uma série de dados relativos ao processo em causa, servindo estes para ajustar um modelo matemático de degradação, que por extrapolação da curva de degradação permitem estimar o tempo até à falha, e por consequência o tempo de vida útil restante.O trabalho enquadra ainda a análise da degradação dos componentes numa perspectiva de apoio à estratégia de manutenção, no domínio da manutenção condicionada, e em particular no quadro da manutenção preditiva, tendo por objectivo fazer a optimização do programa de manutenção a aplicar, de forma a minimizar os custos globais da função manutenção. Nesta vertente são também considerados os intervalos P-F para monitorizar a evolução do estado de falha, em que é necessário definir o valor do parâmetro analisado para o qual se considere o início do processo de falha e o correspondente valor de falha efectiva. É apresentado um estudo prático com a colaboração duma prestigiada empresa de comercialização e distribuição de veículos pesados, focalizado num modelo de camião específico comercializado por essa marca. O estudo está direccionado para o sistema de travagem do veículo, mais concretamente a um dos seus componentes mecânicos, as pastilhas de travão. Este componente tem associado o mecanismo de degradação conhecido por desgaste. A medição do parâmetro de desgaste será feita por meio da técnica de simulação de valores, tendo no entanto em consideração, uma base de dados restrita de valores reais. O estudo de fiabilidade deste componente tem por objectivo fundamental estimar o tempo de Vida Útil Restante (“Residual Useful Life, RUL”) para as pastilhas, ou seja, até que se atinja o valor limite admissível (considerado como falha). Para os cálculos foi utilizado o programa informático denominado Weibull ++7. O caso de estudo permitiu determinar para situações particulares a relação entre o desgaste e a distância percorrida, estimando-se desta forma a vida restante (em distância), até ao momento em que o componente atinge o limite de desgaste considerado admissível. O grande potencial de estudo futuro passa pela elaboração de um modelo (com base em dados reais de exploração), que contemple os principais factores de influência, e que duma forma expedita permita a gestores de frota, fabricantes ou responsáveis da marca fazer a análise da fiabilidade do componente, tendo em conta uma situação específica de exploração. O conhecimento da fiabilidade das pastilhas pode levar à optimização da exploração do veiculo, por meio de um planeamento estratégico da sua manutenção,nomeadamente ao nível do aprovisionamento, na programação das intervenções, e em particular quanto à vida útil restante para as pastilhas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar da existência de produtos comerciais e da investigação na área, a construção de sistemas de informação com diversos componentes distribuídos, heterogéneos e autónomos - conhecidos como sistemas de informação federados - é ainda um desafio. Estes sistemas de informação oferecem uma visão global unificada sobre os vários modelos de dados (parciais). No entanto, a modelação destes sistemas é um desafio, já que modelos de dados como o relacional não incluem informação sobre a distribuição e tratamento de heterogeneidade. É também necessário interagir com estes sistemas de informação, através de interrogações sobre os diversos componentes dos sistemas, sem ser necessário conhecer os detalhes dos mesmos. Este trabalho propõe uma abordagem a estes desafios, através da utilização de modelos para descrição semântica, e.g. linguagem OWL (Ontology Web Language), para construir uma descrição unificada dos seus diversos modelos parciais. O modelo criado para dar suporte a esta descrição é, em parte, baseado em ontologias existentes, que foram alteradas e extendidas para resolver diversos desafios de modelação. Sobre este modelo, é criado um componente de software que permite a execução de interrogações SQL (Structured Query Language) sobre o sistema federado, resolvendo os problemas de distribuição e heterogeneidade existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A família de especificações WS-* define um modelo de segurança para web services, baseado nos conceitos de claim, security token e Security Token Service (STS). Neste modelo, a informação de segurança dos originadores de mensagens (identidade, privilégios, etc.) é representada através de conjuntos de claims, contidos dentro de security tokens. A emissão e obtenção destes security tokens, por parte dos originadores de mensagens, são realizadas através de protocolos legados ou através de serviços especiais, designados de Security Token Services, usando as operações e os protocolos definidos na especificação WS-Trust. O conceito de Security Token Service não é usado apenas no contexto dos web services. Propostas como o modelo dos Information Cards, aplicável no contexto de aplicações web, também utilizam este conceito. Os Security Token Services desempenham vários papéis, dependendo da informação presente no token emitido. São exemplos o papel de Identity Provider, quando os tokens emitidos contêm informação de identidade, ou o papel de Policy Decision Point, quando os tokens emitidos definem autorizações. Este documento descreve o projecto duma biblioteca software para a realização de Security Token Services, tal como definidos na norma WS-Trust, destinada à plataforma .NET 3.5. Propõem-se uma arquitectura flexível e extensível, de forma a suportar novas versões das normas e as diversas variantes que os Security Token Services possuem, nomeadamente: o tipo dos security token emitidos e das claims neles contidas, a inferência das claims e os métodos de autenticação das entidades requerentes. Apresentam-se aspectos de implementação desta arquitectura, nomeadamente a integração com a plataforma WCF, a sua extensibilidade e o suporte a modelos e sistemas externos à norma. Finalmente, descrevem-se as plataformas de teste implementadas para a validação da biblioteca realizada e os módulos de extensão da biblioteca para: suporte do modelo associado aos Information Cards, do modelo OpenID e para a integração com o Authorization Manager.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo deste trabalho foi o desenvolvimento de um programa de cálculo automático de lajes baseado no método dos elementos finitos. Como introdução ao tema é efectuada uma análise da evolução das estruturas ao longo dos tempos, diferenciando os vários tipos de estruturas que existem. São explicitados os conceitos fundamentais da mecânica dos sólidos, bem como os vários tipos de análises estruturais, os tipos de elementos finitos mais utilizados, bem como a classificação dos diversos tipos de estruturas. Devido à importância que o método dos elementos finitos tem na engenharia actual, é apresentada uma breve descrição da sua evolução ao longo dos tempos. Como abordagem mais abrangente são apresentados os conceitos gerais do método, evoluindo depois para uma descrição mais pormenorizada, aplicado aos elementos de laje adoptados no programa de cálculo desenvolvido. As lajes podem ser modeladas através da teoria das lajes finas ou espessas, sendo apresentados os fundamentos teóricos e simplificações que sustentam estas duas abordagens. A validação do programa de cálculo elaborado nesta dissertação, é efectuado através de dois exemplos, um modelo simples e outro mais complexo onde se demonstram todas as potencialidades do programa. A validação é efectuada através da comparação dos resultados, obtidos pelo programa e por um programa de referência no cálculo estrutural, o SAP2000. O desenvolvimento deste trabalho tem um objectivo mais abrangente de no futuro, este módulo, poder ser incluído num pacote de cálculo estrutural alargado a outro tipo de estruturas. Com este pressuposto, foi efectuada uma descrição pormenorizada da organização do programa e das suas capacidades e desenvolvido um manual de utilização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas computacionais leva a que seja necessário equacionar novas formas de resolução para os mais variados tipos de problemas. Uma vertente particularmente interessante, que tem sido investigada, é a implementação de sistemas inspirados em características biológicas. Os Agentes são entidades autónomas de software que se relacionam de forma social com vista ao cumprimento dos seus objectivos próprios e do sistema como um todo. Apesar das vantagens existentes na utilização destes sistemas, em termos de utilização comercial são poucas as implementações conhecidas. Na sua maioria, estes sistemas são utilizados com fins de investigação e académicos. Este trabalho tem por objectivo o estudo e desenvolvimento de uma solução que permita aproximar este sistema das necessidades reais existentes em sistemas reais, no contexto da interacção transaccional suportada por mecanismos transaccionais comuns. O trabalho apresenta três vertentes principais: (i) estudo das abordagens existentes para a resolução de interacções em âmbito transaccional; (ii) estudo e concepção de uma solução adaptada à utilização em ambientes transaccionais reais; (iii) concepção e implementação de um protótipo demonstrativo da abordagem proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho propõe a concepção e implementação de um sistema de recuperação de informação de diversos Objectos Digitais (objecto originalmente criado no meio informático, como por exemplo um documento, um vídeo…) com recurso a anotações/metadados descritivos do objecto (dados que descrevem outros dados). Para fomentar o processo de preenchimento dos metadados é proposto um mecanismo de créditos para estimular o preenchimento cooperativo entre utilizadores e autores de Objectos Digitais (OD), com base na metáfora da bolsa de valores. Deste processo de anotações resulta incerteza, ou seja, o mesmo objecto pode ser descrito de forma diferente por utilizadores distintos. Este sistema propõe uma forma de lidar com esta incerteza, recorrendo ao conceito de base de dados probabilística que não é mais que associar a cada termo armazenado, um valor (peso do termo) entre 0 e 1, a que demos o nome de peso do termo. Deste modo, foi também proposto um modelo de cálculo do peso dos termos descritivos dos OD baseado no feedback fornecido pelos utilizadores. Recorrendo ao peso dos termos, foi ainda possível determinar a relevância de um OD quando confrontado com uma pergunta dando assim a possibilidade a um utilizador, recuperar/pesquisar OD de qualquer tipo, ordenados por um valor de relevância. Para além da concepção e correspondente implementação do BOD, este trabalho discute ainda diferentes cenários de aplicação do sistema, ilustrando consequentemente a sua versatilidade e flexibilidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A monitorização de processos ambientais conduz à obtenção de resultados cuja aferição da qualidade é um requisito raramente cumprido. No entanto, importantes decisões de gestão ambiental, sociais e políticas com impacto directo nas populações são tomadas suportadas nestes resultados. A validação de uma medição, como suporte à decisão, é impossível sem o conhecimento da incerteza associada ao próprio resultado. É a incerteza que define a qualidade do resultado. Com este trabalho pretendeu-se contribuir para o aperfeiçoamento do Controlo da Poluição na Refinaria da Galp Energia, em Sines, através do estabelecimento de um projecto de cálculo das incertezas associadas aos teores de poluentes medidos. Foram alvo deste estudo os valores medidos de dióxido de enxofre, óxidos de azoto e partículas monitorizadas. O conhecimento do valor de incerteza associada aos resultados permitirá actuar preventivamente e tomar acções correctivas de modo a garantir o cumprimento pleno da licença ambiental. Para avaliar a incerteza usou-se o procedimento preconizado pela norma ISO em que os passos envolvidos são a especificação do processo de medida, identificação das fontes de incerteza, cálculo da incerteza combinada e cálculo da incerteza expandida. Após a caracterização da actividade da empresa, do enquadramento legislativo, do desempenho no triénio 2005-2007 e da caracterização dos aparelhos de medida, foi feito um estudo estatístico aos valores medidos por estes três analisadores durante diversos períodos do ano de 2007 e foi determinado o modelo de cálculo do valor de incerteza associado a cada uma das medidas. Os valores, associados à respectiva incerteza, foram comparados com os limites impostos pela licença ambiental, verificando-se o cumprimento desta. A determinação da incerteza associada aos resultados de monitorização dos efluentes gasosos desta instalação reforça a credibilidade dos valores medidos, o compromisso da melhoria contínua da qualidade dos processos, produtos e serviços, do desempenho ambiental e da segurança das pessoas e bens, como contributo para um desenvolvimento sustentável desta companhia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho simulou-se o comportamento térmico de sistemas solares do tipo pré-fabricado (factory made systems, norma EN 12976-2:2006), utilizando os parâmetros obtidos nos relatórios necessários à sua certificação, com o objectivo de conseguir introduzir estes sistemas na base de dados do programa SolTerm. Estes sistemas podem ser ensaiados segundo dois métodos de ensaio distintos que se encontram descritos nas normas ISO 9459-2:1995 (ensaio CSTG) e na norma ISO 9459-5:2007 (ensaio DST), contudo, devido ao facto do método DST estar baseado num software em código fechado, não é possível fazer a simulação no SolTerm, fazendo com que apenas se possa introduzir sistemas cujo ensaio tenha sido realizado segundo a norma ISO 9459-2 (ensaio CSTG). Este trabalho incidiu neste ponto, tendo sido elaborado um método de cálculo que permite inserir qualquer sistema no SolTerm, independentemente do ensaio que o caracterizou. Para isso foi necessário utilizar o modelo de cálculo do DST (programa em código fechado) simulando a metodologia de ensaio do CSTG, para que se consiga fazer a aproximação entre ambos. Após determinados os coeficientes, é feita uma verificação aos dois cálculoa a fim de corroborar os resultados anteriormente determinados. Desta forma, foi possível criar um algoritmo de cálculo que permite qualquer sistema térmico do tipo pré-fabricado, ser introduzido na base de dados do SolTerm, com um erro associado inferior a 3%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.