955 resultados para principal-agent-problem
Resumo:
The electricity market restructuring, and its worldwide evolution into regional and even continental scales, along with the increasing necessity for an adequate integration of renewable energy sources, is resulting in a rising complexity in power systems operation. Several power system simulators have been developed in recent years with the purpose of helping operators, regulators, and involved players to understand and deal with this complex and constantly changing environment. The main contribution of this paper is given by the integration of several electricity market and power system models, respecting to the reality of different countries. This integration is done through the development of an upper ontology which integrates the essential concepts necessary to interpret all the available information. The continuous development of Multi-Agent System for Competitive Electricity Markets platform provides the means for the exemplification of the usefulness of this ontology. A case study using the proposed multi-agent platform is presented, considering a scenario based on real data that simulates the European Electricity Market environment, and comparing its performance using different market mechanisms. The main goal is to demonstrate the advantages that the integration of various market models and simulation platforms have for the study of the electricity markets’ evolution.
Resumo:
Near real time media content personalisation is nowadays a major challenge involving media content sources, distributors and viewers. This paper describes an approach to seamless recommendation, negotiation and transaction of personalised media content. It adopts an integrated view of the problem by proposing, on the business-to-business (B2B) side, a brokerage platform to negotiate the media items on behalf of the media content distributors and sources, providing viewers, on the business-to-consumer (B2C) side, with a personalised electronic programme guide (EPG) containing the set of recommended items after negotiation. In this setup, when a viewer connects, the distributor looks up and invites sources to negotiate the contents of the viewer personal EPG. The proposed multi-agent brokerage platform is structured in four layers, modelling the registration, service agreement, partner lookup, invitation as well as item recommendation, negotiation and transaction stages of the B2B processes. The recommendation service is a rule-based switch hybrid filter, including six collaborative and two content-based filters. The rule-based system selects, at runtime, the filter(s) to apply as well as the final set of recommendations to present. The filter selection is based on the data available, ranging from the history of items watched to the ratings and/or tags assigned to the items by the viewer. Additionally, this module implements (i) a novel item stereotype to represent newly arrived items, (ii) a standard user stereotype for new users, (iii) a novel passive user tag cloud stereotype for socially passive users, and (iv) a new content-based filter named the collinearity and proximity similarity (CPS). At the end of the paper, we present off-line results and a case study describing how the recommendation service works. The proposed system provides, to our knowledge, an excellent holistic solution to the problem of recommending multimedia contents.
Resumo:
A 73 year-old male farm laborer from a rural area presented a 15 year history of extensive tumoral lesions over his left leg. Histological studies of skin biopsy showed pseudoepitheliomatous hyperplasia and granulomatous chronic inflammatory process with muriform cells, confirming chromoblastomycosis (CBM). Cladophialophora carrionii was isolated in culture. Treatment with itraconazole 400 mg/day for 12 months resulted in complete remission of lesions. As far we aware, this is the first case report of CBM caused by Cladophialophora carrionii in Rio de Janeiro State, Brazil.
Resumo:
The Container Loading Problem (CLP) literature has traditionally evaluated the dynamic stability of cargo by applying two metrics to box arrangements: the mean number of boxes supporting the items excluding those placed directly on the floor (M1) and the percentage of boxes with insufficient lateral support (M2). However, these metrics, that aim to be proxies for cargo stability during transportation, fail to translate real-world cargo conditions of dynamic stability. In this paper two new performance indicators are proposed to evaluate the dynamic stability of cargo arrangements: the number of fallen boxes (NFB) and the number of boxes within the Damage Boundary Curve fragility test (NB_DBC). Using 1500 solutions for well-known problem instances found in the literature, these new performance indicators are evaluated using a physics simulation tool (StableCargo), replacing the real-world transportation by a truck with a simulation of the dynamic behaviour of container loading arrangements. Two new dynamic stability metrics that can be integrated within any container loading algorithm are also proposed. The metrics are analytical models of the proposed stability performance indicators, computed by multiple linear regression. Pearson’s r correlation coefficient was used as an evaluation parameter for the performance of the models. The extensive computational results show that the proposed metrics are better proxies for dynamic stability in the CLP than the previous widely used metrics.
Resumo:
Introdução: A Diabetes Mellitus representa a principal causa de amputação dos membros inferiores, com importantes custos económicos para os serviços de saúde. O principal factor de risco para a amputação é o desenvolvimento de úlceras diabéticas, sendo acompanhada de uma elevada taxa de mortalidade aos cinco anos. A isquemia por afecção do território macrovascular é um factor fisiopatológico essencial no desenvolvimento de úlceras isquémicas. Os tratamentos existentes são prolongados e associados a elevadas taxas de insucesso e recidiva, exigindo a combinação de múltiplas modalidades terapêuticas. A laserterapia de baixa potência tem sido usada como terapêutica adjuvante do pé diabético, desde a década de 60 do século XX, devido aos seus hipotéticos efeitos estimuladores da microcirculação e da reparação tecidular. Material e Métodos: Identificação de estudos científicos publicados através de uma pesquisa bibliográfica da Pubmed, The Cochrane Library e Cochrane Controlled Trials Register. Discussão e Conclusões: A evidência existente é favorável para modelos celulares in vitro, mas conflituosa em modelos animais e populações humanas. Existe uma grande heterogeneidade metodológica, que pode ser responsável pelos resultados discordantes. São propostas orientações para estudos futuros neste âmbito, nomeadamente a caracterização detalhada das úlceras e os parâmetros de tratamento com laser. São necessários estudos bem controlados, duplamente ocultos e aleatorizados. Seguindo o primum non nocere, a laserterapia pode ser utilizada como terapêutica adjuvante no tratamento do pé diabético, uma vez que é incruenta, de rápida aplicação e de baixo custo, sem efeitos adversos significativos.
Resumo:
The Rural Postman Problem (RPP) is a particular Arc Routing Problem (ARP) which consists of determining a minimum cost circuit on a graph so that a given subset of required edges is traversed. The RPP is an NP-hard problem with significant real-life applications. This paper introduces an original approach based on Memetic Algorithms - the MARP algorithm - to solve the RPP and, also deals with an interesting Industrial Application, which focuses on the path optimization for component cutting operations. Memetic Algorithms are a class of Metaheuristics which may be seen as a population strategy that involves cooperation and competition processes between population elements and integrates “social knowledge”, using a local search procedure. The MARP algorithm is tested with different groups of instances and the results are compared with those gathered from other publications. MARP is also used in the context of various real-life applications.
Resumo:
1.Pre-assessment data of the patient A 2-year-old boy, weighing 15 kg was admitted with a history of limited mouth opening(inter-incisor distance of 6 mm), hypoplastic and retrognathic mandible (bird face deformity) and facial asymmetry from left temporomandibular joint ankylosis (TMJA). He was born at term, after an uneventful pregnancy, and there was no report of trauma during caesarean section. No other possible aetiologies were identified. He was scheduled for mandibular osteotomy. Preoperative ENT examination revealed adenotonsillar hypertrophy. 2. Anaesthetic Plan A fiberoptic nasal intubation was performed under deep inhalation anaesthesia with sevoflurane, with the patient breathing spontaneously. Midazolam (0.05 mg.kg-1) and alfentanil (0.03 mg.kg-1) were given and anaesthesia was maintained with O2/air and sevoflurane. No neuromuscular blocking agent was administered since the surgical team needed facial nerve monitoring. 3. Description of incident During surgery an accidental extubation occurred and an attempt was made to reintubate the trachea by direct laryngoscopy. Although the osteotomy was nearly completed, the vocal cords could not be visualized (Cormack-Lehane grade IV laryngoscopic view). 4. Solving the problem Re-intubation was finally accomplished with the flexible fiberscope and the procedure was concluded without any more incidents. Extubation was performed 24 hours postoperatively with the patient fully awake. After surgery mouth opening improved to inter-incisor gap of 15 mm. 5. Lessons learned and take home message Two airways issues present in this case can lead to difficultventilation and intubation: TMJA and adenotonsillar hypertrophy. These difficulties were anticipated and managed accordingly. The accidental extubation brought to our attention the fact that, even after surgical correction, this airway remains challenging. Even with intensive jaw stretchingexercises there is a high incidence of re-ankylosis, especially in younger patients. One should bear that in mind when anaesthetizing patients with TMJA.
Resumo:
We report three new rickettsiosis human cases in Uruguay. The three clinical cases presented clinical manifestations similar to previous reported cases of Rickettsia parkeri in the United States; that is mild fever (< 40 ºC), malaise, headache, rash, inoculation eschar at the tick bite site, regional lymphadenopathy, and no lethality. Serological antibody-absorption tests with purified antigens of R. parkeri and Rickettsia rickettsii, associated with immunofluorescence assay indicated that the patients in two cases were infected by R. parkeri. Epidemiological and clinical evidences, coupled with our serological analysis, suggest that R. parkeri is the etiological agent of human cases of spotted fever in Uruguay, a disease that has been recognized in that country as cutaneous-ganglionar rickettsiosis.
Resumo:
No âmbito da investigação operacional o problema de empacotamento de contentores é conhecido por procurar definir uma configuração de carga, de forma a otimizar a utilização de um espaço disponível para efetuar o empacotamento. Este problema pode ser apresentado em diversas formas, formas estas que variam em função das características de cada empacotamento. Estas características podem ser: o tipo de carga que se pretende carregar (homogénea ou heterogénea), a possibilidade de a carga poder sofrer rotações em todas as suas dimensões ou apenas em algumas, o lucro que está associado a cada caixa carregada ou restrições inerentes ao contentor como por exemplo dimensões. O interesse pelo estudo de problemas de empacotamento de contentores tem vindo a receber cada vez mais ênfase por várias razões, uma delas é o interesse financeiro dado que o transporte é uma prática que representa custos, sendo importante diminuir estes custos aproveitando o volume do contentor da melhor forma. Outra preocupação que motiva o estudo deste problema prende-se com fatores ambientes, onde se procura racionalizar os recursos naturais estando esta também ligada a questões financeiras. Na literatura podem ser encontradas varias propostas para solucionar este problema, cada uma destas dirigidas a uma variante do problema, estas propostas podem ser determinísticas ou não determinísticas onde utilizam heurísticas ou metaheurísticas. O estudo realizado nesta dissertação descreve algumas destas propostas, nomeadamente as metaheurísticas que são utilizadas na resolução deste problema. O trabalho aqui apresentado traz também uma nova metaheurísticas, mais precisamente um algoritmo genético que terá como objetivo, apresentar uma configuração de carga para um problema de empacotamento de um contentor. O algoritmo genético tem como objetivo a resolução do seguinte problema: empacotar várias caixas retangulares com diversos tamanhos num contentor. Este problema é conhecido como Bin-Packing. A novidade que este algoritmo genético vai introduzir nas diversas soluções apresentadas até à data, é uma nova forma de criar padrões iniciais, ou seja, é utilizada a heurística HSSI (Heurística de Suavização de Superfícies Irregulares) que tem como objetivo criar uma população inicial de forma a otimizar o algoritmo genético. A heurística HSSI tenta resolver problemas de empacotamento simulando, o comportamento da maioria das pessoas ao fazer este processo na vida real, contudo, tem um campo de busca reduzido entre as soluções possíveis e será então utilizado um algoritmo genético para ampliar este campo de busca e explorar novas soluções. No final pretende-se obter um software onde será possível configurar um dado problema de empacotamento de um contentor e obter, a solução do mesmo através do algoritmo genético. Assim sendo, o estudo realizado tem como principal objetivo contribuir com pesquisas e conclusões, sobre este problema e trazer uma nova proposta de solução para o problema de empacotamento de contentores.
Resumo:
Os Mercados Eletrónicos atingiram uma complexidade e nível de sofisticação tão elevados, que tornaram inadequados os modelos de software convencionais. Estes mercados são caracterizados por serem abertos, dinâmicos e competitivos, e constituídos por várias entidades independentes e heterogéneas. Tais entidades desempenham os seus papéis de forma autónoma, seguindo os seus objetivos, reagindo às ocorrências do ambiente em que se inserem e interagindo umas com as outras. Esta realidade levou a que existisse por parte da comunidade científica um especial interesse no estudo da negociação automática executada por agentes de software [Zhang et al., 2011]. No entanto, a diversidade dos atores envolvidos pode levar à existência de diferentes conceptualizações das suas necessidades e capacidades dando origem a incompatibilidades semânticas, que podem prejudicar a negociação e impedir a ocorrência de transações que satisfaçam as partes envolvidas. Os novos mercados devem, assim, possuir mecanismos que lhes permitam exibir novas capacidades, nomeadamente a capacidade de auxiliar na comunicação entre os diferentes agentes. Pelo que, é defendido neste trabalho que os mercados devem oferecer serviços de ontologias que permitam facilitar a interoperabilidade entre os agentes. No entanto, os humanos tendem a ser relutantes em aceitar a conceptualização de outros, a não ser que sejam convencidos de que poderão conseguir um bom negócio. Neste contexto, a aplicação e exploração de relações capturadas em redes sociais pode resultar no estabelecimento de relações de confiança entre vendedores e consumidores, e ao mesmo tempo, conduzir a um aumento da eficiência da negociação e consequentemente na satisfação das partes envolvidas. O sistema AEMOS é uma plataforma de comércio eletrónico baseada em agentes que inclui serviços de ontologias, mais especificamente, serviços de alinhamento de ontologias, incluindo a recomendação de possíveis alinhamentos entre as ontologias dos parceiros de negociação. Este sistema inclui também uma componente baseada numa rede social, que é construída aplicando técnicas de análise de redes socias sobre informação recolhida pelo mercado, e que permite melhorar a recomendação de alinhamentos e auxiliar os agentes na sua escolha. Neste trabalho são apresentados o desenvolvimento e implementação do sistema AEMOS, mais concretamente: • É proposto um novo modelo para comércio eletrónico baseado em agentes que disponibiliza serviços de ontologias; • Adicionalmente propõem-se o uso de redes sociais emergentes para captar e explorar informação sobre relações entre os diferentes parceiros de negócio; • É definida e implementada uma componente de serviços de ontologias que é capaz de: • o Sugerir alinhamentos entre ontologias para pares de agentes; • o Traduzir mensagens escritas de acordo com uma ontologia em mensagens escritas de acordo com outra, utilizando alinhamentos previamente aprovados; • o Melhorar os seus próprios serviços recorrendo às funcionalidades disponibilizadas pela componente de redes sociais; • É definida e implementada uma componente de redes sociais que: • o É capaz de construir e gerir um grafo de relações de proximidade entre agentes, e de relações de adequação de alinhamentos a agentes, tendo em conta os perfis, comportamento e interação dos agentes, bem como a cobertura e utilização dos alinhamentos; • o Explora e adapta técnicas e algoritmos de análise de redes sociais às várias fases dos processos do mercado eletrónico. A implementação e experimentação do modelo proposto demonstra como a colaboração entre os diferentes agentes pode ser vantajosa na melhoria do desempenho do sistema e como a inclusão e combinação de serviços de ontologias e redes sociais se reflete na eficiência da negociação de transações e na dinâmica do mercado como um todo.
Resumo:
A existência de contribuições significativas de águas de infiltração e de águas pluviais nas redes de drenagem de águas residuais urbanas, motivaram a realização deste trabalho. Este estudo foi realizado no sistema de saneamento de Gondomar, utilizando os registos de caudais e qualidade das águas residuais em quatro estações de tratamento de águas residuais, durante quatro anos. O principal objectivo deste trabalho foi estimar as afluências de infiltração e precipitação ao sistema de saneamento e a identificação dos subsistemas críticos. Concluiu-se que a percentagem de volume excedente é cerca de 30% nos anos com maior ocorrência de precipitação. O propósito deste estudo foi também apresentar soluções para este problema, incluindo técnicas de inspecção e reparação dos elementos de drenagem, as quais foram definidas para os subsistemas identificados como críticos, Freixo e Rio Tinto. No Freixo mostrou-se importante a inspecção dos colectores, ramais e câmaras de visita, uma vez que o caudal afluente a este subsistema é muito superior ao esperado e a água residual apresenta-se diluída. Em Rio Tinto evidenciou-se como prioritária a detecção e eliminação de ligações abusivas, dado que são frequentes as ocorrências de exfiltração, com danos significativos. Para além das técnicas de detecção apresentadas considera-se que é necessário manter a monitorização de caudais e recipitação nos subsistemas, e se possível com registo contínuo ao longo do dia. Para a quantificação de precipitação é sugerida a utilização de três udómetros, de forma a permitir estabelecer com maior exactidão, a relação entre as contribuições pluviais e o caudal afluente. São apresentadas propostas, que incluem além de inspecções, ensaios e reparações, como um ponto de partida para a recolha de informação para actualização do adastro, com vista a uma futura aplicação da modelação matemática de previsão do comportamento destes subsistemas.
Resumo:
Dissertação para obtenção do Grau de Mestre em Lógica Computacional
Resumo:
A contínua subida dos preços dos combustíveis fósseis tradicionais aliada à crescente pressão por parte de várias instituições mundiais para uma política “verde” no que diz respeito aos combustíveis, levam a um aumento da procura dos biocombustíveis e é neste contexto que surge o biodiesel como um dos principais intervenientes. O biodiesel pode ser definido como um derivado éster monoalquílico de ácidos gordos de cadeia longa proveniente de fontes renováveis como óleos vegetais ou gorduras animais e que apresenta características semelhantes ao diesel de petróleo, podendo ser utilizado sem qualquer problema em motores de ignição por compressão. Este trabalho apresenta como principal objetivo o estudo da aplicação da tecnologia de ultrassons na produção de biodiesel. Foi utilizado neste trabalho como matéria-prima um óleo doméstico usado. Este óleo foi previamente filtrado sendo depois analisado o seu índice de acidez para avaliar o seu teor em ácidos gordos livres. O valor obtido para o índice de acidez do óleo foi de 1,91 mg KOH/g, um valor relativamente baixo permitindo a sua utilização sem ser necessário um tratamento inicial via esterificação para diminuir a acidez do mesmo. Foram realizados três ensaios de reação independentes, o primeiro recorrendo ao método tradicional de produção de biodiesel através de transesterificação e recorrendo a agitação mecânica e aquecimento, o segundo utilizando uma sonda de ultrassons com a potência de 500 W e um terceiro ensaio de reação utilizando uma sonda de ultrassons de 2000 W. Em todas as reações foi utilizada uma proporção de 1:5 de óleo usado e metanol e 0,5 % (em relação á massa de óleo utilizada) de catalisador metilato de sódio. Todas as alíquotas recolhidas durante os ensaios foram analisadas através de cromatografia gasosa de modo a determinar o conteúdo em ésteres presente em cada uma delas. A reação convencional teve uma duração total de 150 minutos e decorreu a uma temperatura de 65ºC e a agitação constante de 500 rpm. Ao longo da reação foram retiradas alíquotas de cerca de 25 ml, que foram tratadas de imediato e posteriormente analisadas de modo a estudar-se o comportamento da reação ao longo do tempo. A percentagem de ésteres metílicos no biodiesel obtida ao fim de 90 minutos foi de 81,3%. Em seguida realizou-se uma reação utilizando uma sonda de ultrassons de 500 W de potência mergulhada num recipiente reacional devidamente isolado com uma rolha de cortiça de modo a minimizar as perdas de metanol por evaporação. O tempo total de reação foi de 90 minutos e foram-se retirando alíquotas de cerca de 25 ml para acompanhar o desenrolar da reação, tendo-se obtido uma percentagem de ésteres metílicos de 85,9% ao fim dos 90 minutos. Foi realizada por fim um terceiro ensaio de reação utilizando uma sonda de 2000 W com uma duração total de 90 minutos, tendo-se obtido resultados pouco satisfatórios (77,7%), provavelmente devido a algum problema operacional relacionado com a sonda de ultrassons utilizada ou devido a uma geometria do reator pouco eficiente. Os produtos resultantes da reação convencional e da reação utilizando a sonda de ultrassons de 500 W, assim como o óleo utilizado como matéria-prima foram caracterizados em termos de índice de acidez, densidade a 15ºC e viscosidade a 40ºC.
Resumo:
Leishmaniasis remains a major public health problem worldwide and is classified as Category I by the TDR/WHO, mainly due to the absence of control. Many experimental models like rodents, dogs and monkeys have been developed, each with specific features, in order to characterize the immune response to Leishmania species, but none reproduces the pathology observed in human disease. Conflicting data may arise in part because different parasite strains or species are being examined, different tissue targets (mice footpad, ear, or base of tail) are being infected, and different numbers (“low” 1×102 and “high” 1×106) of metacyclic promastigotes have been inoculated. Recently, new approaches have been proposed to provide more meaningful data regarding the host response and pathogenesis that parallels human disease. The use of sand fly saliva and low numbers of parasites in experimental infections has led to mimic natural transmission and find new molecules and immune mechanisms which should be considered when designing vaccines and control strategies. Moreover, the use of wild rodents as experimental models has been proposed as a good alternative for studying the host-pathogen relationships and for testing candidate vaccines. To date, using natural reservoirs to study Leishmania infection has been challenging because immunologic reagents for use in wild rodents are lacking. This review discusses the principal immunological findings against Leishmania infection in different animal models highlighting the importance of using experimental conditions similar to natural transmission and reservoir species as experimental models to study the immunopathology of the disease.
Resumo:
A crescente tendencia no acesso móvel tem sido potenciada pela tecnologia IEEE 802.11. Contudo, estas redes têm alcance rádio limitado. Para a extensão da sua cobertura é possível recorrer a redes emalhadas sem fios baseadas na tecnologia IEEE 802.11, com vantagem do ponto de vista do custo e da flexibilidade de instalação, face a soluções cabladas. Redes emalhadas sem fios constituídas por nós com apenas uma interface têm escalabilidade reduzida. A principal razão dessa limitação deve-se ao uso do mecanismo de acesso ao meio partilhado Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) em topologias multi-hop. Especificamente, o CSMA/CA não evita o problema do nó escondido levando ao aumento do número de colisões e correspondente degradação de desempenho com impacto direto no throughput e na latência. Com a redução da tecnologia rádio torna-se viável a utilização de múltiplos rádios por nó, sem com isso aumentar significativamente o custo da solução final de comunicações. A utilização de mais do que um rádio por nó de comuniações permite superar os problemas de desempenho inerentes ás redes formadas por nós com apenas um rádio. O objetivo desta tese, passa por desenvolver uma nova solução para redes emalhadas multi-cana, duar-radio, utilizando para isso novos mecanismos que complementam os mecanismos definidos no IEEE 802.11 para o estabelecimento de um Basic Service Set (BSS). A solução é baseada na solução WiFIX, um protocolo de routing para redes emalhadas de interface única e reutiliza os mecanismos já implementados nas redes IEEE 802.11 para difundir métricas que permitam à rede escalar de forma eficaz minimizando o impacto na performance. A rede multi-hop é formada por nós equipados com duas interfaces, organizados numa topologia hierárquica sobre múltiplas relações Access Point (AP) – Station (STA). Os resultados experimentais obtidos mostram a eficácia e o bom desempenho da solução proposta face à solução WiFIX original.