932 resultados para Scene graph


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electricity markets are complex environments, involving a large number of different entities, playing in a dynamic scene to obtain the best advantages and profits. MASCEM is a multi-agent electricity market simulator to model market players and simulate their operation in the market. Market players are entities with specific characteristics and objectives, making their decisions and interacting with other players. MASCEM provides several dynamic strategies for agents’ behavior. This paper presents a method that aims to provide market players with strategic bidding capabilities, allowing them to obtain the higher possible gains out of the market. This method uses a reinforcement learning algorithm to learn from experience how to choose the best from a set of possible bids. These bids are defined accordingly to the cost function that each producer presents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Competitive electricity markets are complex environments, involving a large number of different entities, playing in a dynamic scene to obtain the best advantages and profits. MASCEM is an electricity market simulator able to model market players and simulate their operation in the market. As market players are complex entities, having their characteristics and objectives, making their decisions and interacting with other players, a multi-agent architecture is used and proved to be adequate. MASCEM players have learning capabilities and different risk preferences. They are able to refine their strategies according to their past experience (both real and simulated) and considering other agents’ behavior. Agents’ behavior is also subject to its risk preferences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Europe, the first half of the twentieth century was characterize by the rise of authoritarian regimes that used cinema as a propaganda tool for the prosecution and consolidation of political power. Indeed, film conveyed images, symbols, myths to an extent and strength that no other media had. In Portugal, the 1930 and 1940’s represent one of the most significant phases, either because of the introduction/strengthening of the technology of sound cinema, whether by the action of the Secretariado Nacional de Propaganda, the propaganda instrument of Estado Novo. Among the multitude of ways that this organization resorted to spread the political message of Estado Novo, cinema in particular aroused the attention of its director, António Ferro, as a preferred mean of communication with the masses. This communication seeks to examine the role played by António Ferro in the national film scene. It intends to determine the nature and direction of his cinematographic vision, i.e., his ethical and aesthetic assumptions, firstly, and secondly, its political action towards the portuguese film industry, as director of the SPN / SNI, under the tutelage of Oliveira Salazar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação de Doutor António Correia de Barros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica no perfil de Manutenção e Produção

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Vulcanologia e Riscos Geológicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Almeida Garrett foi uma personalidade fulcral para a cultura da primeira metade do século XIX em Portugal. As suas obras reflectem o tempo em que viveu, as ideias que defendeu e têm também referências à indumentária e à moda. Foi o editor do periódico de moda O Toucador. A sua biografia revela uma relação com a indumentária pessoal muito atenta e cuidada o que permite que seja considerado um dos primeiros dandies portugueses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, a sociedade depara-se com um enorme desafio: a gestão dos resíduos sólidos urbanos. A sua produção tem vindo a aumentar devido à intensificação das actividades humanas nas últimas décadas. A criação de um sistema de gestão dos resíduos é fundamental para definir prioridades nas acções e metas para que haja uma prevenção na produção de resíduos. Os resíduos sólidos urbanos quando dispostos de forma inadequada podem provocar graves impactos ambientais, tendo sido neste trabalho demonstrado que através de uma gestão eficiente destes é possível aproveitar o potencial energético do biogás e consequentemente diminuir o consumo de combustíveis fósseis reduzindo o impacto ambiental. Os aterros sanitários devem funcionar como a ultima etapa do sistema de tratamento dos resíduos sólidos urbanos e são uma alternativa a ter em conta se forem tomadas todas as medidas necessárias. Estima-se que os aterros sejam responsáveis pela produção de 6-20% do metano existente e que contribuam com 3-4% da produção anual de gases efeito de estufa provenientes de actividades antropogénicas1. É, portanto, fundamental proceder a uma impermeabilização do solo e à criação de condições para recolha do biogás produzido durante a decomposição dos resíduos. Foi estimada a produção de biogás, de acordo com o modelo “LandGEM”, no entanto comparando esta produção com a produção medida pelo explorador, constatou-se uma diferença significativa que pode ser justificada pelo: modo de funcionamento do aterro (longos períodos de paragem); desvio dos resíduos rapidamente biodegradáveis para valorização; a existência de uma percentagem superior ao normal de oxigénio no biogás; a utilização de escórias e cinzas, e a correspondente redução da humidade devido ao compactamento exercido sobre os resíduos durante a sua deposição. Visto tratar-se de um estudo de viabilidade económica da valorização do biogás, foram propostos três cenários para a valorização do biogás. O 1º cenário contempla a instalação de um sistema gerador de energia para comercialização junto da Rede Eléctrica Nacional. O 2º Cenário contempla a instalação de um sistema alternativo de alimentação à caldeira da central de valorização energética de forma a substituir o combustível utilizado actualmente. E o 3º Cenário vem de encontro com os resultados observados actualmente onde se verifica uma reduzida produção/recolha de biogás no aterro. Assim é proposto um sistema gerador de energia que garanta o auto-consumo da exploração do aterro (26 MWh/ano). Qualquer um dos cenários apresenta uma VAL negativa o que leva a concluir que não são viáveis. No entanto, através da análise de sensibilidade, verificamos que estes são claramente afectados por factores como o benefício e o investimento anual, concluindo-se que com alterações nos factores de cálculo, como por exemplo, um aumento no consumo de combustível auxiliar da caldeira (2º cenário), ou com um aumento da factura eléctrica (3º cenário), ou com o aumento do tempo de retorno do investimento inicial(1º cenário), os projectos podem-se tornar viáveis. Por fim importa referir que independentemente da valorização é fundamental continuar a eliminar a máxima quantidade de metano produzida para tentar diminuir o impacto que este tem sobre o ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação apresenta uma solução para o problema de modelização tridimensional de galerias subterrâneas. O trabalho desenvolvido emprega técnicas provenientes da área da robótica móvel para obtenção um sistema autónomo móvel de modelização, capaz de operar em ambientes não estruturados sem acesso a sistemas de posicionamento global, designadamente GPS. Um sistema de modelização móvel e autónomo pode ser bastante vantajoso, pois constitui um método rápido e simples de monitorização das estruturas e criação de representações virtuais das galerias com um elevado nível de detalhe. O sistema de modelização desloca-se no interior dos túneis para recolher informações sensoriais sobre a geometria da estrutura. A tarefa de organização destes dados com vista _a construção de um modelo coerente, exige um conhecimento exacto do percurso praticado pelo sistema, logo o problema de localização da plataforma sensorial tem que ser resolvido. A formulação de um sistema de localização autónoma tem que superar obstáculos que se manifestam vincadamente nos ambientes underground, tais como a monotonia estrutural e a já referida ausência de sistemas de posicionamento global. Neste contexto, foi abordado o conceito de SLAM (Simultaneous Loacalization and Mapping) para determinação da localização da plataforma sensorial em seis graus de liberdade. Seguindo a abordagem tradicional, o núcleo do algoritmo de SLAM consiste no filtro de Kalman estendido (EKF { Extended Kalman Filter ). O sistema proposto incorpora métodos avançados do estado da arte, designadamente a parametrização em profundidade inversa (Inverse Depth Parametrization) e o método de rejeição de outliers 1-Point RANSAC. A contribuição mais importante do método por nós proposto para o avanço do estado da arte foi a fusão da informação visual com a informação inercial. O algoritmo de localização foi testado com base em dados reais, adquiridos no interior de um túnel rodoviário. Os resultados obtidos permitem concluir que, ao fundir medidas inerciais com informações visuais, conseguimos evitar o fenómeno de degeneração do factor de escala, comum nas aplicações de localização através de sistemas puramente monoculares. Provámos simultaneamente que a correcção de um sistema de localização inercial através da consideração de informações visuais é eficaz, pois permite suprimir os desvios de trajectória que caracterizam os sistemas de dead reckoning. O algoritmo de modelização, com base na localização estimada, organiza no espaço tridimensional os dados geométricos adquiridos, resultando deste processo um modelo em nuvem de pontos, que posteriormente _e convertido numa malha triangular, atingindo-se assim uma representação mais realista do cenário original.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Lei de Potência é uma particularidade de um sistema não linear, revelando um sistema complexo próximo da auto-organização. Algumas características de sistemas naturais e artificiais, tais como dimensão populacional das cidades, valor dos rendimentos pessoais, frequência de ocorrência de palavras em textos e magnitude de sismos, seguem distribuições do tipo Lei de Potência. Estas distribuições indicam que pequenas ocorrências são muito comuns e grandes ocorrências são raras, podendo porém verificar-se com razoável probabilidade. A finalidade deste trabalho visa a identificação de fenómenos associados às Leis de Potência. Mostra-se o comportamento típico destes fenómenos, com os dados retirados dos vários casos de estudo e com a ajuda de uma meta-análise. As Leis de Potência em sistemas naturais e artificiais apresentam uma proximidade a um padrão, quando os valores são normalizados (frequências relativas) para dar origem a um meta-gráfico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a crescente geração, armazenamento e disseminação da informação nos últimos anos, o anterior problema de falta de informação transformou-se num problema de extracção do conhecimento útil a partir da informação disponível. As representações visuais da informação abstracta têm sido utilizadas para auxiliar a interpretação os dados e para revelar padrões de outra forma escondidos. A visualização de informação procura aumentar a cognição humana aproveitando as capacidades visuais humanas, de forma a tornar perceptível a informação abstracta, fornecendo os meios necessários para que um humano possa absorver quantidades crescentes de informação, com as suas capacidades de percepção. O objectivo das técnicas de agrupamento de dados consiste na divisão de um conjunto de dados em vários grupos, em que dados semelhantes são colocados no mesmo grupo e dados dissemelhantes em grupos diferentes. Mais especificamente, o agrupamento de dados com restrições tem o intuito de incorporar conhecimento a priori no processo de agrupamento de dados, com o objectivo de aumentar a qualidade do agrupamento de dados e, simultaneamente, encontrar soluções apropriadas a tarefas e interesses específicos. Nesta dissertação é estudado a abordagem de Agrupamento de Dados Visual Interactivo que permite ao utilizador, através da interacção com uma representação visual da informação, incorporar o seu conhecimento prévio acerca do domínio de dados, de forma a influenciar o agrupamento resultante para satisfazer os seus objectivos. Esta abordagem combina e estende técnicas de visualização interactiva de informação, desenho de grafos de forças direccionadas e agrupamento de dados com restrições. Com o propósito de avaliar o desempenho de diferentes estratégias de interacção com o utilizador, são efectuados estudos comparativos utilizando conjuntos de dados sintéticos e reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analisar a acurácia do diagnóstico de dois protocolos de imunofluorescência indireta para leishmaniose visceral canina. MÉTODOS: Cães provenientes de inquérito soroepidemiológico realizado em área endêmica nos municípios de Araçatuba e de Andradina, na região noroeste do estado de São Paulo, em 2003, e área não endêmica da região metropolitana de São Paulo, foram utilizados para avaliar comparativamente dois protocolos da reação de imunofluorescência indireta (RIFI) para leishmaniose: um utilizando antígeno heterólogo Leishmania major (RIFI-BM) e outro utilizando antígeno homólogo Leishmania chagasi (RIFI-CH). Para estimar acurácia utilizou-se a análise two-graph receiver operating characteristic (TG-ROC). A análise TG-ROC comparou as leituras da diluição 1:20 do antígeno homólogo (RIFI-CH), consideradas como teste referência, com as diluições da RIFI-BM (antígeno heterólogo). RESULTADOS: A diluição 1:20 do teste RIFI-CH apresentou o melhor coeficiente de contingência (0,755) e a maior força de associação entre as duas variáveis estudadas (qui-quadrado=124,3), sendo considerada a diluição-referência do teste nas comparações com as diferentes diluições do teste RIFI-BM. Os melhores resultados do RIFI-BM foram obtidos na diluição 1:40, com melhor coeficiente de contingência (0,680) e maior força de associação (qui-quadrado=80,8). Com a mudança do ponto de corte sugerido nesta análise para a diluição 1:40 da RIFI-BM, o valor do parâmetro especificidade aumentou de 57,5% para 97,7%, embora a diluição 1:80 tivesse apresentado a melhor estimativa para sensibilidade (80,2%) com o novo ponto de corte. CONCLUSÕES: A análise TG-ROC pode fornecer importantes informações sobre os testes de diagnósticos, além de apresentar sugestões sobre pontos de cortes que podem melhorar as estimativas de sensibilidade e especificidade do teste, e avaliá-los a luz do melhor custo-benefício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Linear unmixing decomposes a hyperspectral image into a collection of reflectance spectra of the materials present in the scene, called endmember signatures, and the corresponding abundance fractions at each pixel in a spatial area of interest. This paper introduces a new unmixing method, called Dependent Component Analysis (DECA), which overcomes the limitations of unmixing methods based on Independent Component Analysis (ICA) and on geometrical properties of hyperspectral data. DECA models the abundance fractions as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. The mixing matrix is inferred by a generalized expectation-maximization (GEM) type algorithm. The performance of the method is illustrated using simulated and real data.