975 resultados para Real Building Fires
Resumo:
A compreensão das interacções entre os oceanos, a linha de costa, a qualidade do ar e as florestas só será possível através do registo e análise de informação geo-temporalmente referenciada. Mas a monitorização de grandes áreas apresenta o problema da cobertura espacial e temporal, e os custos nela envolvidos pela impossibilidade de disseminar a quantidade de estações de monitorização necessários à compreensão do fenómeno. É necessário então definir metodologias de colocação de sensores e recolha de informação de forma robusta, económica e temporalmente útil. Nesta dissertação apresentamos uma estratégia de monitorização ambiental, para meios hídricos, (ou de grande dimensão) que baseada em sistemas móveis e alguns princípios da geoestatística, fornece uma ferramenta de monitorização mais económica, sem prejuízo da qualidade de informação. Os modelos usados na geoestatística assentam na ideia de que medidas mais próximas tendem a serem mais parecidas do que valores observados em locais distantes e fornece métodos para quantificar esta correlação espacial e incorporá-la na estimação. Os resultados obtidos sustentam a convicção do uso de veículos móveis em redes de sensores e que contribuímos para responder à seguinte questão “Qual a técnica que nos permite com poucos sensores monitorizar grandes áreas?”. A solução passará por modelos de estimação de grandezas utilizados na geoestatística associados a sistemas móveis.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
The main goal of this research study was the removal of Cu(II), Ni(II) and Zn(II) from aqueous solutions using peanut hulls. This work was mainly focused on the following aspects: chemical characterization of the biosorbent, kinetic studies, study of the pH influence in mono-component systems, equilibrium isotherms and column studies, both in mono and tri-component systems, and with a real industrial effluent from the electroplating industry. The chemical characterization of peanut hulls showed a high cellulose (44.8%) and lignin (36.1%) content, which favours biosorption of metal cations. The kinetic studies performed indicate that most of the sorption occurs in the first 30 min for all systems. In general, a pseudo-second order kinetics was followed, both in mono and tri-component systems. The equilibrium isotherms were better described by Freundlich model in all systems. Peanut hulls showed higher affinity for copper than for nickel and zinc when they are both present. The pH value between 5 and 6 was the most favourable for all systems. The sorbent capacity in column was 0.028 and 0.025 mmol g-1 for copper, respectively in mono and tri-component systems. A decrease of capacity for copper (50%) was observed when dealing with the real effluent. The Yoon-Nelson, Thomas and Yan’s models were fitted to the experimental data, being the latter the best fit.
Resumo:
D. João de Magalhães e Avelar (1754-1833) formou aquela que, ao tempo, era a maior biblioteca privada portuguesa. Com cerca de 36000 volumes, foi elogiada por personalidades nacionais e estrangeiras, por aliar à quantidade de volumes inúmeros e valiosíssimos manuscritos. Formada ao longo dos séculos XVIII e XIX, durante mais de 30 anos, originou, em 1833, o primeiro núcleo da actual Biblioteca Pública Municipal do Porto. Numa época em que possuir livros era sinónimo de prestígio social mas num período em que quase não havia tradição de bibliotecas públicas no nosso país, contrariamente ao que acontecia noutras realidades, a livraria privada de Avelar formou, com outras, a Real Biblioteca Pública da Cidade do Porto. Em 1833, aquando do primeiro aniversário da entrada do exército liberal no Porto, por decreto, criou-se a biblioteca portuense. Estabelecida na casa que servia de Hospício dos Religiosos de Santo António do Val da Piedade, à praça da Cordoaria, tinha como objectivo satisfazer a utilidade pública, estando aberta todos os dias, excepto domingos e feriados. Propriedade da cidade do Porto, ficava sujeita à administração da Câmara que se obrigava à sua guarda, manutenção, conservação, bem como à constante aquisição de espólio. Como veremos, tratou-se de um processo conflituoso mas o Porto obtinha, definitivamente, a sua biblioteca pública.
Resumo:
Conferência - 16th International Symposium on Wireless Personal Multimedia Communications (WPMC)- Jun 24-27, 2013
Resumo:
No passado, as acções publicitárias eram rotuladas como above the line e below the line, referindo-se à dicotomia de pontos de contacto com os públicos-alvo via Meios de Comunicação Social ou via Ponto de Venda. A esta dicotomia de meios e instrumentos, os anos 90 vieram trazer um terceiro ponto de contacto, crescentemente omnipresente e hegemónico, a world wide web ou rede, a que se acedia via computador. As acções de marketing e comunicação passaram então a rotular-se como online e offline, passando, não já a referir-se aos pontos de contacto, mas aos canais pelos quais circulavam as mensagens e acções das marcas. Desde o início deste século, o poder do digital veio crescendo, em software e hardware, em terminais e tecnologias, assistindo-se a uma transferência de esforços de comunicação, da esfera real para a esfera do digital. O deslumbramento pelo digital conquistou mesmo algumas marcas de dimensão mundial que hoje apostam integralmente o seu orçamento nesta forma de marketing, nas suas múltiplas facetas. Contudo, e porque se tem tornado óbvio que os públicos distribuem os seus favores por múltiplos touch points, para maximizar o impacto, assiste-se agora a um fenómeno único, potenciado por novas tecnologias que surgem todos os dias: em estratégias que se podem denominar de all-line, verifica-se a fusão entre dois mundos, mundo real e mundo digital, em múltiplas actividades de marketing que fazem convergir estas duas realidades em plataformas que vão do computador ao tablet, do smartphone à vending machine interactiva, do facebook ao Google maps, da imprensa tradicional ao pinterest. É esta convergência mundo real - mundo digital que abre agora novas oportunidades à comunicação publicitária, potenciando os ingredientes das marcas de sucesso no futuro: sensações (estímulo dos sentidos), intimidade e mistério, num cocktail suportado por uma nova criatividade.
Resumo:
O uso da energia eólica para a produção de eletricidade apresenta na última década um crescimento apreciável. Monitorizar o desempenho dos aerogeradores torna-se um processo incontornável, quer por motivos financeiros, quer por questões operacionais. Os investimentos despendidos na construção de parques eólicos são muito consideráveis, pelo que é essencial a análise constante dos aspetos preponderantes no retorno do investimento. A maximização da energia produzida por cada aerogerador é o objetivo principal da monitorização dos parques eólicos. Os sistemas Supervisory Control and Data Acquisition (SCADAs) instalados nos parques eólicos permitem uma supervisão em tempo real relativamente ao estado e funcionamento dos aerogeradores, adquirindo uma elevada importância na avaliação dos rendimentos energéticos e anomalias de funcionamento, garantido desta forma melhorias de produtividade. O objetivo deste trabalho é estimar a energia produzida pelos aerogeradores quando ocorrem falhas de comunicação com o seu contador interno ou avaria do mesmo. A ocorrência destas situações não permite a monitorização da energia produzida durante esse período. Foram analisados dados operacionais dos aerogeradores relativos a um parque eólico localizado na zona Norte de Portugal, sendo usados os dados recolhidos pelo sistema SCADA sobre a forma de médias de 10 min referentes ao período de janeiro de 2011 a agosto 2011. O desempenho da rede neuronal depende da qualidade e quantidade do conjunto de dados usados para o treino da rede. Os dados usados devem representar de forma fiel o estado que se pretende para o equipamento. Para a obtenção do objetivo proposto foi fundamental a identificação das grandezas disponíveis a utilizar no método de cálculo da energia produzida. Os resultados obtidos com aplicação das redes neuronais no método de cálculo da energia produzida por aerogeradores demonstram que independentemente do período de indisponibilidade da informação referente à energia produzida é possível estimar o valor da mesma.
Resumo:
O panorama atual da emergência e socorro de primeira linha em Portugal, carateriza-se por uma grande aposta ao longo dos últimos anos num incremento contínuo da qualidade e da eficiência que estes serviços prestam às populações locais. Com vista à prossecução do objetivo de melhoria contínua dos serviços, foram realizados ao longo dos últimos anos investimentos avultados ao nível dos recursos técnicos e ao nível da contratação e formação de recursos humanos altamente qualificados. Atualmente as instituições que prestam socorro e emergência de primeira linha estão bem dotadas ao nível físico e ao nível humano dos recursos necessários para fazerem face aos mais diversos tipos de ocorrências. Contudo, ao nível dos sistemas de informação de apoio à emergência e socorro de primeira linha, verifica-se uma inadequação (e por vezes inexistência) de sistemas informáticos capazes de suportar convenientemente o atual contexto de exigência e complexidade da emergência e socorro. Foi feita ao longo dos últimos anos, uma forte aposta na melhoria dos recursos físicos e dos recursos humanos encarregues da resposta àsemergência de primeira linha, mas descurou-se a área da gestão e análise da informação sobre as ocorrências, assim como, o delinear de possíveis estratégias de prevenção que uma análise sistematizada da informação sobre as ocorrências possibilita. Nas instituições de emergência e socorro de primeira linha em Portugal (bombeiros, proteção civil municipal, PSP, GNR, polícia municipal), prevalecem ainda hoje os sistemas informáticos apenas para o registo das ocorrências à posteriori e a total inexistência de sistemas de registo de informação e de apoio à decisão na alocação de recursos que operem em tempo real. A generalidade dos sistemas informáticos atualmente existentes nas instituições são unicamente de sistemas de backoffice, que não aproveitam a todas as potencialidades da informação operacional neles armazenada. Verificou-se também, que a geo-localização por via informática dos recursos físicos e de pontos de interesse relevantes em situações críticas é inexistente a este nível. Neste contexto, consideramos ser possível e importante alinhar o nível dos sistemas informáticos das instituições encarregues da emergência e socorro de primeira linha, com o nível dos recursos físicos e humanos que já dispõem atualmente. Dado que a emergência e socorro de primeira linha é um domínio claramente elegível para a aplicação de tecnologias provenientes dos domínios da inteligência artificial (nomeadamente sistemas periciais para apoio à decisão) e da geo-localização, decidimos no âmbito desta tese desenvolver um sistema informático capaz de colmatar muitas das lacunas por nós identificadas ao nível dos sistemas informáticos destas instituições. Pretendemos colocar as suas plataformas informáticas num nível similar ao dos seus recursos físicos e humanos. Assim, foram por nós identificadas duas áreas chave onde a implementação de sistemas informáticos adequados às reais necessidades das instituições podem ter um impacto muito proporcionar uma melhor gestão e otimização dos recursos físicos e humanos. As duas áreas chave por nós identificadas são o suporte à decisão na alocação dos recursos físicos e a geolocalização dos recursos físicos, das ocorrências e dos pontos de interesse. Procurando fornecer uma resposta válida e adequada a estas duas necessidades prementes, foi desenvolvido no âmbito desta tese o sistema CRITICAL DECISIONS. O sistema CRITICAL DECISIONS incorpora um conjunto de funcionalidades típicas de um sistema pericial, para o apoio na decisão de alocação de recursos físicos às ocorrências. A inferência automática dos recursos físicos, assenta num conjunto de regra de inferência armazenadas numa base de conhecimento, em constante crescimento e atualização, com base nas respostas bem sucedidas a ocorrências passadas. Para suprimir as carências aos nível da geo-localização dos recursos físicos, das ocorrências e dos pontos de interesse, o sistema CRITICAL DECISIONS incorpora também um conjunto de funcionalidades de geo-localização. Estas permitem a geo-localização de todos os recursos físicos da instituição, a geo-localização dos locais e as áreas das várias ocorrências, assim como, dos vários tipos de pontos de interesse. O sistema CRITICAL DECISIONS visa ainda suprimir um conjunto de outras carências por nós identificadas, ao nível da gestão documental (planos de emergência, plantas dos edifícios) , da comunicação, da partilha de informação entre as instituições de socorro e emergência locais, da contabilização dos tempos de serviço, entre outros. O sistema CRITICAL DECISIONS é o culminar de um esforço colaborativo e contínuo com várias instituições, responsáveis pela emergência e socorro de primeira linha a nível local. Esperamos com o sistema CRITICAL DECISIONS, dotar estas instituições de uma plataforma informática atual, inovadora, evolutiva, com baixos custos de implementação e de operação, capaz de proporcionar melhorias contínuas e significativas ao nível da qualidade da resposta às ocorrências, das capacidades de prevenção e de uma melhor otimização de todos os tipos de recursos que têm ao dispor.
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).
Resumo:
Every year European citizens become victims of devastating fires, which are especially disastrous for Southern European countries. Apart from the numerous health and economic consequences, fires generate hazardous pollutants that are introduced into the environment, thus representing serious risks for public health. In that regard, particulate matter (PM) is of amajor concern. Thus, the objectives of thisworkwere to characterize the trend of forest fire occurrences and burnt area during the period of 2005 and 2010 and to study the influence of forest fires on levels of particulatematter PM10 and PM2.5. In 2010, 22,026 forest fires occurred in Portugal. The northern region was the most affected by forest fires, with 27% of occurrences in Oporto district. The annual means of PM10 and PM2.5 concentrations at two urban background sites were 25±14 μg m−3 and 8.2±4.9 μg m−3, and 17±13 μg m−3 and 7.3±5.9 μg m−3, respectively. At both sites the highest levels of PMfractionswere observed during July and August of 2010, corresponding to the periods when majority (66%) of forest fires occurred. Furthermore, PM10 daily limit at the two sites was exceeded during 20 and 5 days, respectively; 56%, and respectively 60% of those exceedances occurred during the forest fire season. Considering that the risks of forest fire ignition and severity are enhanced with elevated temperatures, the climate change might increase the environmental impacts of forest fires.
Resumo:
This paper focuses on evaluating the usability of an Intelligent Wheelchair (IW) in both real and simulated environments. The wheelchair is controlled at a high-level by a flexible multimodal interface, using voice commands, facial expressions, head movements and joystick as its main inputs. A Quasi-experimental design was applied including a deterministic sample with a questionnaire that enabled to apply the System Usability Scale. The subjects were divided in two independent samples: 46 individuals performing the experiment with an Intelligent Wheelchair in a simulated environment (28 using different commands in a sequential way and 18 with the liberty to choose the command); 12 individuals performing the experiment with a real IW. The main conclusion achieved by this study is that the usability of the Intelligent Wheelchair in a real environment is higher than in the simulated environment. However there were not statistical evidences to affirm that there are differences between the real and simulated wheelchairs in terms of safety and control. Also, most of users considered the multimodal way of driving the wheelchair very practical and satisfactory. Thus, it may be concluded that the multimodal interfaces enables very easy and safe control of the IW both in simulated and real environments.
Resumo:
Embedded systems are increasingly complex and dynamic, imposing progressively higher developing time and costs. Tuning a particular system for deployment is thus becoming more demanding. Furthermore when considering systems which have to adapt themselves to evolving requirements and changing service requests. In this perspective, run-time monitoring of the system behaviour becomes an important requirement, allowing to dynamically capturing the actual scheduling progress and resource utilization. For this to succeed, operating systems need to expose their internal behaviour and state, making it available to external applications, and a runtime monitoring mechanism must be available. However, such mechanism can impose a burden in the system itself if not wisely used. In this paper we explore this problem and propose a framework, which is intended to provide this run-time mechanism whilst achieving code separation, run-time efficiency and flexibility for the final developer.
Resumo:
A dynamic scheduler that supports the coexistence of guaranteed and non-guaranteed bandwidth servers is proposed. Overloads are handled by an efficient reclaiming of residual capacities originated by early completions as well as by allowing reserved capacity stealing of non-guaranteed bandwidth servers. The proposed dynamic budget accounting mechanism ensures that at a particular time the currently executing server is using a residual capacity, its own capacity or is stealing some reserved capacity, eliminating the need of additional server states or unbounded queues. The server to which the budget accounting is going to be performed is dynamically determined at the time instant when a capacity is needed. This paper describes and evaluates the proposed scheduling algorithm, showing that it can efficiently reduce the mean tardiness of periodic jobs. The achieved results become even more significant when tasks’ computation times have a large variance.
Resumo:
Constatando que a estratégia publicitária da Benetton se encadeia sistematicamente no que podemos considerar uma sequência do real, o presente texto analisa as significações das imagens das campanhas publicitárias da Benetton entre 1984 e 1998, identificando a forma como os temas se relacionam com problemáticas e acontecimentos que marcaram o espaço publico na altura. É, assim, analisado o modo como grandes acontecimentos e questões de debate público se transformaram em temas de publicidade. No sentido de visualizar a investigação, o autor apresenta dois discursos em paralelo: um com fragmentos das notícias sobre os grandes acontecimentos relacionados com os temas em análise, disposto numa ordem diacrónica, e outro com a análise das imagens, para a qual se socorreu de uma grande variedade de perspectivas teóricas.