937 resultados para pixel-stack
Resumo:
Relatório de Estágio de Mestrado em Gestão do Território - Especialização em Detecção Remota e Sistemas de Informação Geográfica
Resumo:
Recent embedded processor architectures containing multiple heterogeneous cores and non-coherent caches renewed attention to the use of Software Transactional Memory (STM) as a building block for developing parallel applications. STM promises to ease concurrent and parallel software development, but relies on the possibility of abort conflicting transactions to maintain data consistency, which in turns affects the execution time of tasks carrying transactions. Because of this fact the timing behaviour of the task set may not be predictable, thus it is crucial to limit the execution time overheads resulting from aborts. In this paper we formalise a FIFO-based algorithm to order the sequence of commits of concurrent transactions. Then, we propose and evaluate two non-preemptive and one SRP-based fully-preemptive scheduling strategies, in order to avoid transaction starvation.
Resumo:
Presented at Embed with Linux Workshop (EWiLi 2015). 4 to 9, Oct, 2015. Amsterdam, Netherlands.
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Detecção Remota e Sistemas de Informação Geográfica
Resumo:
The 6loWPAN (the light version of IPv6) and RPL (routing protocol for low-power and lossy links) protocols have become de facto standards for the Internet of Things (IoT). In this paper, we show that the two native algorithms that handle changes in network topology – the Trickle and Neighbor Discovery algorithms – behave in a reactive fashion and thus are not prepared for the dynamics inherent to nodes mobility. Many emerging and upcoming IoT application scenarios are expected to impose real-time and reliable mobile data collection, which are not compatible with the long message latency, high packet loss and high overhead exhibited by the native RPL/6loWPAN protocols. To solve this problem, we integrate a proactive hand-off mechanism (dubbed smart-HOP) within RPL, which is very simple, effective and backward compatible with the standard protocol. We show that this add-on halves the packet loss and reduces the hand-off delay dramatically to one tenth of a second, upon nodes’ mobility, with a sub-percent overhead. The smart-HOP algorithm has been implemented and integrated in the Contiki 6LoWPAN/RPL stack (source-code available on-line mrpl: smart-hop within rpl, 2014) and validated through extensive simulation and experimentation.
Resumo:
Until this day, the most efficient Cu(In,Ga)Se2 thin film solar cells have been prepared using a rather complex growth process often referred to as three-stage or multistage. This family of processes is mainly characterized by a first step deposited with only In, Ga and Se flux to form a first layer. Cu is added in a second step until the film becomes slightly Cu-rich, where-after the film is converted to its final Cu-poor composition by a third stage, again with no or very little addition of Cu. In this paper, a comparison between solar cells prepared with the three-stage process and a one-stage/in-line process with the same composition, thickness, and solar cell stack is made. The one-stage process is easier to be used in an industrial scale and do not have Cu-rich transitions. The samples were analyzed using glow discharge optical emission spectroscopy, scanning electron microscopy, X-ray diffraction, current–voltage-temperature, capacitance-voltage, external quantum efficiency, transmission/reflection, and photoluminescence. It was concluded that in spite of differences in the texturing, morphology and Ga gradient, the electrical performance of the two types of samples is quite similar as demonstrated by the similar J–V behavior, quantum spectral response, and the estimated recombination losses.
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
O crescente interesse pela área de Business Intelligence (BI) tem origem no reconhecimento da sua importância pelas organizações, como poderoso aliado dos processos de tomada de decisão. O BI é um conceito dinâmico, que se amplia à medida que são integradas novas ferramentas, em resposta a necessidades emergentes dos mercados. O BI não constitui, ainda, uma realidade nas pequenas e médias empresas, sendo, até, desconhecido para muitas. São, essencialmente, as empresas de maior dimensão, com presença em diferentes mercados e/ou áreas de negócio mais abrangentes, que recorrem a estas soluções. A implementação de ferramentas BI nas organizações depende, pois, das especificidades destas, sendo fundamental que a informação sobre as plataformas disponíveis e suas funcionalidades seja objetiva e inequívoca. Só uma escolha correta, que responda às necessidades da área de negócio desenvolvida, permitirá obter dados que resultem em ganhos, potenciando a vantagem competitiva empresarial. Com este propósito, efectua-se, na presente dissertação, uma análise comparativa das funcionalidades existentes em diversas ferramentas BI, que se pretende que venha auxiliar os processos de seleção da plataforma BI mais adaptada a cada organização e/ou negócio. As plataformas BI enquadram-se em duas grandes vertentes, as que implicam custos de aquisição, de índole comercial, e as disponibilizadas de forma livre, ou em código aberto, designadas open source. Neste sentido, equaciona-se se estas últimas podem constituir uma opção válida para as empresas com recursos mais escassos. Num primeiro momento, procede-se à implementação de tecnologias BI numa organização concreta, a operar na indústria de componentes automóveis, a Yazaki Saltano de Ovar Produtos Eléctricos, Ltd., implantada em Portugal há mais de 25 anos. Para esta empresa, o desenvolvimento de soluções com recurso a ferramentas BI afigura-se como um meio adequado de melhorar o acompanhamento aos seus indicadores de performance. Este processo concretizou-se a partir da stack tecnológica pré-existente na organização, a plataforma BI comercial da Microsoft. Com o objetivo de, por um lado, reunir contributos que possibilitem elucidar as organizações na escolha da plataforma BI mais adequada e, por outro, compreender se as plataformas open source podem constituir uma alternativa credível às plataformas comerciais, procedeu-se a uma pesquisa comparativa das funcionalidades das várias plataformas BI open source. Em resultado desta análise, foram selecionadas duas plataformas, a SpagoBI e a PentahoBI, utilizadas na verificação do potencial alternativo das open source face às plataformas comerciais. Com base nessas plataformas, reproduziu-se os processos e procedimentos desenvolvidos no âmbito do projeto de implementação BI realizado na empresa Yazaki Saltano.
Resumo:
A procura por alternativas ao atual paradigma energético, que se caracteriza por uma predominância indiscutível das fontes combustíveis fósseis, é o motivo primário desta investigação. A energia emitida pelo Sol que chega à Terra diariamente ultrapassa em várias ordens de grandeza a energia que a nossa sociedade atual necessita. O efeito chaminé é uma das formas de aproveitar essa energia. Este efeito tem origem no diferencial de temperaturas existente entre o interior e o exterior de uma chaminé, que provoca um gradiente nas massas volúmicas do fluido entre o interior e o exterior da chaminé, induzindo assim um fluxo de ar. Esta diferença de temperaturas radica na exposição da face exterior da chaminé à radiação solar. No sistema que nos propomos estudar, o ar entra na chaminé por pequenos orifícios situados na sua base, e, ao tomar contacto com as paredes internas da chaminé, aquece desde a temperatura ambiente, Ta, até à temperatura interna, Ti . Este aumento de temperatura torna o ar dentro da chaminé mais “leve” em comparação com o ar mais frio do exterior levando-o a ascender ao longo do interior da chaminé. Este escoamento contém energia cinética que pode, por exemplo, ser transformada em energia elétrica por intermédio de turbinas. A eficiência de conversão da energia será tanto maior quanto menor for a velocidade do ar a jusante da turbina. Esta tecnologia poderá ser instalada de forma descentralizada, como acontece com as atuais centrais concentradoras solares térmicas e fotovoltaicas localizadas na periferia de grandes cidades ou, alternativamente, poderá ser inserida no próprio tecido urbanístico. A investigação demonstra que as dimensões da chaminé, a irradiação e a temperatura do ar são os fatores com maior impacto na potência hidráulica gerada.
Resumo:
Dissertação de Mestrado em Gestão do Território, Especialização em Detecção Remota e Sistemas de Informação Geográfica
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
The forest has a crucial ecological role and the continuous forest loss can cause colossal effects on the environment. As Armenia is one of the low forest covered countries in the world, this problem is more critical. Continuous forest disturbances mainly caused by illegal logging started from the early 1990s had a huge damage on the forest ecosystem by decreasing the forest productivity and making more areas vulnerable to erosion. Another aspect of the Armenian forest is the lack of continuous monitoring and absence of accurate estimation of the level of cuts in some years. In order to have insight about the forest and the disturbances in the long period of time we used Landsat TM/ETM + images. Google Earth Engine JavaScript API was used, which is an online tool enabling the access and analysis of a great amount of satellite imagery. To overcome the data availability problem caused by the gap in the Landsat series in 1988- 1998, extensive cloud cover in the study area and the missing scan lines, we used pixel based compositing for the temporal window of leaf on vegetation (June-late September). Subsequently, pixel based linear regression analyses were performed. Vegetation indices derived from the 10 biannual composites for the years 1984-2014 were used for trend analysis. In order to derive the disturbances only in forests, forest cover layer was aggregated and the original composites were masked. It has been found, that around 23% of forests were disturbed during the study period.
Resumo:
Nas últimas décadas o aumento da expansão das áreas urbanas conduziu a rápidas mudanças nos ambientes urbanos. Estas mudanças necessitam de uma observação e compreensão, por forma a permitir a monitorização e avaliação do processo de planeamento urbano. A utilização de dados obtidos por Deteção Remota (DR), aliada aos Sistemas de Informação Geográfica (SIG), surge como uma fonte de informação válida para modelar, recolher, armazenar, exibir e analisar os sistemas urbanos. Neste contexto, a informação planimétrica e altimétrica recolhida por sensores remotos pode ser explorada por forma a extrair informação acerca do uso e ocupação do solo, e apresenta-la sob a forma de indicadores para apoio à decisão. Um sistema de indicadores urbanos baseados em dados obtidos por DR constitui uma ferramenta para as cidades transmitirem os diferentes riscos urbanos bem como na promoção de medidas e estratégias para um eficiente planeamento urbano. A dissertação de mestrado proposta tem como principal objetivo a criação de um sistema de indicadores urbanos que caracterize a cidade de Lisboa ao nível das áreas verdes e do volume construído. Assim, de forma a atingir o objetivo principal é desenvolvida uma metodologia baseada em informação altimétrica e planimétrica que permite analisar as áreas verdes da cidade de Lisboa bem como o volume construído. A informação altimétrica urbana (3D) é derivada de dados cartográficos oficiais (curvas de nível que originam um Modelo Digital de Terreno) e informação recolhida por LiDAR (Light Detection And Ranging) (que representa o Modelo Digital de Superfície). A informação 2D é extraída de uma imagem do satélite de alta resolução Worldview-2 de 2010, com um pixel de 0,5m, do concelho de Lisboa, através de técnicas de processamento digital de imagem. A informação recolhida permite, por um lado a modelação 3D do edificado, e por outro a quantificação 2D da cobertura vegetal em meio urbano. Posteriormente, num ambiente SIG, a informação extraída é cruzada com dados censitários e dados de uso e ocupação do solo. A análise ocorre tendo por base as Subsecções Estatísticas (SSE) da cidade de Lisboa (INE, 2011) e o sistema proposto inclui assim a extração de indicadores divididos tematicamente em indicadores de área e indicadores de volume. Os resultados obtidos permitem relacionar as áreas verdes, a população e o volume construído.
Resumo:
OutSystems Platform is used to develop, deploy, and maintain enterprise web an mobile web applications. Applications are developed through a visual domain specific language, in an integrated development environment, and compiled to a standard stack of web technologies. In the platform’s core, there is a compiler and a deployment service that transform the visual model into a running web application. As applications grow, compilation and deployment times increase as well, impacting the developer’s productivity. In the previous model, a full application was the only compilation and deployment unit. When the developer published an application, even if he only changed a very small aspect of it, the application would be fully compiled and deployed. Our goal is to reduce compilation and deployment times for the most common use case, in which the developer performs small changes to an application before compiling and deploying it. We modified the OutSystems Platform to support a new incremental compilation and deployment model that reuses previous computations as much as possible in order to improve performance. In our approach, the full application is broken down into smaller compilation and deployment units, increasing what can be cached and reused. We also observed that this finer model would benefit from a parallel execution model. Hereby, we created a task driven Scheduler that executes compilation and deployment tasks in parallel. Our benchmarks show a substantial improvement of the compilation and deployment process times for the aforementioned development scenario.