888 resultados para Reproducing Kernel
Resumo:
International Journal of Algebra and Computation, 15, nº 3 (2005), p. 547-570
Resumo:
Many-core platforms are an emerging technology in the real-time embedded domain. These devices offer various options for power savings, cost reductions and contribute to the overall system flexibility, however, issues such as unpredictability, scalability and analysis pessimism are serious challenges to their integration into the aforementioned area. The focus of this work is on many-core platforms using a limited migrative model (LMM). LMM is an approach based on the fundamental concepts of the multi-kernel paradigm, which is a promising step towards scalable and predictable many-cores. In this work, we formulate the problem of real-time application mapping on a many-core platform using LMM, and propose a three-stage method to solve it. An extended version of the existing analysis is used to assure that derived mappings (i) guarantee the fulfilment of timing constraints posed on worst-case communication delays of individual applications, and (ii) provide an environment to perform load balancing for e.g. energy/thermal management, fault tolerance and/or performance reasons.
Resumo:
Presented at Embed with Linux Workshop (EWiLi 2015). 4 to 9, Oct, 2015. Amsterdam, Netherlands.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
The aim of this article is to identify patterns in spatial distribution of cases of dengue fever that occurred in the municipality of Cruzeiro, State of São Paulo, in 2006. This is an ecological and exploratory study using the tools of spatial analysis in the preparation of thematic maps with data from Sinan-Net. An analysis was made by area, taking as unit the IBGE census, the analysis included four months in 2006 which show the occurrence of the disease in the city. The thematic maps were constructed by TerraView 3.3.1 software, the same software provided the values of the indicators of Global Moran (I M) every month and the Kernel estimation. In the year 2006, 691 cases of dengue were georeferenced (with a rate of 864.2 cases/100,000 inhabitants); the indicators of Moran and p-values obtained were I M = 0.080 (March) p = 0.11; I M = 0.285 (April) p = 0.01; I M = 0.201 (May) p = 0.01 and I M = 0.002 (June) p = 0.57. The first cases were identified in the Northeast and Central areas of Cruzeiro and the recent cases, in the North, Northeast and Central. It was possible to identify census tracts where the epidemic began and how it occurred temporally and spatially in the city.
Resumo:
Os jovens ao longo do seu percurso escolar têm aspirações e expetativas elevadas quanto ao valor de empregabilidade dos diplomas a que tiveram acesso em todos os graus de ensino. Contudo, no recente contexto de crise económica, essas aspirações e expetativas socialmente nutridas pela escola e pela família têm sido em grande medida frustradas pelas crescentes dificuldades que os jovens portugueses de hoje têm vivido nos seus processos de inserção profissional. A nível individual, um jovem que passe um longo período inativo tem grandes probabilidades de sofrer de baixa autoestima, exclusão social ou de um “wage scar”, isto é, de no futuro ter um rendimento abaixo do rendimento médio de pessoas com formação e experiência equivalentes além de desenvolverem uma atitude passiva e falta de participação social, o que no longo prazo acaba por ter implicações negativas para a sociedade como um todo. Conscientes desta realidade e sabendo que as incubadoras de negócios podem transmitir confiança à comunidade financeira e apoiar as startups, promovendo uma cultura de empreendedorismo e agindo como um catalisador para o desenvolvimento de estruturas de suporte de negócios mais amplas, partimos para o estudo da incubação de negócios com o intuito de traçar um plano estratégico para a Escola Superior de Estudos Industriais e de Gestão (ESEIG) que permitisse desenvolver a cultura empreendedora da sua comunidade e por esta via dar o seu contributo para a resolução da crise económica que o país atravessa. Começamos por fazer um enquadramento teórico da incubação de negócios e rapidamente percebemos que, sendo a ESEIG uma instituição de ensino superior, era importante incluir no estudo os conceitos de empreendedorismo e inovação e perceber ao nível teórico como funciona a relação Universidade-Empresa. De seguida, fomos para o “terreno” e percebemos que a solução para este desafio passaria por capacitar os alunos da ESEIG com as competências empresariais e empreendedoras necessárias para o desenvolvimento de qualquer empreendimento autonomamente. Faltava agora perceber qual a melhor forma de concretizar este ambicioso objetivo. Após um pouco mais de estudo, percebemos que, a paixão está no centro de empreendedorismo juntamente com outras dimensões afetivas e emocionais e pode estimular a criatividade e o reconhecimento de novos padrões de informação fundamental para a descoberta e exploração de oportunidades promissoras. Por sua vez, a alegria local (escolas, cidades, regiões, países) está associada a uma maior atividade empreendedora, o humor e sentimentos positivos, bem como a satisfação de vida geram efeitos benéficos, como melhor desempenho nas tarefas e produtividade, evolução na carreira e sucesso pessoal e maior propensão para assumir riscos. Percebemos então que é necessário desenvolver uma cultura de positividade, pelo que, sugerimos a implementação do novo quadro conceptual PROSPER (Positivity; Relationships; Outcomes; Strengths; Purpose; Engagement; Resilience) que tem o potencial de ser usado como uma ferramenta organizacional para a implementação dos sete principais componentes de bem-estar. Cientes de que o objetivo final é aumentar a intenção empreendedora dos estudantes, bem como o número efetivo de empreendedores, definimos como objetivos, promover o valor do empreendedorismo na criação de oportunidades e no desenvolvimento das competências dos estudantes (Engaging), fornecer aos estudantes oportunidades de aprendizagem empresarial (Empowering) e apoiar os estudantes na criação e no desenvolvimento de negócios (Equipping). Neste sentido, sugerimos diversas ações que materializam estes objetivos. Para finalizar, utilizamos um Lean Canvas com o intuito de concretizar a nossa proposta estratégica para ESEIG, que culmina com a criação do Empowering Lab ESEIG.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Tese apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Geografia e Planeamento Territorial - Especialidade: Geografia Humana
Resumo:
The Graphics Processing Unit (GPU) is present in almost every modern day personal computer. Despite its specific purpose design, they have been increasingly used for general computations with very good results. Hence, there is a growing effort from the community to seamlessly integrate this kind of devices in everyday computing. However, to fully exploit the potential of a system comprising GPUs and CPUs, these devices should be presented to the programmer as a single platform. The efficient combination of the power of CPU and GPU devices is highly dependent on each device’s characteristics, resulting in platform specific applications that cannot be ported to different systems. Also, the most efficient work balance among devices is highly dependable on the computations to be performed and respective data sizes. In this work, we propose a solution for heterogeneous environments based on the abstraction level provided by algorithmic skeletons. Our goal is to take full advantage of the power of all CPU and GPU devices present in a system, without the need for different kernel implementations nor explicit work-distribution.To that end, we extended Marrow, an algorithmic skeleton framework for multi-GPUs, to support CPU computations and efficiently balance the work-load between devices. Our approach is based on an offline training execution that identifies the ideal work balance and platform configurations for a given application and input data size. The evaluation of this work shows that the combination of CPU and GPU devices can significantly boost the performance of our benchmarks in the tested environments, when compared to GPU-only executions.
Resumo:
Malaria é uma doença de distribuição focal. No Brasil, áreas de assentamento e garimpos de ouro na Amazônia Legal apresentam grande concentração de casos. Este artigo analisa a distribuição espacial de casos de malária, considerando fatores ambientais e sociais, no assentamento Vale do Amanhecer, Município de Juruena, Mato Grosso, Brasil. Em 2005, notificou-se 359 casos autóctones no assentamento e pelo método de Kernel identificaram-se áreas de maior e menor intensidade de número de casos. As áreas de maior intensidade apresentaram 290 casos e na de menor intensidade 64 casos. A intensidade da distribuição variou no assentamento, indicando áreas de grande intensidade de casos favoráveis para transmissão como área de garimpos. Assim, apesar de assentamentos serem considerados como foco de malária, existem no seu interior, especificidades que, uma vez identificadas, podem contribuir para o controle da doença.
Resumo:
Trata-se de estudo retrospectivo com componente ecológico que descreve o padrão epidemiológico e a distribuição geográfica da leishmaniose tegumentar americana no município de Campinas, SP de 1992 a 2003. Os locais prováveis de infecção foram georeferenciados por meio de Sistema de Posicionamento Global e espacializados pelo programa Spring 4.01 do Instituto Nacional de Pesquisas Espaciais. Foi aplicado o estimador de intensidade kernel para se obter as regiões com maior freqüência de casos. Identificou-se a ocorrência de 3 surtos (região Leste e Sudoeste) nos anos de 1993/1995 e 2002/2003. Foram estudadas variáveis sócio-demográficas, proximidade do domicílio à mata, tempo de moradia e forma clínica da doença. Embora as características ecológicas e sócio-ambientais das áreas de estudo sejam diferentes, os surtos apresentaram perfil semelhante. A distribuição por sexo, idade e ocupação sugere possível transmissão peridomiciliar. A proximidade dos locais prováveis de infecção das matas foi comum a todas as áreas.
Resumo:
INTRODUÇÃO: O vírus da dengue é transmitido pela picada do mosquito Aedes aegypti e, o atual programa de controle não atinge o objetivo de impedir sua transmissão. Este trabalho objetivou analisar a relação entre a distribuição espaço-temporal de casos de dengue e os indicadores larvários no município de Tupã, de janeiro de 2004 a dezembro de 2007. MÉTODOS: Foram construídos indicadores larvários por quarteirão e totalidade do município. Utilizou-se o método cross-lagged correlation para avaliar a correlação entre casos de dengue e indicadores larvários. Foi utilizado estimador kernel para análise espacial. RESULTADOS: A correlação cruzada defasada entre casos de dengue e indicadores larvários foi significativa. Os mapas do estimador Kernel da positividade de recipientes indicam uma distribuição heterogênea, ao longo do período estudado. Nos dois anos de transmissão, a epidemia ocorreu em diferentes regiões. CONCLUSÕES: Não ficou evidenciada relação espacial entre infestação larvária e ocorrência de dengue. A incorporação de técnicas de geoprocessamento e análise espacial no programa, desde que utilizados imediatamente após a realização das atividades, podem contribuir com as ações de controle, indicando os aglomerados espaciais de maior incidência.
Resumo:
INTRODUÇÃO: A leptospirose, enfermidade causada por uma espiroqueta patogênica do gênero Leptospira, é uma das zoonoses mais difundidas no mundo, considerada um importante problema de saúde pública. Este trabalho tem como objetivo descrever o padrão espacial da leptospirose na Cidade de Aracaju, no período de 2001 a 2007, buscando identificar as áreas de risco para ocorrência da leptospirose. MÉTODOS: Utilizou-se a razão de Kernel, que consiste na criação de uma razão entre duas superfícies, para visualizar a superfície de risco da doença, onde no numerador coloca-se os casos, georreferenciados para setor censitário, e no denominador o kernel da população dessas áreas. Através deste método, foi possível delimitar áreas de maior densidade de casos, e compará-las visualmente com fator socioeconômico, como renda média. RESULTADOS: Comparando os períodos de chuva com os períodos de seca, verificou-se que não ocorre a presença de padrão espacial semelhante nos dois períodos, não coincidindo com as áreas consideradas de maior risco para ocorrência da doença. Através dos parâmetros estabelecidos, neste estudo, foi permitido verificar a importância da aplicação de técnicas de análise espacial na área de saúde pública. CONCLUSÕES: O kernel se mostrou uma ferramenta útil na obtenção de uma análise global da situação epidemiológica da leptospirose em Aracaju, o que viabiliza sua utilização pelas secretarias de saúde municipal e estadual.