42 resultados para Work Schedule Tolerance
Resumo:
Many-core platforms are an emerging technology in the real-time embedded domain. These devices offer various options for power savings, cost reductions and contribute to the overall system flexibility, however, issues such as unpredictability, scalability and analysis pessimism are serious challenges to their integration into the aforementioned area. The focus of this work is on many-core platforms using a limited migrative model (LMM). LMM is an approach based on the fundamental concepts of the multi-kernel paradigm, which is a promising step towards scalable and predictable many-cores. In this work, we formulate the problem of real-time application mapping on a many-core platform using LMM, and propose a three-stage method to solve it. An extended version of the existing analysis is used to assure that derived mappings (i) guarantee the fulfilment of timing constraints posed on worst-case communication delays of individual applications, and (ii) provide an environment to perform load balancing for e.g. energy/thermal management, fault tolerance and/or performance reasons.
Resumo:
Com este trabalho pretende-se desenvolver um projeto de intervenção no âmbito da gestão do desempenho a aplicar aos responsáveis de departamento da DSV Portugal. O Sistema de Gestão de Desempenho afigura-se como um importante instrumento, estratégico para a gestão das organizações, tendo sido um enorme desafio para quem o tem implementado. Avaliar desempenhos constitui um aspeto central e uma função essencial da gestão de recursos humanos nas organizações de hoje. Ao avaliar o desempenho e o contributo dos recursos humanos para o desenvolvimento e a prossecução dos seus objetivos, a organização obtém informação que lhe permite uma tomada de decisão mais eficaz. Se os desempenhos não se encontram de acordo com o esperado, deverão ser desenvolvidas estratégias para corrigir este efeito, se o desempenho é satisfatório ou excede as expectativas, deverão os colaboradores ser premiados e valorizados. Assim, propomo-nos à criação de um projeto de intervenção numa empresa Transitária, estrategicamente alinhado com a missão, a visão, os valores e as competências valorizadas pela empresa DSV Transitários, Lda. Na elaboração deste projeto foi num primeiro momento realizada a identificação do tema junto da empresa e revisão da literatura. Foi realizado um diagnóstico interno aos procedimentos e práticas existentes, analisando assim o enquadramento organizacional onde se pretende intervir. A partir da conjugação das análises previamente indicadas e tendo por base a definição e os objetivos a que este projeto se propõem alcançar foi definido o planeamento estratégico que consta da estratégia, os objetivos estratégicos e respetivos âmbitos. Assim como foi definido o planeamento operacional, a metodologia a usar, o cronograma de atividades e momento de avaliação do projeto. Descreve-se depois a implementação, assim como os processos, procedimentos e instrumentos desenvolvidos e, finalmente realiza-se a avaliação de todo o projeto.
Resumo:
13th IEEE/IFIP International Conference on Embedded and Ubiquitous Computing (EUC 2015). 21 to 23, Oct, 2015, Session W1-A: Multiprocessing and Multicore Architectures. Porto, Portugal.
Resumo:
Paper/Poster presented in Work in Progress Session, 28th GI/ITG International Conference on Architecture of Computing Systems (ARCS 2015). 24 to 26, Mar, 2015. Porto, Portugal.
Resumo:
Poster presented in Work in Progress Session, 28th GI/ITG International Conference on Architecture of Computing Systems (ARCS 2015). 24 to 26, Mar, 2015. Porto, Portugal.
Resumo:
It is imperative to accept that failures can and will occur, even in meticulously designed distributed systems, and design proper measures to counter those failures. Passive replication minimises resource consumption by only activating redundant replicas in case of failures, as typically providing and applying state updates is less resource demanding than requesting execution. However, most existing solutions for passive fault tolerance are usually designed and configured at design time, explicitly and statically identifying the most critical components and their number of replicas, lacking the needed flexibility to handle the runtime dynamics of distributed component-based embedded systems. This paper proposes a cost-effective adaptive fault tolerance solution with a significant lower overhead compared to a strict active redundancy-based approach, achieving a high error coverage with the minimum amount of redundancy. The activation of passive replicas is coordinated through a feedback-based coordination model that reduces the complexity of the needed interactions among components until a new collective global service solution is determined, improving the overall maintainability and robustness of the system.
Resumo:
Este Projeto de Intervenção visou a reestruturação do sistema de Recrutamento e Seleção para o Grande Grupo Empresarial tendo em conta a realidade das várias Empresas. Este projeto surgiu da necessidade de reconfiguração da visão, filosofia e estrutura da Direção de Pessoas e Comunicação (DPC) e pretendeu desenvolver uma proposta de valor aliciante para os talentos atuais e potenciais do mercado e da Organização, numa lógica de prestação de serviços às seis empresas do Grande Grupo Empresarial, designadas por grupo incubador, que foram o público-alvo deste projeto. Numa primeira fase, foi realizada uma breve apresentação do Grande Grupo Empresarial, seguindo-se de uma auditoria às práticas de Recursos Humanos e uma revisão da literatura ao tema identificado para intervenção deste projeto. Baseado na conjugação das análises realizadas anteriormente, definiu-se a finalidade do projeto que consistiu em garantir que, a partir de Janeiro de 2016, o Grande Grupo Empresarial tenha definido um Sistema de Recrutamento e Seleção adequado à estratégia de comunicação da DPC. Esta finalidade foi desdobrada em dois objetivos estratégicos: Concluir a preparação dos novos procedimento de Recrutamento e Seleção para implementação e Concluir a preparação das ferramentas de Recrutamento e Seleção para implementação e foi desenvolvido todo o planeamento operacional, onde se delinearam atividades, tarefas, recursos, calendarização, orçamento e o momento da avaliação do projeto. A fase de implementação teve a duração de 5 meses (Junho a Outubro de 2015) e a sua avaliação realizou-se durante e no final da implementação. Os resultados confirmam o cumprimento dos objetivos operacionais, estratégicos e da finalidade a que este projeto se propôs. A avaliação inclui o feedback obtido da equipa de Recrutamento e Seleção ao longo do desenvolvimento do projeto. A apreciação final por parte de todos os envolvidos é encorajadora para a adoção de uma nova metodologia de trabalho que permitirá à organização a captação e potenciação de talentos internos.
Resumo:
Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponÃveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mÃnimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possÃveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.
Resumo:
Este trabalho pretende estabelecer uma relação entre o Work Index e algumas propriedades das rochas. Através da pesquisa bibliográfica foram identificadas varias propriedades com possÃvel influência no valor do Work Index, das quais foram seleccionadas a massa volúmica aparente, a resistência à carga pontual, a composição quÃmica, a composição mineralógica e a abrasividade. Adicionalmente a porosidade aberta e resistência à compressão também foram analisadas. Assim foram analisadas 10 amostras de rocha, quatro de granitos, uma de quartzodiorito, uma de ardósia, uma de serpentinito, uma de calcário, uma de mármore e uma de sienito nefelÃnico, sobre as quais já eram conhecidos os valores de cinco das propriedades referidas previamente, tendo sido determinados os valores das ainda desconhecidas, resistência à carga pontual e a abrasividade que está representada através do resultado do ensaio capon. Devido à dificuldade de execução do ensaio de determinação do Work Index de Bond foram recolhidos dados bibliográficos de valores do Work Index para as amostras de rocha seleccionadas e adoptado o valor médio para cada uma. Os dados obtidos foram tratados estatisticamente através do método de análise de componentes principais assim como através de regressões lineares simples e múltiplas. A análise de componentes principais permitiu identificar várias propriedades da rocha com possÃvel influência sobre o Work Index de entre as analisadas. Foi possÃvel estabelecer uma relação entre o Work Index e quatro das propriedades seleccionadas, designadamente a porosidade aberta, a resistência à compressão, a resistência à carga pontual e a abrasividade.
Resumo:
A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuÃdos nas redes de distribuição, nomeadamente as unidades de produção distribuÃda, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veÃculos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nÃvel das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os perÃodos antecedentes e seguintes têm no perÃodo em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nÃvel das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefÃcios e inconvenientes no uso da ferramenta proposta.
Resumo:
Este relatório diz respeito ao trabalho desenvolvido em ambiente de estágio curricular na construção de um empreendimento comercial na zona de Oeiras, compreendendo a construção de um edifÃcio, infra-estruturas enterradas e arranjos exteriores. O estágio foi realizado na Volare – Gestão de Projectos, S.A., empresa dedicada à execução de obras de construção civil destinadas ao grupo Ibersol. Embora todas as áreas de gestão abordadas no estudo sejam de extrema importância, as áreas de gestão do custo, gestão das compras e gestão do tempo revelam-se ainda extremamente valorizadas pelas empresas de construção – o que faz com continuem a existir derrapagens orçamentais e incumprimento de prazos. Só uma gestão rigorosa, eficiente e capaz de abraçar todas as áreas de conhecimentos abordadas, tornará possÃvel alcançar os patamares de satisfação das empresas e dos clientes. O presente relatório mostra que o gestor de obras deve possuir grande capacidade de liderança, de comunicação e negociação O objectivo deste relatório, para além da descrição de todos os trabalhos práticos de execução da obra, é de transcrever os conhecimentos aplicados ao longo do estágio, nomeadamente no que concerne aos dos processos de ‘Gestão, Coordenação e Planeamento’, directamente ligados as funções da ‘Direcção Técnica de Obra’ durante toda a fase de execução da empreitada, estando o principal foco na descrição das actividades referentes ao controlo da obra.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuÃdas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuÃdas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisÃveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubÃqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nÃvel aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisÃveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nÃvel dos atrasos, uma nova polÃtica de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurÃstica p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrÃnsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurÃstica de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.