57 resultados para CONSTITUTIONAL GUARANTEES
Resumo:
20th International Conference on Reliable Software Technologies - Ada-Europe 2015 (Ada-Europe 2015), 25 to 29, Jun, 2015. Madrid, Spain. Best Paper Award.
Resumo:
23rd Euromicro International Conference on Parallel, Distributed, and Network-Based Processing (PDP 2015). 4 to 6, Mar, 2015. Turku, Finland.
Resumo:
Presented at 21st IEEE International Conference on Embedded and Real-Time Computing Systems and Applications (RTCSA 2015). 19 to 21, Aug, 2015, pp 122-131. Hong Kong, China.
Resumo:
Na tentativa de se otimizar o processo de fabrico associado a uma tinta base aquosa (TBA), para minimizar os desvios de viscosidade final verificados, e de desenvolver um novo adjuvante plastificante para betão, recorreu-se a métodos e ferramentas estatísticas para a concretização do projeto. Relativamente à TBA, procedeu-se numa primeira fase a um acompanhamento do processo de fabrico, a fim de se obter todos os dados mais relevantes que poderiam influenciar a viscosidade final da tinta. Através de uma análise de capacidade ao parâmetro viscosidade, verificou-se que esta não estava sempre dentro das especificações do cliente, sendo o cpk do processo inferior a 1. O acompanhamento do processo resultou na escolha de 4 fatores, que culminou na realização de um plano fatorial 24. Após a realização dos ensaios, efetuou-se uma análise de regressão a um modelo de primeira ordem, não tendo sido esta significativa, o que implicou a realização de mais 8 ensaios nos pontos axiais. Com arealização de uma regressão passo-a-passo, obteve-se uma aproximação viável a um modelo de segunda ordem, que culminou na obtenção dos melhores níveis para os 4 fatores que garantem que a resposta viscosidade se situa no ponto médio do intervalo de especificação (1400 mPa.s). Quanto ao adjuvante para betão, o objetivo é o uso de polímeros SIKA ao invés da matériaprima comum neste tipo de produtos, tendo em conta o custo final da formulação. Escolheram-se 3 fatores importantes na formulação do produto (mistura de polímeros, mistura de hidrocarbonetos e % de sólidos), que resultou numa matriz fatorial 23. Os ensaios foram realizados em triplicado, em pasta de cimento, um para cada tipo de cimento mais utilizado em Portugal. Ao efetuar-se a análise estatística de dados obtiveram-se modelos de primeira ordem para cada tipo de cimento. O processo de otimização consistiu em otimizar uma função custo associada à formulação, garantindo sempre uma resposta superior à observada pelo produto considerado padrão. Os resultados foram animadores uma vez que se obteve para os 3 tipos de cimentocustos abaixo do requerido e espalhamento acima do observado pelo padrão.
Resumo:
Nos tempos atuais as empresas que atuam no ramo dos sistemas elétricos de energias enfrentam desafios cada vez mais exigentes, dado o enquadramento normativo a que estão sujeitas por parte da entidade reguladora dos serviços energéticos. No caso do Arquipélago dos Açores, o normativo relativo ao regulamento da qualidade de serviço entrou em vigor em 2006, trazendo à EDA,S.A. (Eletricidade dos Açores), entidade responsável pelo transporte e distribuição de energia na região, novas exigências para adequados níveis de eficiência e de garantias aos clientes, no que respeita à qualidade de serviço que lhes é prestado. No âmbito deste trabalho, é efetuado o estudo do trânsito de potência sobre a rede distribuição 15 kV da ilha Graciosa. Para tal, é realizada a modelização da rede no software de rede elétricas porwerworld 8.0. e são idealizados um conjunto de cenários de exploração da rede, que visam simular situações reais que ocorrem na exploração diária da rede de distribuição da ilha. Nas simulações a efetuar consideram-se dois cenários com perfil de carga distintos, um referente à ponta máxima, e outro referente ao vazio mínimo, verificados no ano de 2014. Quanto ao modo de exploração da rede nos cenários a simular, é contemplado o modo de exploração normalmente operado pela empresa gestora, bem como diversas reconfigurações sobre o modo de exploração normalmente operado, realizadas através da abertura e fecho dos aparelhos de corte constituintes da rede. Em todos os cenários simulados, é realizado um estudo relativamente à potência de perdas do sistema, ao perfil da tensão nos diversos postos de transformação, e ao congestionamento de energia verificado nas linhas de distribuição da rede.
Resumo:
Presented at IEEE Real-Time Systems Symposium (RTSS 2015). 1 to 4, Dec, 2015. San Antonio, U.S.A..
Resumo:
The Internet of Things (IoT) has emerged as a paradigm over the last few years as a result of the tight integration of the computing and the physical world. The requirement of remote sensing makes low-power wireless sensor networks one of the key enabling technologies of IoT. These networks encompass several challenges, especially in communication and networking, due to their inherent constraints of low-power features, deployment in harsh and lossy environments, and limited computing and storage resources. The IPv6 Routing Protocol for Low Power and Lossy Networks (RPL) [1] was proposed by the IETF ROLL (Routing Over Low-power Lossy links) working group and is currently adopted as an IETF standard in the RFC 6550 since March 2012. Although RPL greatly satisfied the requirements of low-power and lossy sensor networks, several issues remain open for improvement and specification, in particular with respect to Quality of Service (QoS) guarantees and support for mobility. In this paper, we focus mainly on the RPL routing protocol. We propose some enhancements to the standard specification in order to provide QoS guarantees for static as well as mobile LLNs. For this purpose, we propose OF-FL (Objective Function based on Fuzzy Logic), a new objective function that overcomes the limitations of the standardized objective functions that were designed for RPL by considering important link and node metrics, namely end-to-end delay, number of hops, ETX (Expected transmission count) and LQL (Link Quality Level). In addition, we present the design of Co-RPL, an extension to RPL based on the corona mechanism that supports mobility in order to overcome the problem of slow reactivity to frequent topology changes and thus providing a better quality of service mainly in dynamic networks application. Performance evaluation results show that both OF-FL and Co-RPL allow a great improvement when compared to the standard specification, mainly in terms of packet loss ratio and average network latency. 2015 Elsevier B.V. Al
Resumo:
Temos vindo a assistir nos últimos anos a uma evolução no que respeita à avaliação do risco de crédito. As constantes alterações de regulamentação bancária, que resultam dos Acordos de Basileia, têm vindo a impor novas normas que condicionam a quantidade e a qualidade do risco de crédito que as Instituições de Crédito podem assumir nos seus balanços. É de grande importância as Instituições de Crédito avaliarem o risco de crédito, as garantias e o custo de capital, pois têm um impacto direto na sua gestão nomeadamente quanto à afetação de recursos e proteção contra perdas. Desta forma, pretende-se com o presente trabalho elaborar e estruturar um modelo de rating interno através de técnicas estatísticas, assim como identificar as variáveis estatisticamente relevantes no modelo considerado. Foi delineada uma metodologia de investigação mista, considerando na primeira parte do trabalho uma pesquisa qualitativa e na segunda parte uma abordagem quantitativa. Através da análise documental, fez-se uma abordagem dos conceitos teóricos e da regulamentação que serve de base ao presente trabalho. No estudo de caso, o modelo de rating interno foi desenvolvido utilizando a técnica estatística designada de regressão linear múltipla. A amostra considerada foi obtida através da base de dados SABI e é constituída por cem empresas solventes, situadas na zona de Paredes, num horizonte temporal de 2011-2013. A nossa análise baseou-se em três cenários, correspondendo cada cenário aos dados de cada ano (2011, 2012 e 2013). Para validar os pressupostos do modelo foram efetuados testes estatísticos de Durbin Watson e o teste de significância - F (ANOVA). Por fim, para obtermos a classificação de rating de cada variável foi aplicada a técnica dos percentis. Pela análise dos três cenários considerados, verificou-se que o cenário dois foi o que obteve maior coeficiente de determinação. Verificou-se ainda que as variáveis independentes, rácio de liquidez geral, grau de cobertura do ativo total pelo fundo de maneio e rácio de endividamento global são estatisticamente relevantes.
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Professor Doutor Armindo Licínio da Silva Macedo
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Muito se tem falado sobre revolução tecnológica e do aparecimento constante de novas aplicações Web, com novas funcionalidades que visam facilitar o trabalho dos utilizadores. Mas será que estas aplicações garantem que os dados transmitidos são tratados e enviados por canais seguros (protocolos)? Que garantias é que o utilizador tem que mesmo que a aplicação utilize um canal, que prevê a privacidade e integridade de dados, esta não apresente alguma vulnerabilidade pondo em causa a informação sensível do utilizador? Software que não foi devidamente testado, aliado à falta de sensibilização por parte dos responsáveis pelo desenvolvimento de software para questões de segurança, levam ao aumento de vulnerabilidades e assim exponenciam o número de potenciais vítimas. Isto aliado ao efeito de desinibição que o sentimento de invisibilidade pode provocar, conduz ao facilitismo e consequentemente ao aumento do número de vítimas alvos de ataques informáticos. O utilizador, por vezes, não sabe muito bem do que se deve proteger, pois a confiança que depõem no software não pressupõem que os seus dados estejam em risco. Neste contexto foram recolhidos dados históricos relativos a vulnerabilidades nos protocolos SSL/TLS, para perceber o impacto que as mesmas apresentam e avaliar o grau de risco. Para além disso, foram avaliados um número significativo de domínios portugueses para perceber se os mesmos têm uma vulnerabilidade específica do protocolo SSL/TLS.
Resumo:
Dissertação de Mestrado em Solicitaria