25 resultados para COMMON LAW


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dynamically reconfigurable SRAM-based field-programmable gate arrays (FPGAs) enable the implementation of reconfigurable computing systems where several applications may be run simultaneously, sharing the available resources according to their own immediate functional requirements. To exclude malfunctioning due to faulty elements, the reliability of all FPGA resources must be guaranteed. Since resource allocation takes place asynchronously, an online structural test scheme is the only way of ensuring reliable system operation. On the other hand, this test scheme should not disturb the operation of the circuit, otherwise availability would be compromised. System performance is also influenced by the efficiency of the management strategies that must be able to dynamically allocate enough resources when requested by each application. As those resources are allocated and later released, many small free resource blocks are created, which are left unused due to performance and routing restrictions. To avoid wasting logic resources, the FPGA logic space must be defragmented regularly. This paper presents a non-intrusive active replication procedure that supports the proposed test methodology and the implementation of defragmentation strategies, assuring both the availability of resources and their perfect working condition, without disturbing system operation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentação no âmbito da Dissertação de Mestrado Orientador: Doutora Alcina Dias

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The concept of Learning Object (LO) is crucial for the standardization on eLearning. The latest LO standard from IMS Global Learning Consortium is the IMS Common Cartridge (IMS CC) that organizes and distributes digital learning content. By analyzing this new specification we considered two interoperability levels: content and communication. A common content format is the backbone of interoperability and is the basis for content exchange among eLearning systems. Communication is more than just exchanging content; it includes also accessing to specialized systems and services and reporting on content usage. This is particularly important when LOs are used for evaluation. In this paper we analyze the Common Cartridge profile based on the two interoperability levels we proposed. We detail its data model that comprises a set of derived schemata referenced on the CC schema and we explore the use of the IMS Learning Tools Interoperability (LTI) to allow remote tools and content to be integrated into a Learning Management System (LMS). In order to test the applicability of IMS CC for automatic evaluation we define a representation of programming exercises using this standard. This representation is intended to be the cornerstone of a network of eLearning systems where students can solve computer programming exercises and obtain feedback automatically. The CC learning object is automatically generated based on a XML dialect called PExIL that aims to consolidate all the data need to describe resources within the programming exercise life-cycle. Finally, we test the generated cartridge on the IMS CC online validator to verify its conformance with the IMS CC specification.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mathematical models and statistical analysis are key instruments in soil science scientific research as they can describe and/or predict the current state of a soil system. These tools allow us to explore the behavior of soil related processes and properties as well as to generate new hypotheses for future experimentation. A good model and analysis of soil properties variations, that permit us to extract suitable conclusions and estimating spatially correlated variables at unsampled locations, is clearly dependent on the amount and quality of data and of the robustness techniques and estimators. On the other hand, the quality of data is obviously dependent from a competent data collection procedure and from a capable laboratory analytical work. Following the standard soil sampling protocols available, soil samples should be collected according to key points such as a convenient spatial scale, landscape homogeneity (or non-homogeneity), land color, soil texture, land slope, land solar exposition. Obtaining good quality data from forest soils is predictably expensive as it is labor intensive and demands many manpower and equipment both in field work and in laboratory analysis. Also, the sampling collection scheme that should be used on a data collection procedure in forest field is not simple to design as the sampling strategies chosen are strongly dependent on soil taxonomy. In fact, a sampling grid will not be able to be followed if rocks at the predicted collecting depth are found, or no soil at all is found, or large trees bar the soil collection. Considering this, a proficient design of a soil data sampling campaign in forest field is not always a simple process and sometimes represents a truly huge challenge. In this work, we present some difficulties that have occurred during two experiments on forest soil that were conducted in order to study the spatial variation of some soil physical-chemical properties. Two different sampling protocols were considered for monitoring two types of forest soils located in NW Portugal: umbric regosol and lithosol. Two different equipments for sampling collection were also used: a manual auger and a shovel. Both scenarios were analyzed and the results achieved have allowed us to consider that monitoring forest soil in order to do some mathematical and statistical investigations needs a sampling procedure to data collection compatible to established protocols but a pre-defined grid assumption often fail when the variability of the soil property is not uniform in space. In this case, sampling grid should be conveniently adapted from one part of the landscape to another and this fact should be taken into consideration of a mathematical procedure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem como objetivos: (1) conhecer as práticas desenvolvidas numa organização do Ensino Superior Público Português; (2) conhecer a tipologia das práticas de GRH de cariz tradicional e de cariz estratégico; (3) perceber em que medida as práticas de GRH estão relacionadas com a área de qualificação dos responsáveis do departamento de RH; (4) averiguar o grau de satisfação que os trabalhadores sentem com as Práticas de Gestão de Recursos Humanos desenvolvidas e a sua relação com a área de qualificação dos responsáveis do departamento de RH. Foi utilizada uma metodologia mista, que possibilita ampliar a obtenção de resultados em abordagens investigativas, proporcionando ganhos relevantes para a pesquisa. É realizado um primeiro estudo exploratório, que utiliza uma metodologia mista quantitativa e qualitativa, com recurso a uma entrevista semiestruturada e inquérito realizados aos responsáveis de RH, e que tem como objetivos identificar e caracterizar as Práticas de GRH vigentes na Organização e, consequentemente, averiguar se se aproximam das designadas na literatura, assim como averiguar o grau de intervenção do DRH no desenvolvimento das PGRH e caraterizar o perfil do responsável de RH na Organização, averiguando se a área de formação de RH influencia as Práticas de GRH desenvolvidas. No segundo estudo, recorremos a uma metodologia quantitativa com recurso ao inquérito por questionário, aplicado aos trabalhadores que exercem funções a tempo integral, para averiguar o grau de satisfação dos trabalhadores em relação às Práticas de Gestão de Recursos Humanos. Na compilação dos dois estudos foi nosso objetivo obter respostas às questões que orientaram a nossa investigação. Na parte final da dissertação são discutidos os principais resultados obtidos e apresentadas as conclusões do estudo aqui levado a cabo. Os resultados sugerem que: 1) as PGRH existentes são essencialmente de cariz tradicional, em especial a gestão administrativa; 2) as PGRH predominantes são: o Planeamento de Recursos Humanos, a Análise e Descrição de Funções, o Recrutamento e Seleção, a Formação e Desenvolvimento, a Gestão Administrativa, a Comunicação e a Partilha de Informação, Ética e Deontologia e o Estatuto Disciplinar; 3) existe pouco recurso ao outsourcing para as PGRH; 4) o grau de intervenção DRH baseia-se em atividades de cariz mais administrativo; 5) as práticas tradicionais de RH são aquelas que requerem mais tempo ao DRH; 6) não existe relação entre o tipo de PGRH e a área de qualificação do responsável do DRH; 7) as PGRH são realizadas seguindo essencialmente as normas legais e regras rígidas da GRH na AP; 8) algumas PGRH não são entendidas em contexto da AP, como importantes pelos gestores, embora já sejam desenvolvidos alguns procedimentos dessas práticas; 9) a PGRH da formação e desenvolvimento não é corretamente desenvolvida e não dá cumprimento ao estipulado na lei; 10) a gestão de carreiras e o sistema de compensação e recompensas são entendidas como inexistentes, porque não existem promoções e progressões desde 2005; 11) a avaliação do desempenho é um sistema burocrático e ritualista com fins de promoção e compensação, sem efeitos práticos no momento atual, e que causa insatisfação e o sentimento de injustiça; 12) existem problemas de comunicação quanto a partilha e uniformização de procedimentos entre UO; 13) a satisfação dos trabalhadores é maior com as PGRH de tipo tradicional, nomeadamente na gestão administrativa, recrutamento e seleção, análise e descrição de funções, acolhimento, integração e socialização 14) a satisfação é menor na gestão de carreiras, no sistema de compensação e recompensas e na avaliação do desempenho; 15) quanto a relação entre o grau de satisfação e as características sócio demográficas e profissionais dos inquiridos, os casos com significância mostram que os trabalhadores com 10 ou mais anos de antiguidade tendem a sentir mais satisfação com as práticas em GRH; 16) existe mais satisfação dos trabalhadores das UO onde o responsável de DRH possui formação na área de RH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Power laws, also known as Pareto-like laws or Zipf-like laws, are commonly used to explain a variety of real world distinct phenomena, often described merely by the produced signals. In this paper, we study twelve cases, namely worldwide technological accidents, the annual revenue of America׳s largest private companies, the number of inhabitants in America׳s largest cities, the magnitude of earthquakes with minimum moment magnitude equal to 4, the total burned area in forest fires occurred in Portugal, the net worth of the richer people in America, the frequency of occurrence of words in the novel Ulysses, by James Joyce, the total number of deaths in worldwide terrorist attacks, the number of linking root domains of the top internet domains, the number of linking root domains of the top internet pages, the total number of human victims of tornadoes occurred in the U.S., and the number of inhabitants in the 60 most populated countries. The results demonstrate the emergence of statistical characteristics, very close to a power law behavior. Furthermore, the parametric characterization reveals complex relationships present at higher level of description.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Advances in technology have produced more and more intricate industrial systems, such as nuclear power plants, chemical centers and petroleum platforms. Such complex plants exhibit multiple interactions among smaller units and human operators, rising potentially disastrous failure, which can propagate across subsystem boundaries. This paper analyzes industrial accident data-series in the perspective of statistical physics and dynamical systems. Global data is collected from the Emergency Events Database (EM-DAT) during the time period from year 1903 up to 2012. The statistical distributions of the number of fatalities caused by industrial accidents reveal Power Law (PL) behavior. We analyze the evolution of the PL parameters over time and observe a remarkable increment in the PL exponent during the last years. PL behavior allows prediction by extrapolation over a wide range of scales. In a complementary line of thought, we compare the data using appropriate indices and use different visualization techniques to correlate and to extract relationships among industrial accident events. This study contributes to better understand the complexity of modern industrial accidents and their ruling principles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The adhesive bonding technique enables both weight and complexity reduction in structures that require some joining technique to be used on account of fabrication/component shape issues. Because of this, adhesive bonding is also one of the main repair methods for metal and composite structures by the strap and scarf configurations. The availability of strength prediction techniques for adhesive joints is essential for their generalized application and it can rely on different approaches, such as mechanics of materials, conventional fracture mechanics or damage mechanics. These two last techniques depend on the measurement of the fracture toughness (GC) of materials. Within the framework of damage mechanics, a valid option is the use of Cohesive Zone Modelling (CZM) coupled with Finite Element (FE) analyses. In this work, CZM laws for adhesive joints considering three adhesives with varying ductility were estimated. The End-Notched Flexure (ENF) test geometry was selected based on overall test simplicity and results accuracy. The adhesives Araldite® AV138, Araldite® 2015 and Sikaforce® 7752 were studied between high-strength aluminium adherends. Estimation of the CZM laws was carried out by an inverse methodology based on a curve fitting procedure, which enabled a precise estimation of the adhesive joints’ behaviour. The work allowed to conclude that a unique set of shear fracture toughness (GIIC) and shear cohesive strength (ts0) exists for each specimen that accurately reproduces the adhesive layer’ behaviour. With this information, the accurate strength prediction of adhesive joints in shear is made possible by CZM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A atividade humana e industrial usa a água para as suas atividades do quotidiano. A água é um recurso natural escasso cuja qualidade deve ser protegida, defendida, gerida e tratada em conformidade com o seu uso. Nesse âmbito, a gestão das águas prossegue objetivos de proteção da saúde humana e de preservação, proteção e melhoria da qualidade do ambiente[1]. Desde o final do seculo XIX até aos dias de hoje, verificou-se uma forte evolução nos sistemas de tratamento de águas residuais. Esta evolução foi fundamental para dar resposta às maiores exigências de qualidade do efluente tratado. O sistema de lamas ativadas é um dos processos de tratamento biológico das águas residuais mais usados em todo o mundo. Este trabalho consiste no desenvolvimento do projeto de conceção e dimensionamento de uma Estação de Tratamento de Águas Residuais (ETAR) para servir um pequeno aglomerado de cerca de 3200 habitantes equivalentes (hab.eq.), tendo como objetivo o dimensionamento de todas as etapas de tratamento necessárias ao cumprimento da legislação em vigor para a descarga das águas residuais urbanas no meio recetor. O Decreto-lei nº 152/97[2], relativo ao tratamento de águas residuais urbanas, juntamente com o Decreto-lei nº 149/2004[3] que identifica as zonas sensíveis e de zonas menos sensíveis, permitem que as entidades licenciadoras definam o grau de tratamento que a instalação deve possuir tendo em consideração a classificação do meio onde o efluente tratado é descarregado. O Decreto-Lei n.º 135/2009[1] estabelece o regime de identificação, gestão, monitorização e classificação da qualidade das águas balneares, impondo a qualidade microbiológica da água residual tratada mediante o meio recetor, e portanto conseguindo-se assim definir o tratamento de desinfeção a adotar. Resumidamente, a conceção do tratamento focou as seguintes etapas: tratamento preliminar formado por uma unidade compacta de tamisação, desarenador e desengordurador, tratamento secundário por lamas ativadas em regime de arejamento prolongado constituído por dois reatores com cerca de 400 m3 de volume seguido de um decantador com um diâmetro de 9.5 m, tratamento terciário de desinfeção composto por uma microtamisação seguido de desinfeção UV, e a utilização das operações comuns de espessamento e desidratação das lamas produzidas em excesso pelo tratamento, constituída por com um espessador gravítico com 4.6 m de diâmetro, e um filtro banda para a desidratação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As juntas adesivas têm vindo a ser usadas em diversas áreas e contam com inúmeras aplicações práticas. Devido ao fácil e rápido fabrico, as juntas de sobreposição simples (JSS) são um tipo de configuração bastante comum. O aumento da resistência, a redução de peso e a resistência à corrosão são algumas das vantagens que este tipo de junta oferece relativamente aos processos de ligação tradicionais. Contudo, a concentração de tensões nas extremidades do comprimento da ligação é uma das principais desvantagens. Existem poucas técnicas de dimensionamento precisas para a diversidade de ligações que podem ser encontradas em situações reais, o que constitui um obstáculo à utilização de juntas adesivas em aplicações estruturais. O presente trabalho visa comparar diferentes métodos analíticos e numéricos na previsão da resistência de JSS com diferentes comprimentos de sobreposição (LO). O objectivo fundamental é avaliar qual o melhor método para prever a resistência das JSS. Foram produzidas juntas adesivas entre substratos de alumínio utilizando um adesivo époxido frágil (Araldite® AV138), um adesivo epóxido moderadamente dúctil (Araldite® 2015), e um adesivo poliuretano dúctil (SikaForce® 7888). Consideraram-se diferentes métodos analíticos e dois métodos numéricos: os Modelos de Dano Coesivo (MDC) e o Método de Elementos Finitos Extendido (MEFE), permitindo a análise comparativa. O estudo possibilitou uma percepção crítica das capacidades de cada método consoante as características do adesivo utilizado. Os métodos analíticos funcionam apenas relativamente bem em condições muito específicas. A análise por MDC com lei triangular revelou ser um método bastante preciso, com excepção de adesivos que sejam bastante dúcteis. Por outro lado, a análise por MEFE demonstrou ser uma técnica pouco adequada, especialmente para o crescimento de dano em modo misto.