915 resultados para Contractual penalty
Resumo:
O âmbito deste trabalho envolve o teste do modelo BIM numa obra em construção pela Mota-Engil – Engenharia, na extração experimental de peças desenhadas de preparação e apoio à execução de obra. No capítulo 1 deste relatório são definidos o âmbito e os objetivos deste trabalho, é feito um enquadramento histórico do tema e abordados conceitos e atividades da preparação de obra, na sua forma tradicional. O estado do conhecimento da preparação de obras e mais em concreto da tecnologia BIM a nível nacional e internacional é abordado no capítulo 2. Nesse sentido procura-se definir os conceitos principais inerentes a esta nova metodologia, que passa por identificar e caraterizar a tecnologia envolvida e o seu nível de desenvolvimento. Com suporte em casos práticos de preparação de obra na sua forma tradicional, identificados e desenvolvidos no capítulo 3, foi compilado um processo tipo de peças desenhadas de suporte identificadas e caracterizadas no capítulo 4, frequentes e comuns à execução de diversos tipos de obras de edifícios. Assente na compilação baseada em casos práticos e no estudo do projeto de execução da empreitada que sustenta o presente trabalho, com base no qual o modelo BIM foi concebido, identificou-se um conjunto de peças desenhadas de preparação e apoio à execução dos trabalhos, em 2D, a extrair do modelo. No capítulo 5, é feita uma descrição do modo como foi estudado o projeto da obra, com evidência para os fatores mais relevantes, especificando os desenhos a extrair. Suportada pelo programa de modelação ArchiCAD, a extração do conjunto de desenhos identificados anteriormente foi conseguida com recurso às funcionalidades disponíveis no software, que permite a criação de desenhos 2D atualizáveis ou não automaticamente a partir do modelo. Qualquer alteração introduzida no modelo virtual é automaticamente atualizada nos desenhos bidimensionais, caso o utilizador assim o pretenda. Ao longo desse trabalho foram detetados e analisados os condicionalismos inerentes ao processo de extração, referidos no capítulo 6, para estabelecimento de regras de modelação padrão a adotar em futuras empreitadas, que possam simplificar a obtenção dos elementos desenhados de preparação necessários à sua execução. No ponto 6.3 são identificadas melhorias a introduzir no modelo. Em conclusão no capítulo 7 são abordadas especificidades do setor da construção que sustentam e evidenciam cada vez mais a necessidade de utilizar as novas tecnologias com vista à adoção de práticas e ferramentas padrão de apoio à execução de obras. Sendo a tecnologia BIM, transversal a todo o setor, a sua utilização com regras padrão na conceção dos modelos e na extração de dados, potencia a otimização dos custos, do tempo, dos recursos e da qualidade final de um empreendimento, ao longo de todo o seu ciclo de vida, para além de apoiar com elevada fiabilidade as tomadas de decisão ao longo desse período. A tecnologia BIM, possibilita a antevisão do edifício a construir com um elevado grau de pormenor, com todas as vantagens que daí advêm.
Resumo:
The integrity of multi-component structures is usually determined by their unions. Adhesive-bonding is often used over traditional methods because of the reduction of stress concentrations, reduced weight penalty, and easy manufacturing. Commercial adhesives range from strong and brittle (e.g., Araldite® AV138) to less strong and ductile (e.g., Araldite® 2015). A new family of polyurethane adhesives combines high strength and ductility (e.g., Sikaforce® 7888). In this work, the performance of the three above-mentioned adhesives was tested in single lap joints with varying values of overlap length (LO). The experimental work carried out is accompanied by a detailed numerical analysis by finite elements, either based on cohesive zone models (CZM) or the extended finite element method (XFEM). This procedure enabled detailing the performance of these predictive techniques applied to bonded joints. Moreover, it was possible to evaluate which family of adhesives is more suited for each joint geometry. CZM revealed to be highly accurate, except for largely ductile adhesives, although this could be circumvented with a different cohesive law. XFEM is not the most suited technique for mixed-mode damage growth, but a rough prediction was achieved.
Resumo:
This paper addresses the challenging task of computing multiple roots of a system of nonlinear equations. A repulsion algorithm that invokes the Nelder-Mead (N-M) local search method and uses a penalty-type merit function based on the error function, known as 'erf', is presented. In the N-M algorithm context, different strategies are proposed to enhance the quality of the solutions and improve the overall efficiency. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm.
Resumo:
The purpose of this work is to present an algorithm to solve nonlinear constrained optimization problems, using the filter method with the inexact restoration (IR) approach. In the IR approach two independent phases are performed in each iteration—the feasibility and the optimality phases. The first one directs the iterative process into the feasible region, i.e. finds one point with less constraints violation. The optimality phase starts from this point and its goal is to optimize the objective function into the satisfied constraints space. To evaluate the solution approximations in each iteration a scheme based on the filter method is used in both phases of the algorithm. This method replaces the merit functions that are based on penalty schemes, avoiding the related difficulties such as the penalty parameter estimation and the non-differentiability of some of them. The filter method is implemented in the context of the line search globalization technique. A set of more than two hundred AMPL test problems is solved. The algorithm developed is compared with LOQO and NPSOL software packages.
Resumo:
A new iterative algorithm based on the inexact-restoration (IR) approach combined with the filter strategy to solve nonlinear constrained optimization problems is presented. The high level algorithm is suggested by Gonzaga et al. (SIAM J. Optim. 14:646–669, 2003) but not yet implement—the internal algorithms are not proposed. The filter, a new concept introduced by Fletcher and Leyffer (Math. Program. Ser. A 91:239–269, 2002), replaces the merit function avoiding the penalty parameter estimation and the difficulties related to the nondifferentiability. In the IR approach two independent phases are performed in each iteration, the feasibility and the optimality phases. The line search filter is combined with the first one phase to generate a “more feasible” point, and then it is used in the optimality phase to reach an “optimal” point. Numerical experiences with a collection of AMPL problems and a performance comparison with IPOPT are provided.
Resumo:
A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.
Resumo:
Thesis submitted in Trinity Term 2001 for the degree of Master of Philosophy, Worcester College, Oxford
Resumo:
Dissertação submetida para obtenção do grau de Doutor em Saúde Pública Especialidade de Economia da Saúde
Resumo:
RESUMO - Contexto: O sistema de financiamento do internamento hospitalar público Português é de natureza prospectiva, através de um orçamento global baseado no casemix para os doentes do Serviço Nacional de Saúde (SNS) e de um pagamento por episódio para os doentes dos subsistemas. Em ambos os casos, o financiamento baseia-se principalmente nos Grupos de Diagnóstico Homogéneos (GDH) correspondentes a cada episódio, seja para atribuir um preço por doente saído no caso dos doentes dos subsistemas, seja para calcular o casemix do hospital no caso dos doentes do SNS. Atendendo à heterogeneidade de utilização de recursos intra GDH, resultante das características e necessidades individuais de cada doente, é expectável que o hospital, tendo em vista a garantia da sustentabilidade económica e financeira e/ou a obtenção de mais-valias, procure que o custo de produção fique aquém do preço médio pago, o que pode resultar na selecção de doentes. Por outro lado, ao não ser tida em conta no financiamento, e na ausência de selecção, a heterogeneidade intra GDH pode resultar na injusta recompensa/penalização de uns hospitais em detrimento de outros, tendo em conta as características e necessidades da população que servem e pelas quais não são compensados. Objectivos: O presente estudo propôs-se, por isso, avaliar o impacte que as características inerentes aos doentes têm no consumo de recursos hospitalares, tendo em vista inferir se as mesmas criam incentivos à selecção de doentes ou são fonte de penalizações ou recompensas injustas para os hospitais. Metodologia: Foi utilizada a amostra completa dos doentes internados no ano 2007 por doenças e perturbações do aparelho circulatório (Grande Categoria de Diagnóstico 5) nos 76 hospitais públicos Portugueses (69.905 episódios). Assumiu-se como proxy dos custos a variável tempo de internamento, e avaliou-se, mediante a realização de uma regressão linear multivariada, a relação existente entre a variação no tempo de internamento e as características sexo, idade, severidade, comorbilidades e estatuto económico dos doentes, tendo-se concluído que todas, menos o sexo, têm impacte significativo no tempo de internamento. Uma análise preliminar da distribuição das características identificadas como indutoras de custos pelos hospitais em estudo, conforme o resultado financeiro alcançado por estes fosse positivo ou negativo, sugeriu que as mesmas podem ter impacte nos resultados financeiros alcançados pelos hospitais. Conclusão: Concluiu-se que a actual metodologia de financiamento dos hospitais públicos portugueses possui incentivos à selecção de doentes, visto possibilitar a identificação de doentes que pelas suas características se tornam menos “rentáveis” para os hospitais, o que se pode traduzir numa perda de qualidade assistencial e de acessibilidade para os mesmos e beneficia/penaliza uns hospitais em detrimento de outros, de acordo com as características da população que servem.
Resumo:
RESUMO - Este estudo insere-se na temática dos sistemas de notificação de eventos adversos. Pretende-se compreender a necessidade e importância de implementação de um sistema de notificação de Eventos Adversos num hospital E.P.E. (entidade pública empresarial) de Lisboa. Apresenta como objectivo geral: •Identificar as principais características que um Sistema de Notificação de Eventos Adversos, Erros e Incidentes deve ter e com base nisso propor um formulário de notificação que assente numa lógica de aprendizagem e não numa perspectiva de culpabilização. Trata-se de um estudo exploratório, descritivo, quantitativo, transversal. Foi utilizado como instrumento de recolha de dados o inquérito por questionário. A amostra é constituída por 82 enfermeiros de um hospital de Lisboa, em que não está implementado sistema de notificação de eventos adversos. Após análise dos dados concluiu-se que: Quando ocorrem acontecimentos indesejáveis, os profissionais de enfermagem poucas vezes notificam; Os profissionais notificam com maior frequência quando o evento é grave e trágico; Os inquiridos apontam como principais factores para a ocorrência de eventos adversos/erros/incidentes no seu local de trabalho “falhas de comunicação” e “deficiente rácio enfermeiro/doente”; A maior parte dos inquiridos concorda com a implementação de um sistema de notificação de eventos adversos, erros e incidentes no hospital onde trabalham. O sistema deve ser de carácter obrigatório assegurando o anonimato. Espera-se que o presente trabalho seja um contributo importante, que entronque e potencie a política/estratégia definida pelo hospital para a área da segurança do doente.
Resumo:
Pascoa and Seghir (2009) noticed that when collateralized promises become subject to utility penalties on default, Ponzi schemes may occur. However, equilibrium exists in some interesting cases. Under low penalties, equilibrium exists if the collateral does not yield utility (for example, when it is a productive asset or a security). Equilibrium exists also under more severe penalties and collateral utility gains, when the promise or the collateral are nominal assets and the margin requirements are endogenous: relative inflation rates and margin coefficients can make the income effects dominate the penalty effects. An equilibrium refinement avoids no-trade equilibria with unduly repayment beliefs. Our refinement differs from the one used by Dubey, Geanakoplos and Shubik (2005) as it does not eliminate no trade equilibria whose low delivery rates are consistent with the propensity to default of agents that are on the verge of selling.
Resumo:
The reported productivity gains while using models and model transformations to develop entire systems, after almost a decade of experience applying model-driven approaches for system development, are already undeniable benefits of this approach. However, the slowness of higher-level, rule based model transformation languages hinders the applicability of this approach to industrial scales. Lower-level, and efficient, languages can be used but productivity and easy maintenance seize to exist. The abstraction penalty problem is not new, it also exists for high-level, object oriented languages but everyone is using them now. Why is not everyone using rule based model transformation languages then? In this thesis, we propose a framework, comprised of a language and its respective environment, designed to tackle the most performance critical operation of high-level model transformation languages: the pattern matching. This framework shows that it is possible to mitigate the performance penalty while still using high-level model transformation languages.
Resumo:
Optimization is a very important field for getting the best possible value for the optimization function. Continuous optimization is optimization over real intervals. There are many global and local search techniques. Global search techniques try to get the global optima of the optimization problem. However, local search techniques are used more since they try to find a local minimal solution within an area of the search space. In Continuous Constraint Satisfaction Problems (CCSP)s, constraints are viewed as relations between variables, and the computations are supported by interval analysis. The continuous constraint programming framework provides branch-and-prune algorithms for covering sets of solutions for the constraints with sets of interval boxes which are the Cartesian product of intervals. These algorithms begin with an initial crude cover of the feasible space (the Cartesian product of the initial variable domains) which is recursively refined by interleaving pruning and branching steps until a stopping criterion is satisfied. In this work, we try to find a convenient way to use the advantages in CCSP branchand- prune with local search of global optimization applied locally over each pruned branch of the CCSP. We apply local search techniques of continuous optimization over the pruned boxes outputted by the CCSP techniques. We mainly use steepest descent technique with different characteristics such as penalty calculation and step length. We implement two main different local search algorithms. We use “Procure”, which is a constraint reasoning and global optimization framework, to implement our techniques, then we produce and introduce our results over a set of benchmarks.
Resumo:
A transimpedance amplifier (TIA) is used, in radiation detectors like the positron emission tomography(PET), to transform the current pulse produced by a photo-sensitive device into an output voltage pulse with a desired amplitude and shape. The TIA must have the lowest noise possible to maximize the output. To achieve a low noise, a circuit topology is proposed where an auxiliary path is added to the feedback TIA input, In this auxiliary path a differential transconductance block is used to transform the node voltage in to a current, this current is then converted to a voltage pulse by a second feedback TIA complementary to the first one, with the same amplitude but 180º out of phase with the first feedback TIA. With this circuit the input signal of the TIA appears differential at the output, this is used to try an reduced the circuit noise. The circuit is tested with two different devices, the Avalanche photodiodes (APD) and the Silicon photomultiplier (SIPMs). From the simulations we find that when using s SIPM with Rx=20kΩ and Cx=50fF the signal to noise ratio is increased from 59 when using only one feedback TIA to 68.3 when we use an auxiliary path in conjunction with the feedback TIA. This values where achieved with a total power consumption of 4.82mv. While the signal to noise ratio in the case of the SIPM is increased with some penalty in power consumption.
Resumo:
In Portugal, about 20% of full-time workers are employed under a fixed-term contract. Using a rich longitudinal matched employer-employee dataset for Portugal, with more than 20 million observations and covering the 2002-2012 period, we confirm the common idea that fixed-term contracts are not desirable when compared to permanent ones, by estimating a conditional wage gap of -1.7 log points. Then, we evaluate the sources of that wage penalty by combining a three way high-dimensional fixed effects model with the decomposition of Gelbach (2014), in which the three dimensions considered are the worker’s unobserved ability, the firm’s compensation wage policy and the job title effect. It is shown that the average worker with a fixed-term contract is less productive than his/her permanent counterparts, explaining -3.92 log points of the FTC wage penalty. Additionally, the sorting of workers into lower-paid job titles is also responsible for -0.59 log points of the wage gap. Surprisingly, we found that the allocation of workers among firms mitigates the existing wage penalty (in 4.23 log points), as fixed-term workers are concentrated into firms with a more generous compensation policy. Finally, following Figueiredo et al. (2014), we further control for the worker-firm match characteristics and reach the conclusion that fixed-term employment relationships have an overrepresentation of low quality worker-firm matches, explaining 0.65 log points of the FTC wage penalty.