731 resultados para Project Quality, Continuous Improvement, Stakeholder Management, Construction Project Delivery
Resumo:
This thesis mainly talks about the wavelet transfrom and the frequency division method. It describes the frequency division processing on prestack or post-stack seismic data and application of inversion noise attenuation, frequency division residual static correction and high resolution data in reservoir inversion. This thesis not only describes the frequency division and inversion in theory, but also proves it by model calculation. All the methods are integrated together. The actual data processing demonstrates the applying results. This thesis analyzes the differences and limitation between t-x prediction filter and f-x prediction filter noise attenuation from wavelet transform theory. It considers that we can do the frequency division attenuation process of noise and signal by wavelet frequency division theory according to the differences of noise and signal in phase, amplitude and frequency. By comparison with the f-x coherence noise, removal method, it approves the effects and practicability of frequency division in coherence and random noise isolation. In order to solve the side effects in non-noise area, we: take the area constraint method and only apply the frequency division processing in the noise area. So it can solve the problem of low frequency loss in non-noise area. The residual moveout differences in seismic data processing have a great effect on stack image and resolutions. Different frequency components have different residual moveout differences. The frequency division residual static correction realizes the frequency division and the calculation of residual correction magnitude. It also solves the problems of different residual correction magnitude in different frequency and protects the high frequency information in data. By actual data processing, we can get good results in phase residual moveout differences elimination of pre-stack data, stack image quality and improvement of data resolution. This thesis analyses the characters of the random noises and its descriptions in time domain and frequency domain. Furthermore it gives the inversion prediction solution methods and realizes the frequency division inversion attenuation of the random noise. By the analysis of results of the actual data processing, we show that the noise removed by inversion has its own advantages. By analyzing parameter's about resolution and technology of high resolution data processing, this thesis describes the relations between frequency domain and resolution, parameters about resolution and methods to increase resolution. It also gives the processing flows of the high resolution data; the effect and influence of reservoir inversion caused by high resolution data. Finally it proves the accuracy and precision of the reservoir inversion results. The research results of this thesis reveal that frequency division noise attenuation, frequency residual correction and inversion noise attenuation are effective methods to increase the SNR and resolution of seismic data.
Resumo:
Projeto de Pós-Graduação/Dissertação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Medicina Dentária
Resumo:
In this paper we present Statistical Rate Monotonic Scheduling (SRMS), a generalization of the classical RMS results of Liu and Layland that allows scheduling periodic tasks with highly variable execution times and statistical QoS requirements. Similar to RMS, SRMS has two components: a feasibility test and a scheduling algorithm. The feasibility test for SRMS ensures that using SRMS' scheduling algorithms, it is possible for a given periodic task set to share a given resource (e.g. a processor, communication medium, switching device, etc.) in such a way that such sharing does not result in the violation of any of the periodic tasks QoS constraints. The SRMS scheduling algorithm incorporates a number of unique features. First, it allows for fixed priority scheduling that keeps the tasks' value (or importance) independent of their periods. Second, it allows for job admission control, which allows the rejection of jobs that are not guaranteed to finish by their deadlines as soon as they are released, thus enabling the system to take necessary compensating actions. Also, admission control allows the preservation of resources since no time is spent on jobs that will miss their deadlines anyway. Third, SRMS integrates reservation-based and best-effort resource scheduling seamlessly. Reservation-based scheduling ensures the delivery of the minimal requested QoS; best-effort scheduling ensures that unused, reserved bandwidth is not wasted, but rather used to improve QoS further. Fourth, SRMS allows a system to deal gracefully with overload conditions by ensuring a fair deterioration in QoS across all tasks---as opposed to penalizing tasks with longer periods, for example. Finally, SRMS has the added advantage that its schedulability test is simple and its scheduling algorithm has a constant overhead in the sense that the complexity of the scheduler is not dependent on the number of the tasks in the system. We have evaluated SRMS against a number of alternative scheduling algorithms suggested in the literature (e.g. RMS and slack stealing), as well as refinements thereof, which we describe in this paper. Consistently throughout our experiments, SRMS provided the best performance. In addition, to evaluate the optimality of SRMS, we have compared it to an inefficient, yet optimal scheduler for task sets with harmonic periods.
Resumo:
Quality of Service (QoS) guarantees are required by an increasing number of applications to ensure a minimal level of fidelity in the delivery of application data units through the network. Application-level QoS does not necessarily follow from any transport-level QoS guarantees regarding the delivery of the individual cells (e.g. ATM cells) which comprise the application's data units. The distinction between application-level and transport-level QoS guarantees is due primarily to the fragmentation that occurs when transmitting large application data units (e.g. IP packets, or video frames) using much smaller network cells, whereby the partial delivery of a data unit is useless; and, bandwidth spent to partially transmit the data unit is wasted. The data units transmitted by an application may vary in size while being constant in rate, which results in a variable bit rate (VBR) data flow. That data flow requires QoS guarantees. Statistical multiplexing is inadequate, because no guarantees can be made and no firewall property exists between different data flows. In this paper, we present a novel resource management paradigm for the maintenance of application-level QoS for VBR flows. Our paradigm is based on Statistical Rate Monotonic Scheduling (SRMS), in which (1) each application generates its variable-size data units at a fixed rate, (2) the partial delivery of data units is of no value to the application, and (3) the QoS guarantee extended to the application is the probability that an arbitrary data unit will be successfully transmitted through the network to/from the application.
Resumo:
Statistical Rate Monotonic Scheduling (SRMS) is a generalization of the classical RMS results of Liu and Layland [LL73] for periodic tasks with highly variable execution times and statistical QoS requirements. The main tenet of SRMS is that the variability in task resource requirements could be smoothed through aggregation to yield guaranteed QoS. This aggregation is done over time for a given task and across multiple tasks for a given period of time. Similar to RMS, SRMS has two components: a feasibility test and a scheduling algorithm. SRMS feasibility test ensures that it is possible for a given periodic task set to share a given resource without violating any of the statistical QoS constraints imposed on each task in the set. The SRMS scheduling algorithm consists of two parts: a job admission controller and a scheduler. The SRMS scheduler is a simple, preemptive, fixed-priority scheduler. The SRMS job admission controller manages the QoS delivered to the various tasks through admit/reject and priority assignment decisions. In particular, it ensures the important property of task isolation, whereby tasks do not infringe on each other. In this paper we present the design and implementation of SRMS within the KURT Linux Operating System [HSPN98, SPH 98, Sri98]. KURT Linux supports conventional tasks as well as real-time tasks. It provides a mechanism for transitioning from normal Linux scheduling to a mixed scheduling of conventional and real-time tasks, and to a focused mode where only real-time tasks are scheduled. We overview the technical issues that we had to overcome in order to integrate SRMS into KURT Linux and present the API we have developed for scheduling periodic real-time tasks using SRMS.
Resumo:
The School of Mechanical and Aerospace Engineering at Queen’s University Belfast started BEng and MEng degree programmes in Product Design and Development (PDD) in 2004. Intended from the outset to be significantly different from the existing programmes within the School the PDD degrees used the syllabus and standards defined by the CDIO Initiative as the basis for an integrated curriculum. Students are taught in the context of conceiving, designing, implementing and operating a product. Fundamental to this approach is a core sequence of Design-Build-Test (DBT) experiences which facilitates the development of a range of professional skills as well as the immediate application of technical knowledge gained in strategically aligned supporting modules.
The key objective of the degree programmes is to better prepare students for professional practice. PDD graduates were surveyed using a questionnaire developed by the CDIO founders and interviewed to examine the efficacy of these degree programmes, particularly in this key objective. Graduate employment rates, self assessment of graduate attributes and examples of work produced by MEng graduates provided positive evidence that their capabilities met the requirements of the profession. The 24% questionnaire response rate from the 96 graduates to date did not however facilitate statistically significant conclusions to be drawn and particularly not for BEng graduates who were under represented in the response group. While not providing proof of efficacy the investigation did provide a good amount of useful data for consideration as part of a continuous improvement process.
Resumo:
Intrafraction tumour motion is an issue that is of increased interest in the era of image-guided radiotherapy. It is particularly relevant for non-small cell lung cancer, for which a number of recent developments are in use to aid with motion management in the delivery of radical radiotherapy. The ability to deliver hypofractionated ablative doses, such as in stereotactic radiotherapy, has been aided by improvements in the ability to analyse tumour motion and amend treatment delivery. In addition, accounting for tumour motion can enable dose escalation to occur by reducing the normal tissue being irradiated by virtue of a reduction in target volumes. Motion management for lung tumours incorporates five key components: imaging, breath-hold techniques, abdominal compression, respiratory tracking and respiratory gating. These will be described, together with the relevant benefits and associated complexities. Many studies have described improved dosimetric coverage and reduced normal tissue complication probability rates when using motion management techniques. Despite the widespread uptake of many of these techniques, there is a paucity of literature reporting improved outcome in overall survival and local control for patients whenever motion management techniques are used. This overview will review the extent of lung tumour motion, ways in which motion is detected and summarise the key methods used in motion management.
Resumo:
The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.
Resumo:
Tese de mestrado, Cuidados Farmacêuticos, Universidade de Lisboa, Faculdade de Farmácia, 2013
Resumo:
No presente trabalho apresenta-se um levantamento com base na literatura especializada, das diversas soluções estruturais em betão pré-fabricado existentes, aplicadas em edifícios correntes, mais especificamente as soluções ao nível dos elementos que as constituem, nomeadamente no que respeita a ligações estruturais dos elementos, com combinações in situ, das estruturas préfabricadas e as moldadas em obra, aproveitando o que de melhor se pode obter de ambas as técnicas, com vista a obter um melhor resultado final. Apesar do setor da construção civil estar em crise, tal como vários outros setores, as empresas de pré-fabricação apresentam soluções que poderão contrariar esta tendência, nomeadamente através da diversificação e flexibilização da sua produção, com inovação, criatividade e elevada qualidade. Num mercado em que a construção de edifícios de raiz sofreu um grande abrandamento, começa a surgir no mercado a necessidade de se reabilitar as construções existentes, nomeadamente nos grandes centros das cidades que foram perdendo população ao longo dos tempos. Esta requalificação do espaço urbano permite o desenvolvimento de soluções estruturais pré-fabricadas, no que respeita à reabilitação dos elementos existentes, quer por justaposição para reforço das estruturas, quer por inserção de elementos novos para efetuar correções. Os baixos custos de mão de obra, equipamentos e estaleiro, assim como a redução dos prazos de construção e entrega ao cliente final, dado que a produção não está dependente das condições existentes in situ para se desenvolver, destacam-se da construção civil tradicional. A produção integral dos elementos pré-fabricados de betão em fábrica tem outras vantagens, entre as quais, um melhor planeamento e controle da segurança, um controle rigoroso de qualidade, a redução dos custos de reparação e manutenção, melhor sustentabilidade com redução da quantidade de resíduos produzidos.
Resumo:
Este trabalho académico surge no âmbito da realização da dissertação do Mestrado em Engenharia e Gestão Industrial. Tem como objetivo a melhoria da gestão do Departamento de Infraestruturas, numa empresa de produção de motores elétricos para a indústria automóvel, através da análise, implementação e melhoria de um software de gestão de manutenção, de forma a aumentar a eficiência do Departamento. Este estudo foi desenvolvido durante um estágio curricular na empresa Globe Motors Portugal Lda, localizada em Vila do Conde. Para sua sustentação, foi efetuada uma análise funcional, suportada por um Software de gestão de manutenção, de forma a perceber qual a importância que o mesmo tem no funcionamento do Departamento de Infraestruturas. Pretendeu-se compreender quais as vantagens e desvantagens da sua utilização. Posteriormente, implementou-se uma nova versão deste software, analisando-se os pontos fortes e as oportunidades de melhoria, de forma a tornar o Departamento de infraestruturas mais eficiente, através da utilização desta renovada ferramenta de trabalho. Como objetivo último, pretendeu-se à melhoria da organização e gestão do Departamento de infraestruturas, contribuindo para um desenvolvimento de toda a empresa, uma vez que comungamos a ideia de que só é possível ser competitivo, num mercado altamente exigente, através de processos eficientes, possibilitando a redução de custos a todos os níveis.
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação da Professora Doutora Alcina Augusta de Sena Portugal Dias
Resumo:
Dissertação de Mestrado apresentado ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria, sob orientação de Doutora Alcina de Sena Portugal Dias Esta versão contém as críticas e sugestões de elementos do júri
Resumo:
A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.
Resumo:
RESUMO - Introdução As quedas ocorridas em ambiente hospitalar são um dos principais eventos reportados e são responsáveis por consequências físicas, psicológicas e sociais nos doentes e seus familiares, mas também nos profissionais e nas organizações de saúde. Paralelamente, tais ocorrências representam significativo impacto clínico, económico e social. Objetivo, material e métodos O propósito desta investigação é caracterizar o impacte clínico e económico da ocorrência de quedas em ambiente hospitalar. De forma a alcançar este objetivo, optou-se por um estudo assente no paradigma quantitativo, observacional, transversal, com recolha de informação de forma retrospetiva. Resultados e discussão No ano de 2013, ocorreram 118 quedas, num total de 108 indivíduos hospitalizados no CHMT. A incidência de quedas foi 0,84 quedas por mil dias de internamento. Do total de doentes em que ocorreu a queda, verificou-se que 59% tiveram consequências físicas e estimou-se um aumento de dias de internamento num total de 1114 dias, com consequente aumento dos custos totais em cerca de 1.027.591,2€. Conclusões A incidência de quedas verificada neste estudo, quando comparada com outros estudos internacionais, é menor. No que se refere ao impacto clínico e económico, constatou-se que a maioria das quedas teve consequências físicas e que, os custos adicionais relacionados com o aumento da demora média de internamento são de uma magnitude importante. Tal circunstância, justifica assim, a necessidade de desenvolvimento de estudos nesta área, no sentido de implementar estratégias efetivas que atuem ao nível do sistema e do individuo, com vista à redução deste tipo de ocorrências.