935 resultados para Polygonal faults
Resumo:
O mercado de smartphones tem vindo a crescer massivamente nos últimos anos, bem como a diversi cação das suas funcionalidades no dia-a-dia de cada pessoa. O mercado aberto de aplicações para estes equipamentos também tem sofrido uma forte evolução o que permite uma maior qualidade e competitividade pela apresentação de produtos. O conceito de casas inteligentes está cada vez mais presente e é algo que as pessoas se estão a acomodar de forma gradual. Para acompanhar tal feito, é necessário desenvolver as capacidades dos equipamentos que estas pessoas mais usam para que estes possam dar resposta a estas necessidades. Para o caso atual irão ser estudadas as fechaduras inteligentes. Os sistemas comercializados atualmente, são tipicamente sistemas proprietários e apresentam algumas limitações ou faltas (ex: ao nível da segurança, incapacidade de abranger um largo número de dispositivos móveis ou mesmo ao nível do preço). Neste contexto, e com base na caracterização das soluções de controlo de acesso atuais, foi estudada a viabilidade de, usando uma abordagem assente em tecnologias não proprietárias (i.e., abertas), desenvolver soluções de controlo de acesso com características comparáveis com os sistemas proprietários actuais e, eventualmente, ultrapassando os limites e falhas identi cados. Dadas estas premissas o sistema de controlo de acesso móvel pensado envolve um computador BeagleBone Black e a tecnologia sem os Bluetooth. Este sistema permite a fácil integração do computador com qualquer smartphone atual e é dotado de fortes características de segurança e privacidade. O sistema foi concebido inicialmente para ser implementado em fechaduras de portas mas com possibilidade de expansão para outros equipamentos. Além disso, o sistema permitirá também o acesso a terceiros após a devida autorização do dono.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
RESUMO: As Análises Clínicas são um precioso elemento entre os meios complementares de diagnóstico e terapêutica permitindo uma enorme panóplia de informações sobre o estado de saúde de determinado utente. O objetivo do laboratório é fornecer informação analítica sobre as amostras biológicas, sendo esta caracterizada pela sua fiabilidade, relevância e facultada em tempo útil. Assim, tratando-se de saúde, e mediante o propósito do laboratório, é notória a sua importância, bem como, a dos fatores associados para o cumprimento do mesmo. O bom desenrolar do ciclo laboratorial, compreendido pelas fases pré-analítica, analítica e pós-analítica é crucial para que o objetivo do laboratório seja cumprido com rigor e rapidez. O presente trabalho “O Erro na Fase Pré-Analítica: Amostras Não Conformes versus Procedimentos”, enquadrado no mestrado de Qualidade e Organização no Laboratório de Análises Clínicas, pretendeu enfatizar a importância da fase pré- analítica, sendo ela apontada como a primordial em erros que acabam por atrasar a saída de resultados ou por permitir que os mesmos não sejam fidedignos como se deseja, podendo acarretar falsos diagnósticos e decisões clínicas erradas. Esta fase, iniciada no pedido médico e finalizada com a chegada das amostras biológicas ao laboratório está entregue a uma diversidade de procedimentos que acarretam, por si só, uma grande diversidade de intervenientes, para além de uma variabilidade de factores que influenciam a amostra e seus resultados. Estes fatores, que podem alterar de algum modo a “veracidade” dos resultados analíticos, devem ser identificados e tidos em consideração para que estejamos convitos que os resultados auxiliam diagnósticos precisos e uma avaliação correta do estado do utente. As colheitas que por quaisquer divergências não originam amostras que cumpram o objectivo da sua recolha, não estando por isso em conformidade com o pretendido, constituem uma importante fonte de erro para esta fase pré-analítica. Neste estudo foram consultados os dados relativos a amostras de sangue e urina não conformes detetadas no laboratório, em estudo, durante o 1º trimestre de 2012, para permitir conhecer o tipo de falhas que acontecem e a sua frequência. Aos Técnicos de Análises Clínicas, colaboradores do laboratório, foi-lhes pedido que respondessem a um questionário sobre os seus procedimentos quotidianos e constituíssem, assim, a população desta 2ª parte do projeto. Preenchido e devolvido de forma anónima, este questionário pretendeu conhecer os procedimentos na tarefa de executar colheitas e, hipoteticamente, confrontá-los com as amostras não conformes verificadas. No 1ºsemestre de 2012 e num total de 25319 utentes registaram-se 146 colheitas que necessitaram de repetição por se verificarem não conformes. A “amostra não colhida” foi a não conformidade mais frequente (50%) versus a “má identificação” que registou somente 1 acontecimento. Houve ainda não conformidades que não se registaram como “preparação inadequada” e “amostra mal acondicionada”. Os técnicos revelaram-se profissionais competentes, conhecedores das tarefas a desempenhar e preocupados em executá-las com qualidade. Eliminar o erro não estará, seguramente, ao nosso alcance porém admitir a sua presença, detetá-lo e avaliar a sua frequência fará com que possamos diminuir a sua existência e melhorar a qualidade na fase pré-analítica, atribuindo-lhe a relevância que desempenha no processo laboratorial.-----------ABSTRACT:Clinical analyses are a precious element among diagnostic and therapeutic tests as they allow an enormous variety of information on the state of health of a user. The aim of the laboratory is to supply reliable, relevant and timely analytical information on biological samples. In health-related matters, in accordance with the objective of the laboratory, their importance is vital, as is the assurance that all the tools are in place for the fulfillment of its purpose. A good laboratory cycle, which includes the pre-analytical, analytical and post-analytical phases, is crucial in fulfilling the laboratory’s mission rapidly and efficiently. The present work - "Error in the pre-analytical phase: non-compliant samples versus procedures”, as part of the Master’s in Quality and Organization in the Clinical Analyses Laboratory, wishes to emphasize the importance of the pre-analytical phase, as the phase containing most errors which eventually lead to delays in the issue of results, or the one which enables those results not to be as reliable as desired, which can lead to false diagnosis and wrong clinical decisions. This phase, which starts with the medical request and ends with the arrival of the biological samples to the laboratory, entails a variety of procedures, which require the intervention of different players, not to mention a great number of factors, which influence the sample and the results. These factors, capable of somehow altering the “truth” of the analytical results, must be identified and taken into consideration so that we may ensure that the results help to make precise diagnoses and a correct evaluation of the user’s condition. Those collections which, due to any type of differences, do not originate samples capable of fulfilling their purpose, and are therefore not compliant with the objective, constitute an important source of error in this pre-analytical phase. In the present study, we consulted data from non-compliant blood and urine samples, detected at the laboratory during the 1st quarter of 2012, to find out the type of faults that happen and their frequency. The clinical analysis technicians working at the laboratory were asked to fill out a questionnaire regarding their daily procedures, forming in this way the population for this second part of the project. Completed and returned anonymously, this questionnaire intended to investigate the procedures for collections and, hypothetically, confront them with the verified non-compliant samples. In the first semester of 2012, and out of a total of 25319 users, 146 collections had to be repeated due to non-compliance. The “uncollected sample” was the most frequent non-compliance (>50%) versus “incorrect identification” which had only one occurrence. There were also unregistered non-compliance issues such as “inadequate preparation” and “inappropriately packaged sample”. The technicians proved to be competent professionals, with knowledge of the tasks they have to perform and eager to carry them out efficiently. We will certainly not be able to eliminate error, but recognizing its presence, detecting it and evaluating its frequency will help to decrease its occurrence and improve quality in the pre-analytical phase, giving it the relevance it has within the laboratory process.
Resumo:
Dissertação para obtenção do Grau de Doutor em Engenharia Informática
Resumo:
Dissertação de Mestrado em Engenharia Informática
Resumo:
Tese de Doutoramento em Engenharia Química e Biológica.
Resumo:
Mucho se ha investigado sobre la educación en medios, su importancia y objetivos. Más allá de las Directivas, resoluciones o recomendaciones, la investigación en esta área ha permitido profundizar y solidificar sus fundamentos, al tiempo que ha facilitado el reconocimiento de sus puntos más débiles u omisiones. Uno de los puntos críticos destacados por la formación y por el trabajo de investigación que se ha desarrollado en la Universidad de Miño (Portugal) durante los últimos 20 años, es la inexistencia de recursos y materiales que puedan utilizarse para la promoción de la educación en los medios de comunicación en diferentes contextos. De esta forma, independientemente de los recursos y materiales, se genera la importancia de la transferencia de conocimientos a la práctica, la trascendencia de la mediación del conocimiento producido a su público. Esta preocupación fue la base principal del proyecto titulado «Recursos para la alfabetización mediática» llevado a cabo en el Centro de Estudios de Comunicación y Sociedad y financiado por Evens Foundation (Bélgica). Este trabajo presenta sucintamente los procesos de creación y los resultados generados por estos recursos, centrados en tres medios: televisión, videojuegos e Internet y redes sociales.
Resumo:
This work evaluated the effect of acetylated bacterial cellulose (ABC) substrates coated with urinary bladder matrix (UBM) on the behavior of Retinal Pigment Epithelium (RPE), as assessed by cell adhesion, proliferation and development of cell polarity exhibiting transepithelial resistance and polygonal shaped-cells with microvilli. Acetylation of bacterial cellulose (BC) generated a moderate hydrophobic surface (around 65°) while the adsorption of UBM onto these acetylated substrates did not affect significantly the surface hydrophobicity. The ABS substrates coated with UBM enabled the development of a cell phenotype closer to that of native RPE cells. These cells were able to express proteins essential for their cytoskeletal organization and metabolic function (ZO-1 and RPE65), while showing a polygonal shaped morphology with microvilli and a monolayer configuration. The coated ABC substrates were also characterized, exhibiting low swelling effect (between 1.52.0 swelling/mm3), high mechanical strength (2048 MPa) and non-pyrogenicity (2.12 EU/L). Therefore, the ABC substrates coated with UBM exhibit interesting features as potential cell carriers in RPE transplantation that ought to be further explored.
Resumo:
Dissertação de mestrado integrado em Engenharia Mecânica
Resumo:
Tese de Doutoramento em Ciências (Especialidade de Geologia)
Resumo:
In the trend towards tolerating hardware unreliability, accuracy is exchanged for cost savings. Running on less reliable machines, functionally correct code becomes risky and one needs to know how risk propagates so as to mitigate it. Risk estimation, however, seems to live outside the average programmer’s technical competence and core practice. In this paper we propose that program design by source-to-source transformation be risk-aware in the sense of making probabilistic faults visible and supporting equational reasoning on the probabilistic behaviour of programs caused by faults. This reasoning is carried out in a linear algebra extension to the standard, `a la Bird-Moor algebra of programming. This paper studies, in particular, the propagation of faults across standard program transformation techniques known as tupling and fusion, enabling the fault of the whole to be expressed in terms of the faults of its parts.
Resumo:
Dissertação de mestrado em Direito Administrativo
Resumo:
The demand for computational power has been leading the improvement of the High Performance Computing (HPC) area, generally represented by the use of distributed systems like clusters of computers running parallel applications. In this area, fault tolerance plays an important role in order to provide high availability isolating the application from the faults effects. Performance and availability form an undissociable binomial for some kind of applications. Therefore, the fault tolerant solutions must take into consideration these two constraints when it has been designed. In this dissertation, we present a few side-effects that some fault tolerant solutions may presents when recovering a failed process. These effects may causes degradation of the system, affecting mainly the overall performance and availability. We introduce RADIC-II, a fault tolerant architecture for message passing based on RADIC (Redundant Array of Distributed Independent Fault Tolerance Controllers) architecture. RADIC-II keeps as maximum as possible the RADIC features of transparency, decentralization, flexibility and scalability, incorporating a flexible dynamic redundancy feature, allowing to mitigate or to avoid some recovery side-effects.
Resumo:
The high density of slope failures in western Norway is due to the steep relief and to the concentration of various structures that followed protracted ductile and brittle tectonics. On the 72 investigated rock slope instabilities, 13 were developed in soft weathered mafic and phyllitic allochthons. Only the intrinsic weakness of such rocks increases the susceptibility to gravitational deformation. In contrast, the gravitational structures in the hard gneisses reactivate prominent ductile or/and brittle fabrics. At 30 rockslides along cataclinal slopes, weak mafic layers of foliation are reactivated as basal planes. Slope-parallel steep foliation forms back-cracks of unstable columns. Folds are specifically present in the Storfjord area, together with a clustering of potential slope failures. Folding increases the probability of having favourably orientated planes with respect to the gravitational forces and the slope. High water pressure is believed to seasonally build up along the shallow-dipping Caledonian detachments and may contribute to destabilization of the rock slope upwards. Regional cataclastic faults localized the gravitational structures at 45 sites. The volume of the slope instabilities tends to increase with the amount of reactivated prominent structures and the spacing of the latter controls the size of instabilities.
Resumo:
Fault tolerance has become a major issue for computer and software engineers because the occurrence of faults increases the cost of using a parallel computer. RADIC is the fault tolerance architecture for message passing systems which is transparent, decentralized, flexible and scalable. This master thesis presents the methodology used to implement the RADIC architecture over Open MPI, a well-know large-used message passing library. This implementation kept the RADIC architecture characteristics. In order to validate the implementation we have executed a synthetic ping program, besides, to evaluate the implementation performance we have used the NAS Parallel Benchmarks. The results prove that the RADIC architecture performance depends on the communication pattern of the parallel application which is running. Furthermore, our implementation proves that the RADIC architecture could be implemented over an existent message passing library.