901 resultados para nonexpected utility
Resumo:
Dissertação de Mestrado, Ciências Sociais, 20 de Maio de 2014, Universidade dos Açores.
Resumo:
Introduction Myocardial Perfusion Imaging (MPI) is a very important tool in the assessment of Coronary Artery Disease ( CAD ) patient s and worldwide data demonstrate an increasingly wider use and clinical acceptance. Nevertheless, it is a complex process and it is quite vulnerable concerning the amount and type of possible artefacts, some of them affecting seriously the overall quality and the clinical utility of the obtained data. One of the most in convenient artefacts , but relatively frequent ( 20% of the cases ) , is relate d with patient motion during image acquisition . Mostly, in those situations, specific data is evaluated and a decisi on is made between A) accept the results as they are , consider ing that t he “noise” so introduced does not affect too seriously the final clinical information, or B) to repeat the acquisition process . Another possib ility could be to use the “ Motion Correcti on Software” provided within the software package included in any actual gamma camera. The aim of this study is to compare the quality of the final images , obtained after the application of motion correction software and after the repetition of image acqui sition. Material and Methods Thirty cases of MPI affected by Motion Artefacts and repeated , were used. A group of three, independent (blinded for the differences of origin) expert Nuclear Medicine Clinicians had been invited to evaluate the 30 sets of thre e images - one set for each patient - being ( A) original image , motion uncorrected , (B) original image, motion corrected, and (C) second acquisition image, without motion . The results so obtained were statistically analysed . Results and Conclusion Results obtained demonstrate that the use of the Motion Correction Software is useful essentiall y if the amplitude of movement is not too important (with this specific quantification found hard to define precisely , due to discrepancies between clinicians and other factors , namely between one to another brand); when that is not the case and the amplitude of movement is too important , the n the percentage of agreement between clinicians is much higher and the repetition of the examination is unanimously considered ind ispensable.
Resumo:
Introduction: In the XXI Century ’s Society the scientific investigation process has been growing steadily , and the field of the pharmaceutical research is one of the most enthusiastic and relevant . Here, it is very important to correlate observed functional alterations with possibly modified drug bio distribution patterns . Cancer, inflammation and inf ection are processes that induce many molecular intermediates like cytokines, chemokines and other chemical complexes that can alter the pharmacokinetics of many drugs. One cause of such changes is thought to be the modulator action of these complexes in t he P - Glyco p rotein activity, because they can act like inducers/inhibitors of MDR - 1 expression. This protein results from the expression of MDR - 1 gene, and acts as an ATP energy - dependent efflux pump, with their substrates including many drugs , like antiretrovirals, anticancers, anti - infectives, immunosuppressants, steroids or opioids . Objectives: Because of the lack of methods to provide helpful information in the investigation of in vivo molecular changes in Pgp activity during infection/infl ammation processes, and its value in the explanation of the altered drug pharmacokinetic, this paper want to evaluate the potential utility of 99m Tc - Sestamibi scintigraphy during this kind of health sciences investigation. Although the a im is indeed to create a technique to the in vivo study of Pgp activity, this preliminary Project only reaches the in vitro study phase, assumed as the first step in a n evaluation period for a new tool development. Materials and Methods: For that reason , we are performing in vitro studies of influx and efflux of 99m Tc - Sestamibi ( that is a substrate of Pgp) in hepatocytes cell line (HepG2). We are interested in clarify the cellular behavior of this radiopharmaceutical in Lipopolysaccharide(LPS) stimulated cells ( well known in vitro model of inflammation) to possibly approve this methodology. To validate the results, the Pgp expression will be finally evaluated using Western Blot technique. Results: Up to this moment , we still don’t have the final results, but we have already enough data to let us believe that LPS stimulation induce a downregulation of MDR - 1, and consequently Pgp, which could conduce to a prolonged retention of 99m Tc - Sestamibi in the inflamed cells . Conclusions: If and when this methodology demonstrate the promising results we expect, one will be able to con clude that Nuclear Medicine is an important tool to help evidence based research also on this specific field .
Resumo:
This document is a survey in the research area of User Modeling (UM) for the specific field of Adaptive Learning. The aims of this document are: To define what it is a User Model; To present existing and well known User Models; To analyze the existent standards related with UM; To compare existing systems. In the scientific area of User Modeling (UM), numerous research and developed systems already seem to promise good results, but some experimentation and implementation are still necessary to conclude about the utility of the UM. That is, the experimentation and implementation of these systems are still very scarce to determine the utility of some of the referred applications. At present, the Student Modeling research goes in the direction to make possible reuse a student model in different systems. The standards are more and more relevant for this effect, allowing systems communicate and to share data, components and structures, at syntax and semantic level, even if most of them still only allow syntax integration.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
Aim - To identify clinical and/or genetic predictors of response to several therapies in Crohn’s disease (CD) patients. Methods - We included 242 patients with CD (133 females) aged (mean ± standard deviation) 39 ± 12 years and a disease duration of 12 ± 8 years. The single-nucleotide polymorphisms (SNPs) studied were ABCB1 C3435T and G2677T/A, IL23R G1142A, C2370A, and G9T, CASP9 C93T, Fas G670A and LgC844T, and ATG16L1 A898G. Genotyping was performed with real-time PCR with Taqman probes. Results - Older patients responded better to 5-aminosalicylic acid (5-ASA) and to azathioprine (OR 1.07, p = 0.003 and OR 1.03, p = 0.01, respectively) while younger ones responded better to biologicals (OR 0.95, p = 0.06). Previous surgery negatively influenced response to 5-ASA compounds (OR 0.25, p = 0.05), but favoured response to azathioprine (OR 2.1, p = 0.04). In respect to genetic predictors, we observed that heterozygotes for ATGL16L1 SNP had a significantly higher chance of responding to corticosteroids (OR 2.51, p = 0.04), while homozygotes for Casp9 C93T SNP had a lower chance of responding both to corticosteroids and to azathioprine (OR 0.23, p = 0.03 and OR 0.08, p = 0.02,). TT carriers of ABCB1 C3435T SNP had a higher chance of responding to azathioprine (OR 2.38, p = 0.01), while carriers of ABCB1 G2677T/A SNP, as well as responding better to azathioprine (OR 1.89, p = 0.07), had a lower chance of responding to biologicals (OR 0.31, p = 0.07), which became significant after adjusting for gender (OR 0.75, p = 0.005). Conclusions - In the present study, we were able to identify a number of clinical and genetic predictors of response to several therapies which may become of potential utility in clinical practice. These are preliminary results that need to be replicated in future pharmacogenomic studies.
Resumo:
Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.
Resumo:
Mestrado em Auditoria
Resumo:
Ainda antes da invenção da escrita, o desenho foi utilizado para descrever a realidade, tendo evoluído ao longo dos tempos, ganhando mais qualidade e pormenor e recorrendo a suportes cada vez mais evoluídos que permitissem a perpetuação dessa imagem: dessa informação. Desde as pinturas rupestres, nas paredes de grutas paleolíticas, passando pelos hieróglifos, nos templos egípcios, nas gravuras das escrituras antigas e nos quadros sobre tela, a intenção sempre foi a de transmitir a informação da forma mais directa e perceptível por qualquer indivíduo. Nos dias de hoje as novas tecnologias permitem aceder à informação com uma facilidade nunca antes vista ou imaginada, estando certamente ainda por descobrir outras formas de registar e perpetuar a informação para as gerações vindouras. A fotografia está na origem das grandes evoluções da imagem, permitindo capturar o momento, tornando-o “eterno”. Hoje em dia, na era da imagem digital, além de se mostrar a realidade, é possível incorporar na imagem informação adicional, de modo a enriquecer a experiência de visualização e a maximizar a aquisição do conhecimento. As possibilidades da visualização em três dimensões (3D) vieram dar o realismo que faltava ao formato de fotografia original. O 3D permite a imersão do espectador no ambiente que, a própria imagem retrata, à qual se pode ainda adicionar informação escrita ou até sensorial como, por exemplo, o som. Esta imersão num ambiente tridimensional permite ao utilizador interagir com a própria imagem através da navegação e exploração de detalhes, usando ferramentas como o zoom ou ligações incorporados na imagem. A internet é o local onde, hoje em dia, já se disponibilizam estes ambientes imersivos, tornando esta experiência muita mais acessível a qualquer pessoa. Há poucos anos ainda, esta prática só era possível mediante o recurso a dispositivos especificamente construídos para o efeito e que, por isso, apenas estavam disponíveis a grupos restritos de utilizadores. Esta dissertação visa identificar as características de um ambiente 3D imersivo e as técnicas existentes e possíveis de serem usadas para maximizar a experiência de visualização. Apresentar-se-ão algumas aplicações destes ambientes e sua utilidade no nosso dia-a-dia, antevendo as tendências futuras de evolução nesta área. Serão apresentados exemplos de ferramentas para a composição e produção destes ambientes e serão construídos alguns modelos ilustrativos destas técnicas, como forma de avaliar o esforço de desenvolvimento e o resultado obtido, comparativamente com formas mais convencionais de transmitir e armazenar a informação. Para uma avaliação mais objectiva, submeteram-se os modelos produzidos à apreciação de diversos utilizadores, a partir da qual foram elaboradas as conclusões finais deste trabalho relativamente às potencialidades de utilização de ambientes 3D imersivos e suas mais diversas aplicações.
Resumo:
Este trabalho foi realizado no âmbito da disciplina de Dissertação/Estágio do ramo de Optimização Energética na Indústria Química, do Mestrado em Engenharia Química do Instituto Superior de Engenharia do Porto e foi desenvolvido na empresa Refinarias de Açúcar Reunidas, S.A (RAR Açúcar). Face à crise energética mundial e à globalização, o custo de produção aumentou consideravelmente nos processos industriais e os mercados ficaram mais competitivos. Estes aspectos levam a que cada vez mais os responsáveis industriais se concentrem em encontrar soluções que contrariem estes aspectos. Nesta perspectiva, a questão da conservação da energia na indústria torna-se uma medida fundamental a adoptar na política interna de uma indústria. Na década de 80 as técnicas de integração revelaram-se como uma ferramenta muito útil na área da integração térmica de processos. O conceito destas técnicas focaliza-se numa maior recuperação de energia, um menor consumo de utilidades e consequentemente uma diminuição de custos. Este trabalho tem como objectivo realizar um Levantamento e uma Integração Energética do Processo de Refinação de Açúcar. O conhecimento profundo do processo de refinação do açúcar, assim como o conhecimento de todas as fases do processo da empresa foram um ponto de partida fundamental para o desenrolar do trabalho. O levantamento energético, a nível térmico, a todos os equipamentos das linhas de produção forneceu os dados necessários para a Integração do Processo de Refinação de Açúcar através da Metodologia de Pinch. Como resultado da aplicação da Metodologia Pinch foram introduzidos oito permutadores de calor obtendo-se uma recuperação de calor igual a (confidencial) kJ/dia aliada a um investimento de (confidencial). A recuperação energética alcançada traduz-se numa poupança de (confidencial)de nafta/ano sendo o investimento proposto recuperado em 1,2 anos.
Resumo:
Huntington's disease (HD) is an incurable genetic neurodegenerative disorder that leads to motor and cognitive decline. It is caused by an expanded polyglutamine tract within the Huntingtin (HTT) gene, which translates into a toxic mutant HTT protein. Although no cure has yet been discovered, novel therapeutic strategies, such as RNA interference (RNAi), antisense oligonucleotides (ASO), ribozymes, DNA enzymes, and genome-editing approaches, aimed at silencing or repairing the mutant HTT gene hold great promise. Indeed, several preclinical studies have demonstrated the utility of such strategies to improve HD neuropathology and symptoms. In this review, we critically summarise the main advances and limitations of each gene-silencing technology as an effective therapeutic tool for the treatment of HD.
Resumo:
Relatório da Prática Profissional Supervisionada Mestrado em Educação Pré-Escolar
Resumo:
Relatório da Prática Profissional Supervisionada Mestrado em Educação Pré-Escolar
Resumo:
The development of new products or processes involves the creation, re-creation and integration of conceptual models from the related scientific and technical domains. Particularly, in the context of collaborative networks of organisations (CNO) (e.g. a multi-partner, international project) such developments can be seriously hindered by conceptual misunderstandings and misalignments, resulting from participants with different backgrounds or organisational cultures, for example. The research described in this article addresses this problem by proposing a method and the tools to support the collaborative development of shared conceptualisations in the context of a collaborative network of organisations. The theoretical model is based on a socio-semantic perspective, while the method is inspired by the conceptual integration theory from the cognitive semantics field. The modelling environment is built upon a semantic wiki platform. The majority of the article is devoted to developing an informal ontology in the context of a European R&D project, studied using action research. The case study results validated the logical structure of the method and showed the utility of the method.
Resumo:
The overall goal of the REMPLI project is to design and implement a communication infrastructure for distributed data acquisition and remote control operations using the power grid as the communication medium. The primary target application is remote meter reading with high time resolution, where the meters can be energy, heat, gas, or water meters. The users of the system (e.g. utility companies) will benefit from the REMPLI system by gaining more detailed information about how energy is consumed by the end-users. In this context, the power-line communication (PLC) is deployed to cover the distance between utility company’s Private Network and the end user. This document specifies a protocol for real-time PLC, in the framework of the REMPLI project. It mainly comprises the Network Layer and Data Link Layer. The protocol was designed having into consideration the specific aspects of the network: different network typologies (star, tree, ring, multiple paths), dynamic changes in network topology (due to network maintenance, hazards, etc.), communication lines strongly affected by noise.