40 resultados para indexing consistency
em Instituto Politécnico do Porto, Portugal
Resumo:
Multi-agent architectures are well suited for complex inherently distributed problem solving domains. From the many challenging aspects that arise within this framework, a crucial one emerges: how to incorporate dynamic and conflicting agent beliefs? While the belief revision activity in a single agent scenario is concentrated on incorporating new information while preserving consistency, in a multi-agent system it also has to deal with possible conflicts between the agents perspectives. To provide an adequate framework, each agent, built as a combination of an assumption based belief revision system and a cooperation layer, was enriched with additional features: a distributed search control mechanism allowing dynamic context management, and a set of different distributed consistency methodologies. As a result, a Distributed Belief Revision Testbed (DiBeRT) was developed. This paper is a preliminary report presenting some of DiBeRT contributions: a concise representation of external beliefs; a simple and innovative methodology to achieve distributed context management; and a reduced inter-agent data exchange format.
Resumo:
There has been a growing interest in research on performance measurement and management practices, which seems to reflect researchers’ response to calls for the need to increase the relevance of management accounting research. However, despite the development of the new public management literature, studies involving public sector organizations are relatively small compared to those involving business organizations and extremely limited when it comes to public primary health care organizations. Yet, the economic significance of public health care organizations in the economy of developed countries and the criticisms these organizations regularly face from the public suggests there is a need for research. This is particularly true in the case of research that may lead to improvement in performance measurement and management practices and ultimately to improvements in the way health care organizations use their limited resources in the provision of services to the communities. This study reports on a field study involving three public primary health care organisations. The evidence obtained from interviews and archival data suggests a performance management practices in these institutions lacked consistency and coherence, potentially leading to decreased performance. Hierarchical controls seemed to be very weak and accountability limited, leading to a lack of direction, low motivation and, in some circumstances to insufficient managerial abilities and skills. Also, the performance management systems revealed a number of weaknesses, which suggests that there are various opportunities for improvement in performance in the studied organisations.
Resumo:
Introdução: Programas de self-management têm como objectivo habilitar os pacientes com estratégias necessárias para levar a cabo procedimentos específicos para a patologia. A última revisão sistemática sobre selfmanagament em DPOC foi realizada em 2007, concluindo-se que ainda não era possível fornecer dados claros e suficientes acerca de recomendações sobre a estrutura e conteúdo de programas de self-managament na DPOC. A presente revisão tem o intuito de complementar a análise da revisão anterior, numa tentativa de inferir a influência do ensino do self-management na DPOC. Objectivos: verificar a influência dos programas de self-management na DPOC, em diversos indicadores relacionados com o estado de saúde do paciente e na sua utilização dos serviços de saúde. Estratégia de busca: pesquisa efectuada nas bases de dados PubMed e Cochrane Collaboration (01/01/2007 – 31/08/2010). Palavras-chave: selfmanagement education, self-management program, COPD e pulmonary rehabilitation. Critérios de Selecção: estudos randomizados sobre programas de selfmanagement na DPOC. Extracção e Análise dos Dados: 2 investigadores realizaram, independentemente, a avaliação e extracção de dados de cada artigo. Resultados: foram considerados 4 estudos randomizados em selfmanagement na DPOC nos quais se verificaram benefícios destes programas em diversas variáveis: qualidade de vida a curto e médio prazo, utilização dos diferentes recursos de saúde, adesões a medicação de rotina, controle das exacerbações e diminuição da sintomatologia. Parece não ocorrer alteração na função pulmonar e no uso de medicação de emergência, sendo inconclusivo o seu efeito na capacidade de realização de exercício. Conclusões: programas de self-management aparentam ter impacto positivo na qualidade de vida, recurso a serviços de saúde, adesão à medicação, planos de acção e níveis de conhecimento da DPOC. Discrepâncias nos critérios de selecção das amostras utilizadas, períodos de seguimento desiguais, consistência das variáveis mensuradas, condicionam a informação disponibilizada sobre este assunto.
Resumo:
Dissertação de Mestrado em Finanças Empresariais
Resumo:
O objectivo deste estudo é determinar as propriedades psicométricas da versão portuguesa do Stroke Aphasic Depression Questionnaire-21 (SADQ-21). Envolveu 120 sujeitos, 33 dos quais com afasia. Os resultados demonstraram que o SADQ-21 revela uma consistência interna muito elevada (α=0,87). A validade de construção identificou cinco domínios. A variância total explicada pelos factores foi elevada (65,85%). A correlação entre a medida de ouro e o SADQ-21 é estatisticamente significativa (p<0,05). Os indivíduos com afasia estão significativamente mais deprimidos que os sem afasia (p=0,0001). Conclui-se que o SADQ-21 é um instrumento adequado para a avaliação da sintomatologia depressiva em pessoas com afasia.
Resumo:
Numa sociedade cada vez mais envelhecida e dependente, as políticas de desinstitunalização e o cuidado informal surgem como resposta a uma procura crescente de cuidados de saúde. O cuidado informal assume assim a responsabilidade pela prestação dos cuidados à pessoa dependente. O presente estudo pretende analisar qual o impacto dessa situação na qualidade de vida do cuidador informal. O principal objetivo deste estudo foi avaliar o impacto na qualidade de vida do cuidador informal no início do processo de cuidados à pessoa dependente. Para tal procedeu-se à realização de um estudo de natureza quantitativa de caracter analítico com aplicação da escala WHOQOL-Bref a uma amostra de 82 cuidadores informais em dois momentos distintos, o primeiro antes e o segundo 2 meses após o início do processo do cuidado informal. Avaliamos a consistência interna dos quatro domínios da escala tendo-se obtido um alfa de Cronbach no domínio: físico (α=0,844), psicológico (α=0,800), ambiente (α=0,807), relações sociais (α=0,706) e a pontuação total (α=0,933). Para proceder à análise inferencial recorreu-se ao Coeficiente de correlação de Spearman, e ao teste- t. Os resultados mostram que o cuidado informal implica uma diminuição significativa na qualidade de vida do cuidador (p <0,001). Constatou-se igualmente que o cuidado informal tem maior impacto na qualidade de vida do homem cuidador do que da mulher cuidadora (p=0,036). Os resultados mostram ainda que o cuidado informal aumenta o consumo de cuidados de saúde em situações de urgência por parte dos cuidadores informais (p <0,001).
Resumo:
Mestrado em Engenharia Informática
Resumo:
Introduction: A major focus of data mining process - especially machine learning researches - is to automatically learn to recognize complex patterns and help to take the adequate decisions strictly based on the acquired data. Since imaging techniques like MPI – Myocardial Perfusion Imaging on Nuclear Cardiology, can implicate a huge part of the daily workflow and generate gigabytes of data, there could be advantages on Computerized Analysis of data over Human Analysis: shorter time, homogeneity and consistency, automatic recording of analysis results, relatively inexpensive, etc.Objectives: The aim of this study relates with the evaluation of the efficacy of this methodology on the evaluation of MPI Stress studies and the process of decision taking concerning the continuation – or not – of the evaluation of each patient. It has been pursued has an objective to automatically classify a patient test in one of three groups: “Positive”, “Negative” and “Indeterminate”. “Positive” would directly follow to the Rest test part of the exam, the “Negative” would be directly exempted from continuation and only the “Indeterminate” group would deserve the clinician analysis, so allowing economy of clinician’s effort, increasing workflow fluidity at the technologist’s level and probably sparing time to patients. Methods: WEKA v3.6.2 open source software was used to make a comparative analysis of three WEKA algorithms (“OneR”, “J48” and “Naïve Bayes”) - on a retrospective study using the comparison with correspondent clinical results as reference, signed by nuclear cardiologist experts - on “SPECT Heart Dataset”, available on University of California – Irvine, at the Machine Learning Repository. For evaluation purposes, criteria as “Precision”, “Incorrectly Classified Instances” and “Receiver Operating Characteristics (ROC) Areas” were considered. Results: The interpretation of the data suggests that the Naïve Bayes algorithm has the best performance among the three previously selected algorithms. Conclusions: It is believed - and apparently supported by the findings - that machine learning algorithms could significantly assist, at an intermediary level, on the analysis of scintigraphic data obtained on MPI, namely after Stress acquisition, so eventually increasing efficiency of the entire system and potentially easing both roles of Technologists and Nuclear Cardiologists. In the actual continuation of this study, it is planned to use more patient information and significantly increase the population under study, in order to allow improving system accuracy.
Resumo:
Na Fábrica de Papel da Ponte Redonda fabricam-se sacos de papel multi-folhas e papel reciclado do tipo Kraft. Tendo em consideração a primeira actividade, é de grande interesse optimizar o processo de fabrico de papel com vista a incorporara a máxima taxa de papel produzido internamente nas diferentes camadas dos sacos de papel. Os papéis de maior interesse são os do tipo Fluting e Liners, tendo sido produzidos em 2010 um total de 4,9 mil toneladas, ou seja 90% de todo o papel fabricado em 2010, correspondendo a a 4 mil toneladas de papéis do tipo Liners e 0,9 mil toneladas para os papéis do tipo Fluting. Nos papéis do tipo Liners incluem-se os papéis do tipo Test-Liner e Kraft-Liner, representando em termos produtivos valores idênticos. No âmbito deste trabalho, em que se pretendeu controlar as águas do processo e optimizar a produção de papel, foram introduzidos uma unidade de flutuação e um sistema que permitisse regular a consistência da suspensão fibrosa à entrada da máquina do papel, e foram ainda estudadas as possibilidades de adição de produtos químicos para melhorar as características da pasta assim como um tratamento microbiológico mais eficaz para todo o processo. Para se avaliar se as medidas implementadas teriam um impacto positivo na qualidade desses dois tipos de papéis, desenvolveu-se o trabalho em duas fases: a primeira envolve a introdução de um sistema de flutuação e de um sistema de controlo de consistência da pasta, assim como a selecção de produtos químicos a adicionar ao processo. A segunda fase consistiu na avaliação do efeito destas medidas nas características do papel fabricado. Para o efeito foram escolhidos dois tipos de papel e de diferentes gramagens, nomeadamente Test-Liner de 80 g/m2 e Fluting de 110 g/m2. Introduziu-se um flutuador com o objectivo de tratar parte das águas do processo de fabrico com vista a serem reutilizadas em determinadas aplicações possíveis para a qualidade da água obtida (lavagens e água do processo), de modo a conseguir-se uma poupança de água, assim como aproveitar-se as lamas resultantes, ricas em fibra de celulose, para utilizá-las como matéria-prima. Foi introduzido um regulador de consistência no processo da Ponte Redonda com o objectivo de alimentar de uma forma constante a consistência da pasta à entrada da máquina do papel proporcionando uma melhor formação da folha, devido à ligação entre fibras, na direcção máquina e direcção transversal. Esse sistema inovador é um Regulador de Consistência que vem proporcionar à máquina do papel uma alimentação em fibra mais constante. O fabrico de papel apenas a partir de fibras de celulose não permitirá obter um papel com as características desejadas para a sua utilização. Para corrigir estas deficiências, são adicionados produtos químicos para atribuir ou melhorar as propriedades dos papéis. Desta forma considerou-se interessante introduzir no processo um agente de retenção numa fase posterior à preparação da pasta e antes da chegada à máquina de papel, de forma a melhorar as características da suspensão fibrosa. Assim foi implementado um sistema cuja eficácia foi avaliada. Concluiu-se que com a sua implementação a máquina de papel apresentou melhores resultados na drenagem e na turbidez da água removida, significando uma água com menor teor de matéria suspensa e dissolvida, devido à melhor agregação das fibras dispersas na suspensão fibrosa, levando a um aumento da drenagem e consequentemente melhor eficiência das prensas e secaria. Foi também elaborado um estudo para introdução de um sistema de tratamento microbiológico em todo o processo de fabrico de papel, devido à existência de microorganismos prejudiciais ao seu fabrico. Concluiu-se que a água clarificada proveniente do flutuador apresentou qualidade aceitável para os objectivos pretendidos. No entanto, considerando a eficiência de 26,5% na remoção de sólidos suspensos será necessário mais algum tempo de utilização da água clarificada, cerca de um ano, para avaliar se esta terá algum efeito prejudicial nos equipamentos. Verificou-se que devido à existência de microrganismos em todo o processo de fabrico de papel será necessário efectuar lavagens aos tinões, tanques e circuitos com alguma regularidade, aproveitando-se as paragens do processo assim como implementar um sistema de tratamento microbiológico mais eficaz. Em resultado das medidas implementadas concluiu-se que os papéis produzidos apresentaram melhorias, tendo-se obtido melhores resultados em todos os ensaios de resistência. No papel do tipo Test-Liner destacam-se os bons resultados nos ensaios de superfície, Cobb60 e rebentamento. No caso do parâmetro do Cobb60, foi um resultado surpreendente visto que por norma este tipo de papéis reciclados não suportam este ensaio. Concluiu-se também que as medidas implementadas proporcionaram uma melhor agregação e ligação entre fibras, e melhor formação da folha na máquina do papel proporcionando aos papéis propriedades físico-mecânicas mais interessantes.
Resumo:
A presente dissertação tem como principal objectivo estimar as emissões de carbono resultantes das actividades da Monteiro, Ribas- Embalagens Flexíveis, S.A. A realização do inventário de gases de efeito estufa permite que a Monteiro, Ribas- Embalagens Flexíveis, S.A, identifique quais as suas fontes emissoras e quantifique as emissões de gases de efeito estufa, permitindo criar estratégias de redução das mesmas. A elaboração do inventário foi fundamentada nas directrizes do Greenhouse Gas Protocol, obedecendo aos princípios de relevância, integrabilidade, consistência, transparência e exactidão. A metodologia adoptada utiliza factores de emissão documentados para efectuar o cálculo das emissões de gases de efeito de estufa (GEE). Estes factores são rácios que relacionam as emissões de GEE com dados de actividade específicos para cada fonte de emissão. Como emissões directas (âmbito 1), foram quantificadas as emissões provenientes do uso de gás natural nas caldeiras, consumo de vapor e de água quente, e as emissões do veículo comercial da empresa. Como emissões indirectas de âmbito 2, incluem-se as resultantes da electricidade consumida. As emissões indirectas estimadas de âmbito 3 referem-se, no caso em estudo, ao transporte de resíduos, ao deslocamento de funcionários para a empresa e às viagens de negócio. Face ao tipo de emissões identificadas, criou-se uma ferramenta de cálculo que contém todos os valores de factores de emissão que podem ser utilizados em função das características específicas dos dados de actividade relativos às várias fontes emissoras da Empresa. Esta ferramenta permitirá, no futuro, aperfeiçoar o cálculo das emissões, a partir de uma melhor sistematização da informação disponível. Com este trabalho também foi possível identificar a necessidade de recolher e organizar alguma informação complementar à já existente. O ano base considerado foi 2011. Os resultados obtidos mostram que, neste ano, as actividades da Monteiro, Ribas- Embalagens Flexíveis, S.A serão responsáveis pela emissão de 2968,6 toneladas de CO2e (dióxido de carbono equivalente). De acordo com a Decisão 2007/589/CE da Comissão de 18 de Julho de 2007 conclui-se que a Monteiro, Ribas Embalagens e Flexíveis S.A. se enquadra na categoria de instalações com baixo níveis de emissões pois as suas emissões médias anuais são inferiores a 25000 toneladas de CO2e. Conclui-se que a percentagem maior das emissões estimadas (50,7 %) é proveniente do consumo de electricidade (emissões indirectas, âmbito 2), seguida pelo consumo de gás natural (emissões directas) que representa 39,4% das emissões. Relacionando os resultados obtidos com a produção total da Monteiro, Ribas- Embalagens Flexíveis, S.A, em 2011, obtém-se o valor de 0,65 kg de CO2e por cada quilograma de produto final. Algumas das fontes emissoras identificadas não foram incorporadas no inventário da empresa, nomeadamente o transporte das matérias-primas e dos produtos. Isto deve-se ao facto de não ter sido possível compilar a informação necessária, em tempo útil. Apesar de se tratar de emissões indirectas de âmbito 3, consideradas opcionais, recomenda-se que num próximo trabalho deste tipo, essas emissões possam vir a ser quantificadas. As principais incertezas associadas às estimativas de emissão dizem respeito aos dados de actividade uma vez que foi a primeira vez que a empresa realizou um inventário de gases de efeito de estufa. Há informações mais específicas sobre os dados de actividade que a empresa dispõe e que poderá, de futuro, sistematizar de uma forma mais adequada para a sua utilização com este fim.
Resumo:
Desde o início que os sistemas periciais não foram vistos apenas como sistemas que poderiam substituir os peritos. Os peritos por sua vez, independentemente da área em que operam, eram tidos como indivíduos que atingiram a excelência através da experiência, estudo e total dedicação, por vezes durante anos. Hoje, mais do que assumir o papel de um perito na excelência de uma área de actuação, os sistemas periciais sobressaem pela disponibilidade contínua, acessos facilitados, custos reduzidos, estabilidade de funcionamento e coerência de raciocínio. Empurrados pelos avanços actuais das redes em termos de velocidade e propagação global, estes sistemas são hoje disponibilizados de forma mais simples e acessível. Este trabalho é realizado com o propósito de evoluir o actual sistema para uma versão mais apelativa, funcional e fiável. Um dos objectivos passa pela evolução do actual modo de funcionamento, utilização local e apenas um utilizador, para um modo de funcionamento que permita uma disponibilização num ambiente de acesso global, acessível a qualquer hora e em qualquer local.
Resumo:
Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.
Resumo:
The premise of this paper is that a model for communicating the national value system must start from a strategy aimed at the identification, the cultivation and communication of values that give consistency to the value system. The analysis concentrates on the elements of such strategies and on the implications of applying a value communication program on the identity architecture of the community. The paper will also discuss the role of the national value system in the context of the emerging global culture, where the individual has the power to create his/her own hybrid cultural model.
Resumo:
In this paper, we present some of the fault tolerance management mechanisms being implemented in the Multi-μ architecture, namely its support for replica non-determinism. In this architecture, fault tolerance is achieved by node active replication, with software based replica management and fault tolerance transparent algorithms. A software layer implemented between the application and the real-time kernel, the Fault Tolerance Manager (FTManager), is the responsible for the transparent incorporation of the fault tolerance mechanisms The active replication model can be implemented either imposing replica determinism or keeping replica consistency at critical points, by means of interactive agreement mechanisms. One of the Multi-μ architecture goals is to identify such critical points, relieving the underlying system from performing the interactive agreement in every Ada dispatching point.
Resumo:
The recent trends of chip architectures with higher number of heterogeneous cores, and non-uniform memory/non-coherent caches, brings renewed attention to the use of Software Transactional Memory (STM) as a fundamental building block for developing parallel applications. Nevertheless, although STM promises to ease concurrent and parallel software development, it relies on the possibility of aborting conflicting transactions to maintain data consistency, which impacts on the responsiveness and timing guarantees required by embedded real-time systems. In these systems, contention delays must be (efficiently) limited so that the response times of tasks executing transactions are upper-bounded and task sets can be feasibly scheduled. In this paper we assess the use of STM in the development of embedded real-time software, defending that the amount of contention can be reduced if read-only transactions access recent consistent data snapshots, progressing in a wait-free manner. We show how the required number of versions of a shared object can be calculated for a set of tasks. We also outline an algorithm to manage conflicts between update transactions that prevents starvation.