128 resultados para Data Standards


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dada a atual conjuntura económica internacional, a Economia Social tem vindo a aumentar consideravelmente a sua importância. Desta forma, torna-se importante conhecer o normativo contabilístico que é aplicado em Portugal. No caso concreto das Entidades do Setor Não Lucrativo, surgiu a necessidade de se encontrarem formas mais eficientes de gerir os recursos para dar resposta às necessidades sociais emergentes, e por isso, estas entidades foram, em 2011, enquadradas num novo contexto legal. O sucesso, o crescimento e a sobrevivência de uma entidade dependem da sua capacidade para gerar fluxos de caixa e/ou obter os recursos financeiros necessários ao desenvolvimento da sua atividade. Neste sentido, é a Demonstração de Fluxos de Caixa (DFC) que fornece aos seus utilizadores uma base para avaliar a capacidade da entidade gerar e utilizar os seus fluxos de caixa. Esta dissertação aborda uma área de estudo, ainda pouco investigada, a Economia Social e, em particular, as Instituições Particulares de Solidariedade Social (IPSS), sendo notório que o interesse por esta área tem vindo a acentuar-se nos últimos anos. Assim, fazendo o respetivo enquadramento teórico e normativo, avalia-se a importância da DFC, mais especificamente, a importância do relato dos fluxos nas IPSS. Para a realização desta dissertação, foi feita a análise em profundidade do relato da DFC nas IPSS, recorrendo à metodologia qualitativa, nomeadamente, à investigação descritiva, aos métodos e técnicas de recolha de dados, e, por último, à análise de conteúdo para tratar os dados qualitativos, tais como, as entrevistas. Para tratar alguns dados estatísticos foi utilizado o Microsoft Excel do Microsoft Office. A presente dissertação demonstra que o relato dos fluxos da DFC é extremamente importante, pois proporciona informação financeira que é importante no processo de tomada de decisão e na avaliação do desempenho financeiro das IPSS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The discussion of possible scenarios for the future of Quality is on the priority list of major Quality Practitioners Societies. EOQ – European Organization for Quality (EOQ, 2014) main team for its 58th EOQ-Congress held June 2014 in Göteborg was “Managing Challenges in Quality Leadership” and ASQ - American Society for Quality (ASQ, 2015) appointed “the Future of Quality” for Quality Progress Magazine November 2015 issue. In addition, the ISO 9001:2008 revision process carried by ISO/TC 176 aims to assure that ISO 9001:2015 International Standard remains stable for the next 10 years (ISO, 2014) contributing to an increased discussion on the future of quality. The purpose of this research is to review available Quality Management approaches and outline, adding an academic perspective, expected developments for Quality within the 21st Century. This paper follows a qualitative approach, although data from international organizations is used. A literature review has been undertaken on quality management past and potential future trends. Based on these findings a model is proposed for organization quality management development and propositions for the future of quality management are advanced. Firstly, a state of the art of existing Quality Management approaches is presented, for example, like Total Quality Management (TQM) and Quality Gurus, ISO 9000 International Standards Series (with an outline of the expected changes for ISO 9001:2015), Six Sigma and Business Excellence Models.Secondly, building on theoretical and managerial approaches, a two dimensional matrix – Quality Engineering (QE - technical aspects of quality) and Quality Management (QM: soft aspects of quality) - is presented, outlining five proposed characterizations of Quality maturity levels and giving insights for applications and future developments. Literature review highlights that QM and QE may be addressing similar quality issues but their approaches are different in terms of scope breadth and intensity and they ought to complement and reciprocally reinforce one another. The challenges organizations face within the 21st century have stronger uncertainty, complexity, and differentiation. Two main propositions are advanced as relevant for 21st Century Quality: - QM importance for the sustainable success of organizations will increase and they should be aware of the larger ecosystem to be managed for improvement, possibly leading to the emergence of a new Quality paradigm, The Civilizacional Excellence paradigm. - QE should get more attention from QM and the Quality professionals will have to: a) Master and apply in wider contexts and in additional depth the Quality Tools (basic, intermediate and advanced); b) Have the soft skills needed for its success; c) Be results oriented and better understand and demonstrate the relationships between approaches and results These propositions challenge both scholars and practitioners for a sustained and supported discussion on the future of Quality. “All things are ready, if our mind be so.” (Shakespeare, Henry V, circa 1599).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Post-MAPS is a web platform that collects gastroenterological exam data from several european hospital centers, to be used in future clinical studies and was developed in partnership with experts from the gastroenterological area and information technology (IT) technicians. However, although functional, this platform has some issues that are crucial for its functioning, and can render user interaction unpleasant and exhaustive. Accordingly, we proposed the development of a new web platform, in which we aimed for an improvement in terms of usability, data uni cation and interoperability. Therefore, it was necessary to identify and study different ways of acquiring clinical data and review some of the existing clinical databases in order to understand how they work and what type of data they store, as well as their impact and contribution to clinical knowledge. Closely linked to the data model is the ability to share data with other systems, so, we also studied the concept of interoperability and analyzed some of the most widely used international standards, such as DICOM, HL7 and openEHR. As one of the primary objectives of this project was to achieve a better level of usability, practices related to Human Computer-Interaction, such as requirement analysis, creation of conceptual models, prototyping, and evaluation were also studied. Before we began the development, we conducted an analysis of the previous platform, from a functional point of view, which allowed us to gather not only a list of architectural and interface issues, but also a list of improvement opportunities. It was also performed a small preliminary study in order to evaluate the platform's usability, where we were able to realize that perceived usability is different between users, and that, in some aspects, varies according to their location, age and years of experience. Based on the information gathered during the platform's analysis and in the conclusions of the preliminary study, a new platform was developed, prepared for all potential users, from the inexperienced to the most comfortable with technology. It presents major improvements in terms of usability, also providing several new features that simplify the users' work, improving their interaction with the system, making their experience more enjoyable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos o consumo de energia elétrica produzida a partir de fontes renováveis tem aumentado significativamente. Este aumento deve-se ao impacto ambiental que recursos como o petróleo, gás, urânio, carvão, entre outros, têm no meio ambiente e que são notáveis no diaa- dia com as alterações climáticas e o aquecimento global. Por sua vez, estes recursos têm um ciclo de vida limitado e a dada altura tornar-se-ão escassos. A preocupação de uma melhoria contínua na redução dos impactos ambientais levou à criação de Normas para uma gestão mais eficiente e sustentável do consumo de energia nos edifícios. Parte da eletricidade vendida pelas empresas de comercialização é produzida através de fontes renováveis, e com a recente publicação do Decreto de Lei nº 153/2014 de 20 outubro de 2014 que regulamenta o autoconsumo, permitindo que também os consumidores possam produzir a sua própria energia nas suas residências para reduzir os custos com a compra de eletricidade. Neste contexto surgiram os edifícios inteligentes. Por edifícios inteligentes entende-se que são edifícios construídos com materiais que os tornam mais eficientes, possuem iluminação e equipamentos elétricos mais eficientes, e têm sistemas de produção de energia que permitem alimentar o próprio edifício, para um consumo mais sustentado. Os sistemas implementados nos edifícios inteligentes visam a monitorização e gestão da energia consumida e produzida para evitar desperdícios de consumo. O trabalho desenvolvido visa o estudo e a implementação de Redes Neuronais Artificiais (RNA) para prever os consumos de energia elétrica dos edifícios N e I do ISEP/GECAD, bem como a previsão da produção dos seus painéis fotovoltáicos. O estudo feito aos dados de consumo permitiu identificar perfis típicos de consumo ao longo de uma semana e de que forma são influenciados pelo contexto, nomeadamente, com os dias da semana versus fim-de-semana, e com as estações do ano, sendo analisados perfis de consumo de inverno e verão. A produção de energia através de painéis fotovoltaicos foi também analisada para perceber se a produção atual é suficiente para satisfazer as necessidades de consumo dos edifícios. Também foi analisada a possibilidade da produção satisfazer parcialmente as necessidades de consumos específicos, por exemplo, da iluminação dos edifícios, dos seus sistemas de ar condicionado ou dos equipamentos usados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As afluências indevidas resultantes direta ou indiretamente da precipitação são um dos principais fatores que provocam graves problemas de carácter ambiental, estrutural e económico, no âmbito de um bom funcionamento dos sistemas separativos de saneamento e tratamento de águas residuais urbanas. Ao longo dos anos, com a expansão do serviço de saneamento à população, tem sido reconhecido que os caudais excedentes às redes de drenagem de águas residuais e estações de tratamento são um problema grave e para isso estão a ser criados critérios cada vez mais exigentes no domínio da gestão e operação destes sistemas de saneamento. Para uma melhor compreensão sobre a incidência das afluências indevidas nos sistemas de saneamento e nas estações de tratamento de águas residuais, é necessário realizar estudos de quantificação e caracterização no sistema de esgotos. Com a necessidade de compreender a plenitude e natureza deste problema, tornou-se necessário desenvolver metodologias com o objetivo de melhorar a eficiência e eficácia hidráulica dos sistemas de drenagem e de tratamento. Este trabalho tem como objetivo a análise quantitativa das afluências indevidas, recorrendo a um caso de estudo de uma bacia de drenagem de águas residuais. Para adquirir mais conhecimento sobre o tema foi necessário recolher várias metodologias existentes de maneira a selecionar, estudar e aplicar o método mais vantajoso. Nesta dissertação, foram utilizados dados disponibilizados pela SIMRIA, no que respeita aos caudais de bombagem da estação elevatória a que afluiu a rede em estudo, e pela INDAQUA Feira, no que respeita aos dados de precipitação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente incorporação das evoluções tecnológicas nos equipamentos médicos modernos, além de os tornar mais compactos e precisos, proporciona igualmente ganhos de outros benefícios importantes, especialmente ao nível da eficiência das terapias prescritas aos pacientes. Os sofisticados ventiladores pulmonares de cuidados intensivos do presente espelham perfeitamente esta realidade e por isso necessitam de procedimentos técnicos de verificação metrológica – calibrações, também eles mais exatos e rastreáveis, de modo a fornecerem informações corretas sobre se o estado de funcionamento de um determinado ventilador cumpre ou não as tolerâncias declaradas pelo seu fabricante. Através da presente dissertação pretendeu-se desenvolver um procedimento técnico de calibração dos ventiladores de cuidados intensivos tendo-se estudado, para esta finalidade, os equipamentos de calibração específicos disponíveis no mercado, a normalização e o enquadramento regulamentar do controlo metrológico aplicáveis, bem como o princípio de funcionamento do ventilador pulmonar e a evolução da ventilação mecânica ocorrida. No domínio da abordagem efetuada sobre o âmbito da metrologia, implementou-se a determinação das incertezas dos resultados das calibrações efetuadas pelo procedimento técnico desenvolvido, de acordo com a metodologia constante do GUM1. Considerando ainda os défices significativos de conhecimento da metrologia e da prática do controlo metrológico no setor da saúde, a par dos riscos inerentes para os próprios pacientes, procura-se contribuir com este trabalho, de uma forma transversal e ampla, para uma maior consciencialização, quer dos profissionais de saúde, quer dos gestores envolvidos, para a relevância da realização das calibrações periódicas dos complexos equipamentos de suporte de vida que são os ventiladores pulmonares de cuidados intensivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As technology advances not only do new standards and programming styles appear but also some of the previously established ones gain relevance. In a new Internet paradigm where interconnection between small devices is key to the development of new businesses and scientific advancement there is the need to find simple solutions that anyone can implement in order to allow ideas to become more than that, ideas. Open-source software is still alive and well, especially in the area of the Internet of Things. This opens windows for many low capital entrepreneurs to experiment with their ideas and actually develop prototypes, which can help identify problems with a project or shine light on possible new features and interactions. As programming becomes more and more popular between people of fields not related to software there is the need for guidance in developing something other than basic algorithms, which is where this thesis comes in: A comprehensive document explaining the challenges and available choices of developing a sensor data and message delivery system, which scales well and implements the delivery of critical messages. Modularity and extensibility were also given much importance, making this an affordable tool for anyone that wants to build a sensor network of the kind.