837 resultados para Information Systems Management
Resumo:
RESUMO - Introdução: A ausência de um plano de contabilidade analítica para os Cuidados de Saúde Primários é um problema para a realização da contabilidade interna, fundamental para a gestão de qualquer instituição de saúde. Sem linhas orientadoras para a uniformização dos critérios de imputação e distribuição dos custos/proveitos, torna-se complicado obter dados analíticos para que haja um controlo de gestão mais eficaz, que permita a utilização dos recursos de uma forma eficiente e racional, melhorando a qualidade da prestação de cuidados aos utentes. Objectivo: O presente projecto de investigação tem como principal objectivo apurar o custo por utente nos Cuidados de Saúde Primários. Metodologia: Foi construída uma metodologia de apuramento de custos com base no método Time-Driven Activity-Based Costing. O custo foi imputado a cada utente utilizando os seguintes costs drivers: tempo de realização da consulta e a produção realizada para a imputação dos custos com o pessoal médico; produção realizada para a imputação dos outros custos com o pessoal e dos custos indirectos variáveis; número total de utentes inscritos para a imputação dos custos indirectos fixos. Resultados: O custo total apurado foi 2.980.745,10€. O número médio de consultas é de 3,17 consultas por utente inscrito e de 4,72 consultas por utente utilizador. O custo médio por utente é de 195,76€. O custo médio por utente do género feminino é de 232,41€. O custo médio por utente do género masculino é de 154,80€. As rubricas com mais peso no custo total por utente são os medicamentos (40,32%), custo com pessoal médico (22,87%) e MCDT (17,18%). Conclusão: Na implementação de um sistema de apuramentos de custos por utente, é fulcral que existam sistemas de informação eficientes que permitam o registo dos cuidados prestados ao utente pelos vários níveis de prestação de cuidados. É importante também que a gestão não utilize apenas os resultados apurados como uma ferramenta de controlo de custos, devendo ser potenciada a sua utilização para a criação de valor ao utente.
Resumo:
Tese apresentada como requisito parcial para obtenção do grau de Doutor em Gestão de Informação
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Dissertation submitted for obtaining the degree of Master in Environmental Engineering
Resumo:
Climate change is emerging as one of the major threats to natural communities of the world’s ecosystems; and biodiversity hotspots, such as Madeira Island, might face a challenging future in the conservation of endangered land snails’ species. With this thesis, progresses have been made in order to properly understand the impact of climate on these vulnerable taxa; and species distribution models coupled with GIS and climate change scenarios have become crucial to understand the relations between species distribution and environmental conditions, identifying threats and determining biodiversity vulnerability. With the use of MaxEnt, important changes in the species suitable areas were obtained. Laurel forest species, highly dependent on precipitation and relative humidity, may face major losses on their future suitable areas, leading to the possible extinction of several endangered species, such as Leiostyla heterodon. Despite the complexity of the biological systems, the intrinsic uncertainty of species distribution models and the lack of information about land snails’ functional traits, this analysis contributed to a pioneer study on the impacts of climate change on endemic species of Madeira Island. The future inclusion of predictions of the effect of climate change on species distribution as part of IUCN assessments could contribute to species prioritizing, promoting specific management actions and maximizing conservation investment.
Resumo:
In the recent past, hardly anyone could predict this course of GIS development. GIS is moving from desktop to cloud. Web 2.0 enabled people to input data into web. These data are becoming increasingly geolocated. Big amounts of data formed something that is called "Big Data". Scientists still don't know how to deal with it completely. Different Data Mining tools are used for trying to extract some useful information from this Big Data. In our study, we also deal with one part of these data - User Generated Geographic Content (UGGC). The Panoramio initiative allows people to upload photos and describe them with tags. These photos are geolocated, which means that they have exact location on the Earth's surface according to a certain spatial reference system. By using Data Mining tools, we are trying to answer if it is possible to extract land use information from Panoramio photo tags. Also, we tried to answer to what extent this information could be accurate. At the end, we compared different Data Mining methods in order to distinguish which one has the most suited performances for this kind of data, which is text. Our answers are quite encouraging. With more than 70% of accuracy, we proved that extracting land use information is possible to some extent. Also, we found Memory Based Reasoning (MBR) method the most suitable method for this kind of data in all cases.
Resumo:
The reduction of greenhouse gas emissions is one of the big global challenges for the next decades due to its severe impact on the atmosphere that leads to a change in the climate and other environmental factors. One of the main sources of greenhouse gas is energy consumption, therefore a number of initiatives and calls for awareness and sustainability in energy use are issued among different types of institutional and organizations. The European Council adopted in 2007 energy and climate change objectives for 20% improvement until 2020. All European countries are required to use energy with more efficiency. Several steps could be conducted for energy reduction: understanding the buildings behavior through time, revealing the factors that influence the consumption, applying the right measurement for reduction and sustainability, visualizing the hidden connection between our daily habits impacts on the natural world and promoting to more sustainable life. Researchers have suggested that feedback visualization can effectively encourage conservation with energy reduction rate of 18%. Furthermore, researchers have contributed to the identification process of a set of factors which are very likely to influence consumption. Such as occupancy level, occupants behavior, environmental conditions, building thermal envelope, climate zones, etc. Nowadays, the amount of energy consumption at the university campuses are huge and it needs great effort to meet the reduction requested by European Council as well as the cost reduction. Thus, the present study was performed on the university buildings as a use case to: a. Investigate the most dynamic influence factors on energy consumption in campus; b. Implement prediction model for electricity consumption using different techniques, such as the traditional regression way and the alternative machine learning techniques; and c. Assist energy management by providing a real time energy feedback and visualization in campus for more awareness and better decision making. This methodology is implemented to the use case of University Jaume I (UJI), located in Castellon, Spain.
Resumo:
RESUMO: Temos assistido a uma evolução impressionante nos laboratórios de análises clínicas, os quais precisam de prestar um serviço de excelência a custos cada vez mais competitivos. Nos laboratórios os sistemas de gestão da qualidade têm uma importância significativa nesta evolução, fundamentalmente pela procura da melhoria continua, que ocorre não só ao nível de processos e técnicas, mas também na qualificação dos diferentes intervenientes. Um dos problemas fundamentais da gestão e um laboratório é a eliminação de desperdícios e erros criando benefícios, conceito base na filosofia LeanThinking isto é “pensamento magro”, pelo que é essencial conseguir monitorizar funções críticas sistematicamente. Esta monitorização, num laboratório cada vez mais focalizado no utente, pode ser efetuada através de sistemas e tecnologias de informação, sendo possível contabilizar número de utentes, horas de maior afluência, tempo médio de permanência na sala de espera, tempo médio para entrega de análises, resultados entregues fora da data prevista, entre outros dados de apoio à decisão. Devem igualmente ser analisadas as reclamações, bem como a satisfação dos utentes quer através do feedback que é transmitido aos funcionários, quer através de questionários de satisfação. Usou-se principalmente dois modelos: um proposto pelo Índice Europeu de Satisfação do Consumidor (ECSI) e o outro de Estrutura Comum de Avaliação (CAF). Introduziram-se igualmente dois questionários: um apresentado em formato digital num posto de colheitas, através de um quiosque eletrónico, e um outro na página da internet do laboratório, ambos como alternativa ao questionário em papel já existente, tendo-se analisado os dados, e retirado as devidas conclusões. Propôs-se e desenvolveu-se um questionário para colaboradores cuja intenção foi a de fornecer dados úteis de apoio à decisão, face à importância dos funcionários na interação com os clientes e na garantia da qualidade ao longo de todo o processo. Avaliaram-se globalmente os resultados sem que tenha sido possível apresentá-los por política interna da empresa, bem como se comentou de forma empírica alguns benefícios deste questionário. Os principais objetivos deste trabalho foram, implementar questionários de satisfação eletrónicos e analisar os resultados obtidos, comparando-os com o estudo ECSI, de forma a acentuar a importância da análise em simultâneo de dois fatores: a motivação profissional e a satisfação do cliente, com o intuito de melhorar os sistemas de apoio à decisão. ------------------------ ABSTRACT: We have witnessed an impressive development in clinical analysis laboratories, which have to provide excellent service at increasingly competitive costs, quality management systems have a significant importance in this evolution, mainly by demanding continuous improvement, which does not occur only in terms of processes and techniques, but also in the qualification of the various stakeholders. One key problem of managing a laboratory is the elimination of waste and errors, creating benefits, concept based on Lean Thinking philosophy, therefore it is essential be able to monitor critical tasks systematically. This monitoring, in an increasingly focused on the user laboratory can be accomplished through information systems and technologies, through which it is possible to account the number of clients, peak times, average length of waiting room stay, average time for delivery analysis, delivered results out of the expected date, among other data that contribute to support decisions, however it is also decisive to analyzed complaint sand satisfaction of users through employees feedback but mainly through satisfaction questionnaires that provides accurate results. We use mainly two models one proposed by the European Index of Consumer Satisfaction (ECSI), directed to the client, and the Common Assessment Framework (CAF), used both in the client as the employees surveys. Introduced two questionnaires in a digital format, one in the central laboratory collect center, through an electronic kiosk and another on the laboratory web page, both as an alternative to survey paper currently used, we analyzed the results, and withdrew the conclusions. It was proposed and developed a questionnaire for employees whose intention would be to provide useful data to decision support, given the importance of employees in customer interaction and quality assurance throughout the whole clinical process, it was evaluated in a general way because it was not possible to show the results, however commented an empirical way some benefits of this questionnaire. The main goals of this study were to implement electronic questionnaires and analyze the results, comparing them with the ECSI, in order to emphasize the importance of analyzing simultaneously professional motivation with customer satisfaction, in order to improve decision support systems.
Resumo:
RESUMO - Os registos de enfermagem no Centro Hospitalar Lisboa Norte, E.P.E. (CHLN) são feitos em suporte de papel ou através de sistemas de informação (SI) próprios de cada serviço, com a utilização de várias aplicações como o Alert, Picis, etc. Esta diversidade gera alguns constrangimentos em termos de fluxo de informação, em virtude da falta de interoperabilidade dos respetivos sistemas. Esta realidade pode ter impactos na área da qualidade e segurança do utente, com a possibilidade de ocorrência de erros e/ou eventos adversos. Podem ainda ser notórios na área da privacidade e confidencialidade dos dados clínicos, na tomada de decisão, na gestão clínica e financeira e na produção de informação útil para a investigação científica. No CHLN está em curso a implementação de um SI capaz de dar resposta aos registos de enfermagem, integrados num registo de saúde eletrónico focado no utente que obedece à metodologia do processo de enfermagem e utiliza a linguagem codificada da Classificação Internacional para a Prática de Enfermagem (CIPE). Com o desenvolvimento desta investigação, devidamente autorizada pelo Conselho de Administração do CHLN, pretendeu-se dar resposta à pergunta de partida: Estarão os enfermeiros, utilizadores do Desktop de Enfermagem do CHLN, satisfeitos com esse sistema de informação? Com esse propósito, foi elaborada uma abordagem exploratória com recurso a pesquisa bibliográfica sobre os sistemas de informação de enfermagem e a sua avaliação, com base no “Modelo de Sucesso dos Sistemas de Informação de DeLone e McLean”, tendo sido desenvolvido um estudo de caso com uma abordagem quantitativa, mediante a aplicação de um inquérito por questionário aos 262 enfermeiros do CHLN, nos serviços onde já utilizavam o referido SI, entre maio e junho de 2014, com uma taxa de resposta de 84%. Os resultados da aplicação do questionário, objeto de análise estatística univariada e bivariada com recurso a procedimentos descritivos e inferenciais, visando a produção de sínteses dirigidas aos objetivos do estudo, permitiram caracterizar o nível de satisfação dos enfermeiros, enquanto utilizadores do “desktop de enfermagem”, suportados por Tecnologias de Informação e Comunicação. Na escala utilizada (de 1 a 5), o nível médio de satisfação global (2,78) foi ligeiramente inferior ao seu ponto médio (3). No entanto, a maioria dos inquiridos (81,5%) não pretende abandonar o SI que utilizam. Os resultados obtidos permitem demonstrar que a satisfação dos enfermeiros face à implementação e utilização do SIE se trata de uma estratégia bem sucedida do CHLN, ainda que haja áreas onde foram evidenciados menores níveis de satisfação, tais como a “velocidade de processamento”, o “equipamento informático” e o “apoio técnico”, que podem ser alvo de uma maior atenção e reflexão pela gestão de topo, numa estratégia de melhoria contínua da qualidade, com importantes benefícios para a governação da instituição, para os profissionais e para os utentes, no futuro.
Resumo:
RESUMO - As organizações de saúde, em geral, e os hospitais, em particular, são frequentemente reconhecidos por terem particularidades e especificidades que conferem uma especial complexidade ao seu processo produtivo e à sua gestão (Jacobs, 1974; Butler, 1995). Neste sentido, na literatura hospitalar emergem alguns temas como prioritários tanto na investigação como na avaliação do seu funcionamento, nomeadamente os relacionados com a produção, com o financiamento, com a qualidade, com a eficiência e com a avaliação do seu desempenho. O estado da arte da avaliação do desempenho das organizações de saúde parece seguir a trilogia definida por Donabedian (1985) — Estrutura, Processo e Resultados. Existem diversas perspectivas para a avaliação do desempenho na óptica dos Resultados — efectividade, eficiência ou desempenho financeiro. No entanto, qualquer que seja a utilizada, o ajustamento pelo risco é necessário para se avaliar a actividade das organizações de saúde, como forma de medir as características dos doentes que podem influenciar os resultados de saúde. Como possíveis indicadores de resultados, existem a mortalidade (resultados finais), as complicações e as readmissões (resultados intermédios). Com excepção dos estudos realizados por Thomas (1996) e Thomas e Hofer (1998 e 1999), praticamente ninguém contesta a relação entre estes indicadores e a efectividade dos cuidados. Chamando, no entanto, a atenção para a necessidade de se definirem modelos de ajustamento pelo risco e ainda para algumas dificuldades conceptuais e operacionais para se atingir este objectivo. Em relação à eficiência técnica dos hospitais, os indicadores tradicionalmente mais utilizados para a sua avaliação são os custos médios e a demora média. Também neste domínio, a grande maioria dos estudos aponta para que a gravidade aumenta o poder justificativo do consumo de recursos e que o ajustamento pelo risco é útil para avaliar a eficiência dos hospitais. Em relação aos sistemas usados para medir a severidade e, consequentemente, ajustar pelo risco, o seu desenvolvimento apresenta, na generalidade, dois tipos de preocupações: a definição dos suportes de recolha da informação e a definição dos momentos de medição. Em última instância, o dilema que se coloca reside na definição de prioridades e daquilo que se pretende sacrificar. Quando se entende que os aspectos financeiros são determinantes, então será natural que se privilegie o recurso quase exclusivo a elementos dos resumos de alta como suporte de recolha da informação. Quando se defende que a validade de construção e de conteúdo é um aspecto a preservar, então o recurso aos elementos dos processos clínicos é inevitável. A definição dos momentos de medição dos dados tem repercussões em dois níveis de análise: na neutralidade económica do sistema e na prospectividade do sistema. O impacto destas questões na avaliação da efectividade e da eficiência dos hospitais não é uma questão pacífica, visto que existem autores que defendem a utilização de modelos baseados nos resumos de alta, enquanto outros defendem a supremacia dos modelos baseados nos dados dos processos clínicos, para finalmente outros argumentarem que a utilização de uns ou outros é indiferente, pelo que o processo de escolha deve obedecer a critérios mais pragmáticos, como a sua exequibilidade e os respectivos custos de implementação e de exploração. Em relação às possibilidades que neste momento se colocam em Portugal para a utilização e aplicação de sistemas de ajustamento pelo risco, verifica-se que é praticamente impossível a curto prazo aplicar modelos com base em dados clínicos. Esta opção não deve impedir que a médio prazo se altere o sistema de informação dos hospitais, de forma a considerar a eventualidade de se utilizarem estes modelos. Existem diversos problemas quando se pretendem aplicar sistemas de ajustamento de risco a populações diferentes ou a subgrupos distintos das populações donde o sistema foi originalmente construído, existindo a necessidade de verificar o ajustamento do modelo à população em questão, em função da sua calibração e discriminação.
Resumo:
Information systems are widespread and used by anyone with computing devices as well as corporations and governments. It is often the case that security leaks are introduced during the development of an application. Reasons for these security bugs are multiple but among them one can easily identify that it is very hard to define and enforce relevant security policies in modern software. This is because modern applications often rely on container sharing and multi-tenancy where, for instance, data can be stored in the same physical space but is logically mapped into different security compartments or data structures. In turn, these security compartments, to which data is classified into in security policies, can also be dynamic and depend on runtime data. In this thesis we introduce and develop the novel notion of dependent information flow types, and focus on the problem of ensuring data confidentiality in data-centric software. Dependent information flow types fit within the standard framework of dependent type theory, but, unlike usual dependent types, crucially allow the security level of a type, rather than just the structural data type itself, to depend on runtime values. Our dependent function and dependent sum information flow types provide a direct, natural and elegant way to express and enforce fine grained security policies on programs. Namely programs that manipulate structured data types in which the security level of a structure field may depend on values dynamically stored in other fields The main contribution of this work is an efficient analysis that allows programmers to verify, during the development phase, whether programs have information leaks, that is, it verifies whether programs protect the confidentiality of the information they manipulate. As such, we also implemented a prototype typechecker that can be found at http://ctp.di.fct.unl.pt/DIFTprototype/.
Resumo:
In the current global and competitive business context, it is essential that enterprises adapt their knowledge resources in order to smoothly interact and collaborate with others. However, due to the existent multiculturalism of people and enterprises, there are different representation views of business processes or products, even inside a same domain. Consequently, one of the main problems found in the interoperability between enterprise systems and applications is related to semantics. The integration and sharing of enterprises knowledge to build a common lexicon, plays an important role to the semantic adaptability of the information systems. The author proposes a framework to support the development of systems to manage dynamic semantic adaptability resolution. It allows different organisations to participate in a common knowledge base building, letting at the same time maintain their own views of the domain, without compromising the integration between them. Thus, systems are able to be aware of new knowledge, and have the capacity to learn from it and to manage its semantic interoperability in a dynamic and adaptable way. The author endorses the vision that in the near future, the semantic adaptability skills of the enterprise systems will be the booster to enterprises collaboration and the appearance of new business opportunities.
Resumo:
Grasslands in semi-arid regions, like Mongolian steppes, are facing desertification and degradation processes, due to climate change. Mongolia’s main economic activity consists on an extensive livestock production and, therefore, it is a concerning matter for the decision makers. Remote sensing and Geographic Information Systems provide the tools for advanced ecosystem management and have been widely used for monitoring and management of pasture resources. This study investigates which is the higher thematic detail that is possible to achieve through remote sensing, to map the steppe vegetation, using medium resolution earth observation imagery in three districts (soums) of Mongolia: Dzag, Buutsagaan and Khureemaral. After considering different thematic levels of detail for classifying the steppe vegetation, the existent pasture types within the steppe were chosen to be mapped. In order to investigate which combination of data sets yields the best results and which classification algorithm is more suitable for incorporating these data sets, a comparison between different classification methods were tested for the study area. Sixteen classifications were performed using different combinations of estimators, Landsat-8 (spectral bands and Landsat-8 NDVI-derived) and geophysical data (elevation, mean annual precipitation and mean annual temperature) using two classification algorithms, maximum likelihood and decision tree. Results showed that the best performing model was the one that incorporated Landsat-8 bands with mean annual precipitation and mean annual temperature (Model 13), using the decision tree. For maximum likelihood, the model that incorporated Landsat-8 bands with mean annual precipitation (Model 5) and the one that incorporated Landsat-8 bands with mean annual precipitation and mean annual temperature (Model 13), achieved the higher accuracies for this algorithm. The decision tree models consistently outperformed the maximum likelihood ones.
Resumo:
Information security is concerned with the protection of information, which can be stored, processed or transmitted within critical information systems of the organizations, against loss of confidentiality, integrity or availability. Protection measures to prevent these problems result through the implementation of controls at several dimensions: technical, administrative or physical. A vital objective for military organizations is to ensure superiority in contexts of information warfare and competitive intelligence. Therefore, the problem of information security in military organizations has been a topic of intensive work at both national and transnational levels, and extensive conceptual and standardization work is being produced. A current effort is therefore to develop automated decision support systems to assist military decision makers, at different levels in the command chain, to provide suitable control measures that can effectively deal with potential attacks and, at the same time, prevent, detect and contain vulnerabilities targeted at their information systems. The concept and processes of the Case-Based Reasoning (CBR) methodology outstandingly resembles classical military processes and doctrine, in particular the analysis of “lessons learned” and definition of “modes of action”. Therefore, the present paper addresses the modeling and design of a CBR system with two key objectives: to support an effective response in context of information security for military organizations; to allow for scenario planning and analysis for training and auditing processes.
Resumo:
Este artigo apresenta uma proposta de um modelo de gestão contendo requisitos relacionados com a confiabilidade dos sistemas no ambiente de Computação em Nuvem (CN). A proposta teve como base uma revisão da literatura sobre os problemas, desafios e estudos que estão em curso relacionados com a segurança e confiabilidade de aplicações e Sistemas de Informações (SI) neste ambiente tecnológico. Nesta revisão bibliográfica são abordados os entraves e desafios atualmente existentes na visão de conceituados autores sobre o tema. Estas questões foram abordadas e estruturadas na forma de um modelo, denominado de “Modelo de Confiança para o ambiente de Computação em Nuvem”. Trata-se de uma proposta proativa que tem por objetivo organizar e discutir soluções de gestão para o ambiente de CN com uma maior confiabilidade para a operacionalização das aplicações de SI, tanto por parte dos provedores como também dos seus clientes.