38 resultados para production planning information systems
Resumo:
Dissertation to obtain PhD in Industrial Engineering
Resumo:
The processes of mobilization of land for infrastructures of public and private domain are developed according to proper legal frameworks and systematically confronted with the impoverished national situation as regards the cadastral identification and regularization, which leads to big inefficiencies, sometimes with very negative impact to the overall effectiveness. This project report describes Ferbritas Cadastre Information System (FBSIC) project and tools, which in conjunction with other applications, allow managing the entire life-cycle of Land Acquisition and Cadastre, including support to field activities with the integration of information collected in the field, the development of multi-criteria analysis information, monitoring all information in the exploration stage, and the automated generation of outputs. The benefits are evident at the level of operational efficiency, including tools that enable process integration and standardization of procedures, facilitate analysis and quality control and maximize performance in the acquisition, maintenance and management of registration information and expropriation (expropriation projects). Therefore, the implemented system achieves levels of robustness, comprehensiveness, openness, scalability and reliability suitable for a structural platform. The resultant solution, FBSIC, is a fit-for-purpose cadastre information system rooted in the field of railway infrastructures. FBSIC integrating nature of allows: to accomplish present needs and scale to meet future services; to collect, maintain, manage and share all information in one common platform, and transform it into knowledge; to relate with other platforms; to increase accuracy and productivity of business processes related with land property management.
Resumo:
In the recent past, hardly anyone could predict this course of GIS development. GIS is moving from desktop to cloud. Web 2.0 enabled people to input data into web. These data are becoming increasingly geolocated. Big amounts of data formed something that is called "Big Data". Scientists still don't know how to deal with it completely. Different Data Mining tools are used for trying to extract some useful information from this Big Data. In our study, we also deal with one part of these data - User Generated Geographic Content (UGGC). The Panoramio initiative allows people to upload photos and describe them with tags. These photos are geolocated, which means that they have exact location on the Earth's surface according to a certain spatial reference system. By using Data Mining tools, we are trying to answer if it is possible to extract land use information from Panoramio photo tags. Also, we tried to answer to what extent this information could be accurate. At the end, we compared different Data Mining methods in order to distinguish which one has the most suited performances for this kind of data, which is text. Our answers are quite encouraging. With more than 70% of accuracy, we proved that extracting land use information is possible to some extent. Also, we found Memory Based Reasoning (MBR) method the most suitable method for this kind of data in all cases.
Resumo:
RESUMO - Os registos de enfermagem no Centro Hospitalar Lisboa Norte, E.P.E. (CHLN) são feitos em suporte de papel ou através de sistemas de informação (SI) próprios de cada serviço, com a utilização de várias aplicações como o Alert, Picis, etc. Esta diversidade gera alguns constrangimentos em termos de fluxo de informação, em virtude da falta de interoperabilidade dos respetivos sistemas. Esta realidade pode ter impactos na área da qualidade e segurança do utente, com a possibilidade de ocorrência de erros e/ou eventos adversos. Podem ainda ser notórios na área da privacidade e confidencialidade dos dados clínicos, na tomada de decisão, na gestão clínica e financeira e na produção de informação útil para a investigação científica. No CHLN está em curso a implementação de um SI capaz de dar resposta aos registos de enfermagem, integrados num registo de saúde eletrónico focado no utente que obedece à metodologia do processo de enfermagem e utiliza a linguagem codificada da Classificação Internacional para a Prática de Enfermagem (CIPE). Com o desenvolvimento desta investigação, devidamente autorizada pelo Conselho de Administração do CHLN, pretendeu-se dar resposta à pergunta de partida: Estarão os enfermeiros, utilizadores do Desktop de Enfermagem do CHLN, satisfeitos com esse sistema de informação? Com esse propósito, foi elaborada uma abordagem exploratória com recurso a pesquisa bibliográfica sobre os sistemas de informação de enfermagem e a sua avaliação, com base no “Modelo de Sucesso dos Sistemas de Informação de DeLone e McLean”, tendo sido desenvolvido um estudo de caso com uma abordagem quantitativa, mediante a aplicação de um inquérito por questionário aos 262 enfermeiros do CHLN, nos serviços onde já utilizavam o referido SI, entre maio e junho de 2014, com uma taxa de resposta de 84%. Os resultados da aplicação do questionário, objeto de análise estatística univariada e bivariada com recurso a procedimentos descritivos e inferenciais, visando a produção de sínteses dirigidas aos objetivos do estudo, permitiram caracterizar o nível de satisfação dos enfermeiros, enquanto utilizadores do “desktop de enfermagem”, suportados por Tecnologias de Informação e Comunicação. Na escala utilizada (de 1 a 5), o nível médio de satisfação global (2,78) foi ligeiramente inferior ao seu ponto médio (3). No entanto, a maioria dos inquiridos (81,5%) não pretende abandonar o SI que utilizam. Os resultados obtidos permitem demonstrar que a satisfação dos enfermeiros face à implementação e utilização do SIE se trata de uma estratégia bem sucedida do CHLN, ainda que haja áreas onde foram evidenciados menores níveis de satisfação, tais como a “velocidade de processamento”, o “equipamento informático” e o “apoio técnico”, que podem ser alvo de uma maior atenção e reflexão pela gestão de topo, numa estratégia de melhoria contínua da qualidade, com importantes benefícios para a governação da instituição, para os profissionais e para os utentes, no futuro.
Resumo:
RESUMO - As organizações de saúde, em geral, e os hospitais, em particular, são frequentemente reconhecidos por terem particularidades e especificidades que conferem uma especial complexidade ao seu processo produtivo e à sua gestão (Jacobs, 1974; Butler, 1995). Neste sentido, na literatura hospitalar emergem alguns temas como prioritários tanto na investigação como na avaliação do seu funcionamento, nomeadamente os relacionados com a produção, com o financiamento, com a qualidade, com a eficiência e com a avaliação do seu desempenho. O estado da arte da avaliação do desempenho das organizações de saúde parece seguir a trilogia definida por Donabedian (1985) — Estrutura, Processo e Resultados. Existem diversas perspectivas para a avaliação do desempenho na óptica dos Resultados — efectividade, eficiência ou desempenho financeiro. No entanto, qualquer que seja a utilizada, o ajustamento pelo risco é necessário para se avaliar a actividade das organizações de saúde, como forma de medir as características dos doentes que podem influenciar os resultados de saúde. Como possíveis indicadores de resultados, existem a mortalidade (resultados finais), as complicações e as readmissões (resultados intermédios). Com excepção dos estudos realizados por Thomas (1996) e Thomas e Hofer (1998 e 1999), praticamente ninguém contesta a relação entre estes indicadores e a efectividade dos cuidados. Chamando, no entanto, a atenção para a necessidade de se definirem modelos de ajustamento pelo risco e ainda para algumas dificuldades conceptuais e operacionais para se atingir este objectivo. Em relação à eficiência técnica dos hospitais, os indicadores tradicionalmente mais utilizados para a sua avaliação são os custos médios e a demora média. Também neste domínio, a grande maioria dos estudos aponta para que a gravidade aumenta o poder justificativo do consumo de recursos e que o ajustamento pelo risco é útil para avaliar a eficiência dos hospitais. Em relação aos sistemas usados para medir a severidade e, consequentemente, ajustar pelo risco, o seu desenvolvimento apresenta, na generalidade, dois tipos de preocupações: a definição dos suportes de recolha da informação e a definição dos momentos de medição. Em última instância, o dilema que se coloca reside na definição de prioridades e daquilo que se pretende sacrificar. Quando se entende que os aspectos financeiros são determinantes, então será natural que se privilegie o recurso quase exclusivo a elementos dos resumos de alta como suporte de recolha da informação. Quando se defende que a validade de construção e de conteúdo é um aspecto a preservar, então o recurso aos elementos dos processos clínicos é inevitável. A definição dos momentos de medição dos dados tem repercussões em dois níveis de análise: na neutralidade económica do sistema e na prospectividade do sistema. O impacto destas questões na avaliação da efectividade e da eficiência dos hospitais não é uma questão pacífica, visto que existem autores que defendem a utilização de modelos baseados nos resumos de alta, enquanto outros defendem a supremacia dos modelos baseados nos dados dos processos clínicos, para finalmente outros argumentarem que a utilização de uns ou outros é indiferente, pelo que o processo de escolha deve obedecer a critérios mais pragmáticos, como a sua exequibilidade e os respectivos custos de implementação e de exploração. Em relação às possibilidades que neste momento se colocam em Portugal para a utilização e aplicação de sistemas de ajustamento pelo risco, verifica-se que é praticamente impossível a curto prazo aplicar modelos com base em dados clínicos. Esta opção não deve impedir que a médio prazo se altere o sistema de informação dos hospitais, de forma a considerar a eventualidade de se utilizarem estes modelos. Existem diversos problemas quando se pretendem aplicar sistemas de ajustamento de risco a populações diferentes ou a subgrupos distintos das populações donde o sistema foi originalmente construído, existindo a necessidade de verificar o ajustamento do modelo à população em questão, em função da sua calibração e discriminação.
Resumo:
Information systems are widespread and used by anyone with computing devices as well as corporations and governments. It is often the case that security leaks are introduced during the development of an application. Reasons for these security bugs are multiple but among them one can easily identify that it is very hard to define and enforce relevant security policies in modern software. This is because modern applications often rely on container sharing and multi-tenancy where, for instance, data can be stored in the same physical space but is logically mapped into different security compartments or data structures. In turn, these security compartments, to which data is classified into in security policies, can also be dynamic and depend on runtime data. In this thesis we introduce and develop the novel notion of dependent information flow types, and focus on the problem of ensuring data confidentiality in data-centric software. Dependent information flow types fit within the standard framework of dependent type theory, but, unlike usual dependent types, crucially allow the security level of a type, rather than just the structural data type itself, to depend on runtime values. Our dependent function and dependent sum information flow types provide a direct, natural and elegant way to express and enforce fine grained security policies on programs. Namely programs that manipulate structured data types in which the security level of a structure field may depend on values dynamically stored in other fields The main contribution of this work is an efficient analysis that allows programmers to verify, during the development phase, whether programs have information leaks, that is, it verifies whether programs protect the confidentiality of the information they manipulate. As such, we also implemented a prototype typechecker that can be found at http://ctp.di.fct.unl.pt/DIFTprototype/.
Resumo:
In the current global and competitive business context, it is essential that enterprises adapt their knowledge resources in order to smoothly interact and collaborate with others. However, due to the existent multiculturalism of people and enterprises, there are different representation views of business processes or products, even inside a same domain. Consequently, one of the main problems found in the interoperability between enterprise systems and applications is related to semantics. The integration and sharing of enterprises knowledge to build a common lexicon, plays an important role to the semantic adaptability of the information systems. The author proposes a framework to support the development of systems to manage dynamic semantic adaptability resolution. It allows different organisations to participate in a common knowledge base building, letting at the same time maintain their own views of the domain, without compromising the integration between them. Thus, systems are able to be aware of new knowledge, and have the capacity to learn from it and to manage its semantic interoperability in a dynamic and adaptable way. The author endorses the vision that in the near future, the semantic adaptability skills of the enterprise systems will be the booster to enterprises collaboration and the appearance of new business opportunities.
Resumo:
Grasslands in semi-arid regions, like Mongolian steppes, are facing desertification and degradation processes, due to climate change. Mongolia’s main economic activity consists on an extensive livestock production and, therefore, it is a concerning matter for the decision makers. Remote sensing and Geographic Information Systems provide the tools for advanced ecosystem management and have been widely used for monitoring and management of pasture resources. This study investigates which is the higher thematic detail that is possible to achieve through remote sensing, to map the steppe vegetation, using medium resolution earth observation imagery in three districts (soums) of Mongolia: Dzag, Buutsagaan and Khureemaral. After considering different thematic levels of detail for classifying the steppe vegetation, the existent pasture types within the steppe were chosen to be mapped. In order to investigate which combination of data sets yields the best results and which classification algorithm is more suitable for incorporating these data sets, a comparison between different classification methods were tested for the study area. Sixteen classifications were performed using different combinations of estimators, Landsat-8 (spectral bands and Landsat-8 NDVI-derived) and geophysical data (elevation, mean annual precipitation and mean annual temperature) using two classification algorithms, maximum likelihood and decision tree. Results showed that the best performing model was the one that incorporated Landsat-8 bands with mean annual precipitation and mean annual temperature (Model 13), using the decision tree. For maximum likelihood, the model that incorporated Landsat-8 bands with mean annual precipitation (Model 5) and the one that incorporated Landsat-8 bands with mean annual precipitation and mean annual temperature (Model 13), achieved the higher accuracies for this algorithm. The decision tree models consistently outperformed the maximum likelihood ones.