913 resultados para Data-driven analysis
Resumo:
Mestrado em Contabilidade e Gestão das Instituições Financeiras
Resumo:
Workflows have been successfully applied to express the decomposition of complex scientific applications. This has motivated many initiatives that have been developing scientific workflow tools. However the existing tools still lack adequate support to important aspects namely, decoupling the enactment engine from workflow tasks specification, decentralizing the control of workflow activities, and allowing their tasks to run autonomous in distributed infrastructures, for instance on Clouds. Furthermore many workflow tools only support the execution of Direct Acyclic Graphs (DAG) without the concept of iterations, where activities are executed millions of iterations during long periods of time and supporting dynamic workflow reconfigurations after certain iteration. We present the AWARD (Autonomic Workflow Activities Reconfigurable and Dynamic) model of computation, based on the Process Networks model, where the workflow activities (AWA) are autonomic processes with independent control that can run in parallel on distributed infrastructures, e. g. on Clouds. Each AWA executes a Task developed as a Java class that implements a generic interface allowing end-users to code their applications without concerns for low-level details. The data-driven coordination of AWA interactions is based on a shared tuple space that also enables support to dynamic workflow reconfiguration and monitoring of the execution of workflows. We describe how AWARD supports dynamic reconfiguration and discuss typical workflow reconfiguration scenarios. For evaluation we describe experimental results of AWARD workflow executions in several application scenarios, mapped to a small dedicated cluster and the Amazon (Elastic Computing EC2) Cloud.
Resumo:
Workflows have been successfully applied to express the decomposition of complex scientific applications. However the existing tools still lack adequate support to important aspects namely, decoupling the enactment engine from tasks specification, decentralizing the control of workflow activities allowing their tasks to run in distributed infrastructures, and supporting dynamic workflow reconfigurations. We present the AWARD (Autonomic Workflow Activities Reconfigurable and Dynamic) model of computation, based on Process Networks, where the workflow activities (AWA) are autonomic processes with independent control that can run in parallel on distributed infrastructures. Each AWA executes a task developed as a Java class with a generic interface allowing end-users to code their applications without low-level details. The data-driven coordination of AWA interactions is based on a shared tuple space that also enables dynamic workflow reconfiguration. For evaluation we describe experimental results of AWARD workflow executions in several application scenarios, mapped to the Amazon (Elastic Computing EC2) Cloud.
Resumo:
Relatório Final apresentado à Escola Superior de Educação de Lisboa para a obtenção de grau de mestre em Ensino do 1.º e 2.º Ciclo do Ensino Básico
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente, perfil de Engenharia Ecológica
Resumo:
In this paper, a rule-based automatic syllabifier for Danish is described using the Maximal Onset Principle. Prior success rates of rule-based methods applied to Portuguese and Catalan syllabification modules were on the basis of this work. The system was implemented and tested using a very small set of rules. The results gave rise to 96.9% and 98.7% of word accuracy rate, contrary to our initial expectations, being Danish a language with a complex syllabic structure and thus difficult to be rule-driven. Comparison with data-driven syllabification system using artificial neural networks showed a higher accuracy rate of the former system.
Resumo:
Atualmente, são geradas enormes quantidades de dados que, na maior parte das vezes, não são devidamente analisados. Como tal, existe um fosso cada vez mais significativo entre os dados existentes e a quantidade de dados que é realmente analisada. Esta situação verifica-se com grande frequência na área da saúde. De forma a combater este problema foram criadas técnicas que permitem efetuar uma análise de grandes massas de dados, retirando padrões e conhecimento intrínseco dos dados. A área da saúde é um exemplo de uma área que cria enormes quantidades de dados diariamente, mas que na maior parte das vezes não é retirado conhecimento proveitoso dos mesmos. Este novo conhecimento poderia ajudar os profissionais de saúde a obter resposta para vários problemas. Esta dissertação pretende apresentar todo o processo de descoberta de conhecimento: análise dos dados, preparação dos dados, escolha dos atributos e dos algoritmos, aplicação de técnicas de mineração de dados (classificação, segmentação e regras de associação), escolha dos algoritmos (C5.0, CHAID, Kohonen, TwoSteps, K-means, Apriori) e avaliação dos modelos criados. O projeto baseia-se na metodologia CRISP-DM e foi desenvolvido com a ferramenta Clementine 12.0. O principal intuito deste projeto é retirar padrões e perfis de dadores que possam vir a contrair determinadas doenças (anemia, doenças renais, hepatite, entre outras) ou quais as doenças ou valores anormais de componentes sanguíneos que podem ser comuns entre os dadores.
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Economics from the NOVA – School of Business and Economics
Resumo:
RESUMO - O planeamento dos recursos humanos em saúde é um assunto relevante na formulação de políticas, face às importantes alterações nos cuidados e necessidades, características demográficas e socioeconómicas. Este planeamento consiste na estimativa do número de profissionais necessários para se atingir determinados objetivos, existindo diferentes métodos para a sua realização. Segundo a Direção Geral de Saúde considera-se adequado um Terapeuta da Fala para 60.000 habitantes – valores calculados através de estudos de prevalência de doença. Porém, o número de recursos humanos encontra-se intimamente ligado à produtividade, determinada através de unidades de medida como os procedimentos. Nesta área, fatores como a complexidade dos doentes e trabalho indireto, podem influenciar o produto final. Neste estudo pretende-se averiguar a necessidade de recursos humanos em Terapia da Fala, analisando a atividade destes serviços nos hospitais da região de Lisboa e Vale do Tejo e aplicando a fórmula de preconização proposta pelo Ministério da Saúde, baseada num modelo de oferta. Participaram no estudo 23 Terapeutas da Fala de 9 instituições hospitalares. Foi construída uma folha de registo do trabalho diário, preenchida durante cinco dias não consecutivos, averiguando-se assim o tempo gasto nas diferentes atividades. Verificou-se que 63,21% do horário laboral é utilizado na concretização de atos diretos e 36,76% gasto em atos indiretos, relacionados com os utentes, não contabilizados na fórmula proposta. Incluindo as diferentes componentes (atos diretos e indiretos), constata-se que o número de profissionais existentes na região de Lisboa e Vale do Tejo é adequado, embora numa análise por instituição o resultado seja contraditório.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia e Gestão Industrial
Resumo:
Esta dissertação procura investigar e documentar o que está sendo realizado atualmente no Jornalismo de Dados (data-driven journalism) em Portugal. Por ser um campo novo no Jornalismo, se procura, por meio de entrevistas, compreender como os editores de jornais lusitanos definem, caracterizam, utilizam e percebem as potencialidades dessa nova categoria do jornalismo digital. Também são analisados exemplos de reportagens com características de Jornalismo de Dados que foram citadas pelos entrevistados. Contextualizar a evolução e a importância da tecnologia para o surgimento do Jornalismo de Dados foi outro objetivo da pesquisa. Assim, se pretende apresentar o estado da arte do Jornalismo de Dados nos jornais generalistas diários portugueses, visando perceber as tendências atuais na área e deixar um registro para futuros trabalhos sobre o assunto.
Resumo:
No mercado energético, o tema eficiência tem-se tornado um pilar fundamental na obtenção de valor estratégico para as organizações deste negócio. Este foco tem muito que ver com as alterações que este mercado tem vindo a sofrer nos últimos anos com a mudança de mercado regulado para um mercado liberalizado. Permitir que novos players entrem no mercado e com eles novas formas de executar o negócio, tem aumentado a competividade entre as várias or-ganizações no ramo da electricidade. Consequentemente, essas organizações focam-se cada vez mais na eficiência, produzindo o mesmo mas utilizando menos recursos, promovendo, em simultâneo, uma maior satisfação dos seus clientes. Paralelamente, as organizações na última década têm-se virado cada vez mais para a gestão de projectos, percebendo que através dela podem concretizar valor estratégico mais facilmente, com menor redundância. Assim, muitas organizações vivem actualmente em ambientes de multi-projecto, em que as iniciativas dos diferentes projectos são inúmeras e na maioria das vezes não existe capital suficiente para as satisfazer na totalidade. Perceber quais os projectos que acrescentam maior valor à organização torna-se fundamental. Neste contexto, a presente dissertação visa avaliar a eficiência na gestão de um tipo de projec-tos da EDP Distribuição, utilizando o método matemático Data Envelopment Analysis (DEA). Com este método avaliou-se a capacidade que a organização tem em converter inputs em out-puts nos projectos de telecomando da rede de distribuição que levou a cabo durante o ano de 2013. Após um estudo sobre gestão de projectos e da análise DEA, analisou-se a melhor forma de aplicar o método DEA em empresas de electricidade, especificando-se as variáveis do modelo que traduzem melhor o processo a avaliar. Pretende-se fornecer resultados específicos sobre como a organização pode melhorar os seus processos na gestão de projectos de telecomando indicando onde, como e em quanto a empresa é ineficiente, identificando adicionalmente ac-ções de melhoria.
Resumo:
The uneven spatial distribution of start-ups and their respective survival may reflect comparative advantages resulting from the local institutional background. For the first time, we explore this idea using Data Envelopment Analysis (DEA) to assess the relative efficiency of Portuguese municipalities in this specific context. We depart from the related literature where expenditure is perceived as a desirable input by choosing a measure of fiscal responsibility and infrastructural variables in the first stage. Comparing results for 2006 and 2010, we find that mean performance decreased substantially 1) with the effects of the Global Financial Crisis, 2) as municipal population increases and 3) as financial independence decreases. A second stage is then performed employing a double-bootstrap procedure to evaluate how the regional context outside the control of local authorities (e.g. demographic characteristics and political preferences) impacts on efficiency.
Resumo:
Research Masters
Resumo:
Customer lifetime value (LTV) enables using client characteristics, such as recency, frequency and monetary (RFM) value, to describe the value of a client through time in terms of profitability. We present the concept of LTV applied to telemarketing for improving the return-on-investment, using a recent (from 2008 to 2013) and real case study of bank campaigns to sell long- term deposits. The goal was to benefit from past contacts history to extract additional knowledge. A total of twelve LTV input variables were tested, un- der a forward selection method and using a realistic rolling windows scheme, highlighting the validity of five new LTV features. The results achieved by our LTV data-driven approach using neural networks allowed an improvement up to 4 pp in the Lift cumulative curve for targeting the deposit subscribers when compared with a baseline model (with no history data). Explanatory knowledge was also extracted from the proposed model, revealing two highly relevant LTV features, the last result of the previous campaign to sell the same product and the frequency of past client successes. The obtained results are particularly valuable for contact center companies, which can improve pre- dictive performance without even having to ask for more information to the companies they serve.