928 resultados para Topologies on an arbitrary set
Resumo:
No decorrer dos últimos anos tem-se verificado um acréscimo do número de sistemas de videovigilância presentes nos mais diversos ambientes, sendo que estes se encontram cada vez mais sofisticados. Os casinos são um exemplo bastante popular da utilização destes sistemas sofisticados, sendo que vários casinos, hoje em dia, utilizam câmeras para controlo automático das suas operações de jogo. No entanto, atualmente existem vários tipos de jogos em que o controlo automático ainda não se encontra disponível, sendo um destes, o jogo Banca Francesa. A presente dissertação tem como objetivo propor um conjunto de algoritmos idealizados para um sistema de controlo e gestão do jogo de casino Banca Francesa através do auxílio de componentes pertencentes à área da computação visual, tendo em conta os contributos mais relevantes e existentes na área, elaborados por investigadores e entidades relacionadas. No decorrer desta dissertação são apresentados quatro módulos distintos, os quais têm como objetivo auxiliar os casinos a prevenir o acontecimento de fraudes durante o decorrer das suas operações, assim como auxiliar na recolha automática de resultados de jogo. Os quatro módulos apresentados são os seguintes: Dice Sample Generator – Módulo proposto para criação de casos de teste em grande escala; Dice Sample Analyzer – Módulo proposto para a deteção de resultados de jogo; Dice Calibration – Módulo proposto para calibração automática do sistema; Motion Detection – Módulo proposto para a deteção de fraude no jogo. Por fim, para cada um dos módulos, é apresentado um conjunto de testes e análises de modo a verificar se é possível provar o conceito para cada uma das propostas apresentadas.
Resumo:
A velocidade de difusão de conteúdos numa plataforma web, assume uma elevada relevância em serviços onde a informação se pretende atualizada e em tempo real. Este projeto de Mestrado, apresenta uma abordagem de um sistema distribuído de recolher e difundir resultados em tempo real entre várias plataformas, nomeadamente sistemas móveis. Neste contexto, tempo real entende-se como uma diferença de tempo nula entre a recolha e difusão, ignorando fatores que não podem ser controlados pelo sistema, como latência de comunicação e tempo de processamento. Este projeto tem como base uma arquitetura existente de processamento e publicação de resultados desportivos, que apresentava alguns problemas relacionados com escalabilidade, segurança, tempos de entrega de resultados longos e sem integração com outras plataformas. Ao longo deste trabalho procurou-se investigar fatores que condicionassem a escalabilidade de uma aplicação web dando ênfase à implementação de uma solução baseada em replicação e escalabilidade horizontal. Procurou-se também apresentar uma solução de interoperabilidade entre sistemas e plataformas heterogêneas, mantendo sempre elevados níveis de performance e promovendo a introdução de plataformas móveis no sistema. De várias abordagens existentes para comunicação em tempo real sobre uma plataforma web, adotou-se um implementação baseada em WebSocket que elimina o tempo desperdiçado entre a recolha de informação e sua difusão. Neste projeto é descrito o processo de implementação da API de recolha de dados (Collector), da biblioteca de comunicação com o Collector, da aplicação web (Publisher) e sua API, da biblioteca de comunicação com o Publisher e por fim a implementação da aplicação móvel multi-plataforma. Com os componentes criados, avaliaram-se os resultados obtidos com a nova arquitetura de forma a aferir a escalabilidade e performance da solução criada e sua adaptação ao sistema existente.
Resumo:
RESUMO - Enquadramento: O envelhecimento da população ocorre em todas as sociedades desenvolvidas, resultando num aumento da prevalência da dependência funcional, associado recorrentemente à presença de doenças crónicas. Estes novos padrões demográficos, epidemiológicos, implicando populações vulneráveis com necessidades específicas, resultam em desafios incontestáveis. Como resposta a este novo paradigma, em 2006, Portugal implementa a Rede Nacional de Cuidados Continuados Integrados (RNCCI). Finalidade/objectivos: Caracterização da população com base no perfil das necessidades auto-referidas pelas pessoas com ≥65 anos, com algum nível de independência/dependência nas actividades de vida diária e/ou com pelo menos uma doença crónica. Pretende-se, ainda, desenvolver uma metodologia que permita simular cenários que contribuam para o planeamento do número de camas para internamento de carácter permanente em Unidades de Longa Duração e Manutenção (ULDM) da RNCCI. Metodologia: Construção de dois indicadores: índice de independência/dependência e existência ou não de doenças crónicas. Análise estatística e caracterização, individual e conjunta, das variáveis sociodemográficas, socioeconómicas, auto-avaliação do estado de saúde, nível de independência/dependência e/ou existência de pelo menos uma doença crónica. Simulação de cenários com base nas metas definidas pela RNCCI para 2013. Resultados e Conclusões: Da aplicação do índice de independência/dependência, resulta que 78,8% são independentes na realização das actividades de vida diária e 21,2% apresentam algum nível de dependência. À excepção do Centro, todas as regiões apresentam padrões similares. Globalmente, os resultados obtidos vão de encontro aos enunciados na literatura internacional, realçando-se apenas alguns mais pertinentes: Observa-se uma predominância de mulheres idosas. Destaca-se também uma relação directa entre a idade e os níveis de dependência. As variáveis socioeconómicas indicam que a existência de algum nível de dependência tende a ser mais frequente entre os que têm menor escolaridade e rendimento. Em média o estado de saúde é auto-avaliado como mau, piorando com o aumento da idade e níveis de dependência mais acentuados e melhorando com o aumento da escolaridade. Da simulação de cenários destaca-se que, face às 4 camas previstas nas metas de 2013, seria de alocar em média 1,7 camas ou 1 cama ao internamento permanente em ULDM. Trabalhar em rede implica canais de comunicação. A incorporação da distribuição espacial das necessidades e serviços com recurso aos sistemas de informação geográfica torna-se numa mais-valia. Possibilita avaliar hipóteses, análises sustentadas e disseminação de informação e resultados, contribuindo para um planeamento, monitorização e avaliação mais eficaz e eficiente das actividades do sector da saúde. ---------------------------------- ABSTRACT - Background: Population aging occurs in all developed societies resulting in an increased prevalence of functional dependence, frequently associated with the presence of chronic diseases. These new demographic and epidemiological patterns, which include dependency ad vulnerability situations, with specific needs, result in undeniable challenges. In response to this new paradigm, in 2006, Portugal implements the National Network for Integrated Care (RNCCI). Aim/Objectives: Characterize the population based on the self-reported needs of ≥65 year’s people, with some level of independence/dependency in activities of daily living and/or with at least one chronic disease. Also intends to develop a methodological approach that allows scenarios simulation which contributes to the planning of the number of permanent inpatient beds in Long Term Care Units (ULDM) of RNCCI. Methods: Construction of two indicators: independence/dependence index and existence of chronic diseases. Statistical analysis and characterization, individually and jointly, of sociodemographics, socioeconomics, selfassessment of health status, level of independence/dependence and/or existence of at least one chronic disease variables. Scenarios simulation based on RNCCI targets set for 2013. Results and Conclusions: According with independence/dependence index, 78.8% are independent in carrying out the activities of daily living and 21.2% have some level of dependency. With the exception of the Centroregion, all regions have similar patterns. Generally, the results are concordant with international literature, highlighting here only some of the most relevant results: A predominance of older women is observed. A direct relationship between age and levels of dependence is emphasized. Socio-economic variables indicate that the existence of some level of dependency tends to be more frequent among those with lower income and education levels. On average, health status is self-assessed as poor, being even more critical with aging and higher dependency level. On the other hand, high education levels are related with better health status. Scenarios simulations highlights that, based on 4 beds considered in the 2013 planned goals, an average of 1.7 or 1 beds in ULDM should be allocated to permanent inpatient beds. Networking involves communication channels. The incorporation of spatial distribution of needs and services using geographical information systems becomes an added value. It enables hypothesis, evaluation, sustainable analysis and information and results dissemination, contributing to a more effective and efficient planning, monitoring and assessment of the health sector activities.
Resumo:
The high penetration of distributed energy resources (DER) in distribution networks and the competitiveenvironment of electricity markets impose the use of new approaches in several domains. The networkcost allocation, traditionally used in transmission networks, should be adapted and used in the distribu-tion networks considering the specifications of the connected resources. The main goal is to develop afairer methodology trying to distribute the distribution network use costs to all players which are usingthe network in each period. In this paper, a model considering different type of costs (fixed, losses, andcongestion costs) is proposed comprising the use of a large set of DER, namely distributed generation(DG), demand response (DR) of direct load control type, energy storage systems (ESS), and electric vehi-cles with capability of discharging energy to the network, which is known as vehicle-to-grid (V2G). Theproposed model includes three distinct phases of operation. The first phase of the model consists in aneconomic dispatch based on an AC optimal power flow (AC-OPF); in the second phase Kirschen’s andBialek’s tracing algorithms are used and compared to evaluate the impact of each resource in the net-work. Finally, the MW-mile method is used in the third phase of the proposed model. A distributionnetwork of 33 buses with large penetration of DER is used to illustrate the application of the proposedmodel.
Resumo:
Dissertation submitted in partial fulfilment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Neste relatório apresentam-se resultados de um estudo estatístico que procura contribuir para um melhor entendimento da problemática inerente à liberalização do setor elétrico em Portugal e dos desafios que esta liberalização, existente desde meados de 2007, trás aos seus intervenientes. Iniciam-se os trabalhos com um estudo que pretende avaliar a existência de relação entre o Preço de Mercado da eletricidade e um conjunto de variáveis potencialmente explicativas/condicionantes do Preço de Mercado. Neste estudo consideram-se duas abordagens. A primeira usa a função de correlação cruzada para avaliar a existência de relação do tipo linear entre pares de variáveis. A segunda considera o teste causalidade de Granger na avaliação de uma relação de causa e efeito entre esses pares. Este estudo avaliou a relação entre o Preço de Mercado da eletricidade e 19 variáveis ditas condicionantes distribuídas por três categorias distintas (consumo e produção de eletricidade; indicadores climáticos; e energias primárias). O intervalo de tempo em estudo cinge-se ao biénio 2012-2103. Durante este período avaliam-se as relações entre as variáveis em diversos sub-períodos de tempo em ciclos de consumo representativos do consumo em baixa (fim de semana) e de consumo mais elevado (fora de vazio) com os valores observados de cada uma das variáveis tratados com uma base horária e diária (média). Os resultados obtidos mostram a existência relação linear entre algumas das variáveis em estudo e o preço da eletricidade em regime de mercado liberalizado, mas raramente é possível identificar precedência temporal entre as variáveis. Considerando os resultados da análise de correlação e causalidade, apresenta-se ainda um modelo de previsão do Preço de Mercado para o curto e médio prazo em horas de período fora de vazio.
Resumo:
Globalization creates new opportunities for firms to invest abroad and many economies are making active efforts to attract Foreign Direct Investment (FDI) in order to promote economic growth. Decisions to invest abroad depend on a complex set of factors, but the least corrupt countries may attract more foreign direct investment because they provide a more favorable climate for investors. In this paper we investigate the impact of corruption on FDI inflows in 73 countries, over the period 1998-2008. Our results suggest that countries where corruption is lower, the FDI inflows are greater, and so controlling corruption may be an important strategy for increase FDI inflows.
Resumo:
Cyanobacteria deteriorate the water quality and are responsible for emerging outbreaks and epidemics causing harmful diseases in Humans and animals because of their toxins. Microcystin-LR (MCT) is one of the most relevant cyanotoxin, being the most widely studied hepatotoxin. For safety purposes, the World Health Organization recommends a maximum value of 1 μg L−1 of MCT in drinking water. Therefore, there is a great demand for remote and real-time sensing techniques to detect and quantify MCT. In this work a Fabry–Pérot sensing probe based on an optical fibre tip coated with a MCT selective thin film is presented. The membranes were developed by imprinting MCT in a sol–gel matrix that was applied over the tip of the fibre by dip coating. The imprinting effect was obtained by curing the sol–gel membrane, prepared with (3-aminopropyl) trimethoxysilane (APTMS), diphenyl-dimethoxysilane (DPDMS), tetraethoxysilane (TEOS), in the presence of MCT. The imprinting effect was tested by preparing a similar membrane without template. In general, the fibre Fabry–Pérot with a Molecular Imprinted Polymer (MIP) sensor showed low thermal effect, thus avoiding the need of temperature control in field applications. It presented a linear response to MCT concentration within 0.3–1.4 μg L−1 with a sensitivity of −12.4 ± 0.7 nm L μg−1. The corresponding Non-Imprinted Polymer (NIP) displayed linear behaviour for the same MCT concentration range, but with much less sensitivity, of −5.9 ± 0.2 nm L μg−1. The method shows excellent selectivity for MCT against other species co-existing with the analyte in environmental waters. It was successfully applied to the determination of MCT in contaminated samples. The main advantages of the proposed optical sensor include high sensitivity and specificity, low-cost, robustness, easy preparation and preservation.
Resumo:
In 1989, CONTI DÍAZ & RILLA published a hypothesis concerning the as yet unknown ecological niche of Paracoccidioides brasiliensis. The hypothesis proposed a highly efficient paracoccidioidal ecological strategy based on an important natural reservoir of the parasite, probably in heterothermic animals from fresh water environments. Further, the hypothesis proposed, a transient and variable residence in the soil with a wide aleuriospore dispersion throughout the environment together with an elevated capability of infecting humans, and domestic and wild animals. This paper analyzes scientific publications from the IX International Meeting on Paracoccidioidomycosis held in Águas de Lindoia, São Paulo, Brazil from 2-5 October 2005, providing a comparative study among this articles and with other recently published papers and the hypothesis' postulates. Since various findings and observations appear to agree with the postulates, the pursuit of novel, specific research projects in the supposed reservoirs is recommended partially or fully to confirm the hypothesis using classical laboratorial methods and modern molecular biology techniques.
Resumo:
The high penetration of distributed energy resources (DER) in distribution networks and the competitive environment of electricity markets impose the use of new approaches in several domains. The network cost allocation, traditionally used in transmission networks, should be adapted and used in the distribution networks considering the specifications of the connected resources. The main goal is to develop a fairer methodology trying to distribute the distribution network use costs to all players which are using the network in each period. In this paper, a model considering different type of costs (fixed, losses, and congestion costs) is proposed comprising the use of a large set of DER, namely distributed generation (DG), demand response (DR) of direct load control type, energy storage systems (ESS), and electric vehicles with capability of discharging energy to the network, which is known as vehicle-to-grid (V2G). The proposed model includes three distinct phases of operation. The first phase of the model consists in an economic dispatch based on an AC optimal power flow (AC-OPF); in the second phase Kirschen's and Bialek's tracing algorithms are used and compared to evaluate the impact of each resource in the network. Finally, the MW-mile method is used in the third phase of the proposed model. A distribution network of 33 buses with large penetration of DER is used to illustrate the application of the proposed model.
Resumo:
Distance learning - where students take courses (attend classes, get activities and other sort of learning materials) while being physically separated from their instructors, for larger part of the course duration - is far from being a “new event”. Since the middle of the nineteenth century, this has been done through Radio, Mail and TV, taking advantage of the full educational potential that these media resources had to offer at the time. However, in recent times we have, at our complete disposal, the “magic wonder” of communication and globalization - the Internet. Taking advantage of a whole new set of educational opportunities, with a more or less unselfish “look” to economic interests, focusing its concern on a larger and collective “welfare”, contributing to the development of a more “equitable” world, with regard to educational opportunities, the Massive Open Online Courses (MOOCs) were born and have become an important feature of the higher education in recent years. Many people have been talking about MOOCs as a potential educational revolution, which has arrived from North America, still growing and spreading, referring to its benefits and/or disadvantages. The Polytechnic Institute of Porto, also known as IPP, is a Higher Education Portuguese institution providing undergraduate and graduate studies, which has a solid history of online education and innovation through the use of technology, and it has been particularly interested and focused on MOOC developments, based on an open educational policy in order to try to implement some differentiated learning strategies to its actual students and as a way to attract future ones. Therefore, in July 2014, IPP launched the first Math MOOC on its own platform. This paper describes the requirements, the resulting design and implementation of a mathematics MOOC, which was essentially addressed to three target populations: - pre-college students or individuals wishing to update their Math skills or that need to prepare for the National Exam of Mathematics; - Higher Education students who have not attended in High School, this subject, and who feel the need to acquire basic knowledge about some of the topics covered; - High School Teachers who may use these resources with their students allowing them to develop teaching methodologies like "Flipped Classroom” (available at http://www.opened.ipp.pt/). The MOOC was developed in partnership with several professors from several schools from IPP, gathering different math competences and backgrounds to create and put to work different activities such video lectures and quizzes. We will also try to briefly discuss the advertising strategy being developed to promote this MOOC, since it is not offered through a main MOOC portal, such as Coursera or Udacity.
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Standarização de um posto de trabalho não é mais que definir o melhor método de trabalho que vai ser seguido por todos os operadores que trabalham no mesmo. Uma vez definido esse método, é importante para uma empresa ter noção da produtividade que podem alcançar, dado que pode ser retirado a partir deste método, e é no seguimento disto que surge o estudo dos métodos e tempos, mais concretamente o estudo dos tempos por cronometragem. A aplicação deste estudo foi despoletada pela necessidade do IKEA Industry de Paços de Ferreira, em dar o próximo passo na standarização dos seus postos de trabalho, área a área, e da necessidade de terem uma pessoa em cada área que analisa-se o trabalho que estava a ser feito e calcula-se o tempo de cada rotina. Neste documento, é realizada uma interligação entre os conceitos teóricos que o método exige, como todo o conjunto de fórmulas, restrições, análises e ponderações, com o contexto laboral onde o mesmo foi aplicado e a estratégia desenvolvida pelo IKEA na realização do estudo. O estudo dos métodos e tempos por cronometragem, de todos os métodos existentes, pode ser considerado o mais completo e complexo, uma vez que é mais que observar, registar e retirar uma média ponderada das observações. Este método baseia-se num modelo matemático, que interliga uma série de conceitos e que tem sempre o operador em consideração, seja na avaliação e análise das tarefas que requerem mais esforço dos mesmos, físico ou psicológico, seja em termos de tempos de pausas pessoais que a lei obriga a que as empresas deem. Este detalhe, neste método, é de grande importância, uma vez que a standarização é sempre vista pelos operadores como uma punição. As desvantagens deste método estão no grau de conhecimento e capacidade de observação exigidas ao analista para o executar. Melhor dizendo, um analista que vá executar este trabalho necessita observar muito bem a rotina de trabalho e conhecer onde começa, acaba e tudo o que a ela não pertence, antes de começar a registar seja que tempos forem. Para além disso, é exigido ao analista que perceba o ritmo de trabalho dos operadores através da observação dos mesmos, de modo a que ninguém seja prejudicado. E por fim, é necessária uma grande disponibilidade da parte do analista para retirar o máximo de observações possíveis. Com o intuito de facilitar esta análise, o IKEA Industry criou um ficheiro que compila toda a informação relacionada com o método, e uma explicação de todos os parâmetros que o analista necessita ter em atenção. Esta folha de trabalho foi validada à luz do método, como é possível verificar no decorrer do documento. Um detalhe importante a referir, é que por muito fidedigno que seja este método, tal como qualquer método de standarização, a mínima alteração da rotina de trabalho invalida de imediato o tempo total da rotina, tornando necessário realizar o estudo novamente. Uma vantagem do documento criado pelo IKEA, está na rápida adaptação a estas alterações, uma vez que, caso seja acrescentado ou removido um elemento à rotina, basta alterar o documento, observar e cronometrar os operadores a executar esse novo elemento, e quase automaticamente é definido um novo tempo total padronizado na rotina. Este documento foi criado para fins académicos e de conclusão de um grau académico, mas o estudo quando aplicado na empresa deu origem a contratações, o que só por si mostra as vantagens e impacto que o mesmo pode ter em contexto laboral. Em termos de produtividade, uma vez que a sua aplicação não foi executada a tempo de ser estudada neste documento, não foi possível avaliar a mesma.
Resumo:
A indústria de componentes para automóveis necessita de constante inovação, no sentido de manter a elevada competitividade, imprescindível à sobrevivência de qualquer empresa neste sector. A automação e robótica são vias incontornáveis para a prossecução dos objetivos de produtividade desejados. Mesmo dentro da automação, a evolução é constante. Para além disso, a crescente inovação nos produtos fabricados, exige também novas soluções em termos de processos de fabrico. Isto leva a que, soluções válidas até uma determinada altura, passem facilmente a obsoletas, com necessidade premente de se implementarem novos sistemas que correspondam às necessidades atuais. Este trabalho teve por base uma necessidade detetada numa empresa fabricante de acessórios para a indústria automóvel: estruturas para estofo de assento automóvel, entre muitos outros. Atualmente, a estrutura do estofo automóvel assenta numa grelha constituída por um conjunto de arames, que é agregado por uma série de tiras de plástico injetadas em seu redor. As máquinas de injeção responsáveis por este processo têm superfície de apartação horizontal, e necessitam de mão-de-obra adjacente para a colocação dos arames no molde e descarga do conjunto, na razão de uma pessoa para duas máquinas, dependendo do tempo de ciclo da injeção. O trabalho consistiu no desenvolvimento de um sistema automático de alimentação e descarga da máquina de injeção, que tivesse por base um sistema já existente, mas que passasse a comportar outras funções até agora não desempenhadas pelos sistemas antigos, ou seja, que fossem capazes de ultrapassar os problemas colocados pela complexidade atual dos produtos em fabricação. O projeto foi concluído com sucesso, tendo sido validado pela empresa FicoCables, através da construção, teste e colocação em funcionamento de vários protótipos.
Optimization of fMRI Processing Parameters for Simutaneous Acquisition of EEG/fMRI in Focal Epilepsy
Resumo:
In the context of focal epilepsy, the simultaneous combination of electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) holds a great promise as a technique by which the hemodynamic correlates of interictal spikes detected on scalp EEG can be identified. The fact that traditional EEG recordings have not been able to overcome the difficulty in correlating the ictal clinical symptoms to the onset in particular areas of the lobes, brings the need of mapping with more precision the epileptogenic cortical regions. On the other hand, fMRI suggested localizations more consistent with the ictal clinical manifestations detected. This study was developed in order to improve the knowledge about the way parameters involved in the physical and mathematical data, produced by the EEG/fMRI technique processing, would influence the final results. The evaluation of the accuracy was made by comparing the BOLD results with: the high resolution EEG maps; the malformative lesions detected in the T1 weighted MR images; and the anatomical localizations of the diagnosed symptomatology of each studied patient. The optimization of the set of parameters used, will provide an important contribution to the diagnosis of epileptogenic focuses, in patients included on an epilepsy surgery evaluation program. The results obtained allowed us to conclude that: by associating the BOLD effect with interictal spikes, the epileptogenic areas are mapped to localizations different from those obtained by the EEG maps representing the electrical potential distribution across the scalp (EEG); there is an important and solid bond between the variation of particular parameters (manipulated during the fMRI data processing) and the optimization of the final results, from which smoothing, deleted volumes, HRF (used to convolve with the activation design), and the shape of the Gamma function can be certainly emphasized.