19 resultados para digital time with memory
em Instituto Politécnico do Porto, Portugal
Resumo:
P-NET is a multi-master fieldbus standard based on a virtual token passing scheme. In P-NET each master is allowed to transmit only one message per token visit. In the worst-case, the communication response time can be derived considering that, in each token cycle, all stations use the token to transmit a message. In this paper, we define a more sophisticated P-NET model, which considers the actual token utilisation. We then analyse the possibility of implementing a local priority-based scheduling policy to improve the real-time behaviour of P-NET.
Resumo:
Dissertação apresentada ao Instituto Superior de Contabilidade para a obtenção do Grau de Mestre em Assessoria de Administração
Resumo:
Rationale and Objectives Computer-aided detection and diagnosis (CAD) systems have been developed in the past two decades to assist radiologists in the detection and diagnosis of lesions seen on breast imaging exams, thus providing a second opinion. Mammographic databases play an important role in the development of algorithms aiming at the detection and diagnosis of mammary lesions. However, available databases often do not take into consideration all the requirements needed for research and study purposes. This article aims to present and detail a new mammographic database. Materials and Methods Images were acquired at a breast center located in a university hospital (Centro Hospitalar de S. João [CHSJ], Breast Centre, Porto) with the permission of the Portuguese National Committee of Data Protection and Hospital's Ethics Committee. MammoNovation Siemens full-field digital mammography, with a solid-state detector of amorphous selenium was used. Results The new database—INbreast—has a total of 115 cases (410 images) from which 90 cases are from women with both breasts affected (four images per case) and 25 cases are from mastectomy patients (two images per case). Several types of lesions (masses, calcifications, asymmetries, and distortions) were included. Accurate contours made by specialists are also provided in XML format. Conclusion The strengths of the actually presented database—INbreast—relies on the fact that it was built with full-field digital mammograms (in opposition to digitized mammograms), it presents a wide variability of cases, and is made publicly available together with precise annotations. We believe that this database can be a reference for future works centered or related to breast cancer imaging.
Resumo:
The Electromyography (EMG) is an important tool for gait analyzes and disorders diagnoses. Traditional methods involve equipment that can disturb the analyses, being gradually substituted by different approaches, like wearable and wireless systems. The cable replacement for autonomous systems demands for technologies capable of meeting the power constraints. This work presents the development of an EMG and kinematic data capture wireless module, designed taking into account power consumption issues. This module captures and converts the analog myoeletric signal to digital, synchronously with the capture of kinetic information. Both data are time multiplexed and sent to a PC via Bluetooth link. The work carried out comprised the development of the hardware, the firmware and a graphical interface running in an external PC. The hardware was developed using the PIC18F14K22, a low power family of microcontrollers. The link was established via Bluetooth, a protocol designed for low power communication. An application was also developed to recover and trace the signal to a Graphic User Interface (GUI), coordinating the message exchange with the firmware. Results were obtained which allowed validating the conceived system in static and with the subject performing short movements. Although it was not possible to perform the tests within more dynamic movements, it is shown that it is possible to capture, transmit and display the captured data as expected. Some suggestions to improve the system performance also were made.
Resumo:
A esquizofrenia é uma perturbação mental grave caracterizada pela coexistência de sintomas positivos, negativos e de desorganização do pensamento e do comportamento. As alterações motoras são consistentemente observadas mas, ainda pouco estudadas na esquizofrenia, sendo relevantes para o seu diagnóstico. Neste quadro, o presente estudo tem como objetivo verificar se os indivíduos com esquizofrenia apresentam alterações na coordenação motora, comparativamente com o grupo sem esquizofrenia, bem como analisar se as disfunções dos sinais neurológicos subtis (SNS) motores se encontram correlacionadas com o funcionamento executivo e com os domínios psicopatológicos da perturbação. No total participaram 29 indivíduos (13 com diagnóstico de esquizofrenia e 16 sem diagnóstico) equivalentes em termos de idade, género, escolaridade e índice de massa corporal. Para avaliar o desempenho motor recorreu-se ao sistema Biostage de parametrização do movimento em tempo real, com a tarefa de lançameto ao alvo; a presença de SNS foi examinada através da Brief Motor Scale; o funcionamento executivo pela aplicação do subteste do Vocabulário e da fluência verbal e a sintomatologia clínica através da Positive and Negative Sindrome Scale. Pela análise cinemática do movimento constatou-se que os indivíduos com esquizofrenia recrutam um padrão motor menos desenvolvido e imaturo de movimento, com menor individualização das componentes (principalmente do tronco e pélvis), necessitando de mais tempo para executar a tarefa, comparativamente com os sujeitos sem a perturbação que evidenciaram um movimento mais avançado de movimento. Os indivíduos com esquizofrenia mostraram índices elevados de disfunção dos SNS (média =6,01) estabelecendo este domínio uma relação boa e negativa com o desempenho verbal (rho Spearman=-0,62) e uma relação forte e positiva com todos os domínios psicopatológicos (rho Spearman=0,74). O estudo da existência de alterações motoras como parte intrínseca da esquizofrenia revela-se pertinente uma vez que possibilita uma compreensão mais aprofundada da sua fisiopatologia e permite que se desenvolvam práticas mais efetivas na área da saúde e reabilitação.
Resumo:
Introdução: No futebol, a entorse lateral do tornozelo (ELT) destaca-se como sendo a lesão mais prevalente. Potenciada pela variedade de chuteiras disponíveis no mercado e pela crescente utilização de relvados sintéticos, a interação entre o terreno e o calçado tem assumido elevada relevância como fator de risco para a ELT. A maior incidência de lesões na 2ª parte do jogo traduz a necessidade do estudo dessa interação durante tarefas que envolvam fadiga. Objetivo: Estudar a influência das chuteiras em variáveis preditoras do risco de ELT em relvado sintético sob duas condições: sem e com fadiga dos músculos eversores do tornozelo Métodos: Foi utilizada uma amostra de atletas saudáveis. Todos os indivíduos realizaram 3 séries de 5 saltos médio-laterais uni-podálicos, cada uma com 1 de 3 modelos de chuteiras (Turf, Hard e Firm ground) em duas condições: sem e com fadiga induzida pelo dinamómetro isocinético. Durante a tarefa, a atividade eletromiográfica do longo e curto peroniais, o valor das forças de reação do solo e o movimento do retro-pé (plano frontal), foram recolhidos e usados para calcular variáveis cinemáticas (eversão/inversão do tornozelo, o deslocamento e velocidade do centro de pressão), cinéticas (taxa de crescimento das forças de reação do solo) e neuromusculares (tempo de ativação muscular dos peroniais). Resultados: À exceção do tempo de ativação do curto peronial com o modelo Hard ground (sem fadiga vs com fadiga (p=0,050), não foram identificadas diferenças estatisticamente significativas nas variáveis preditoras de lesão, entre chuteiras, nem entre as duas condições avaliadas. Conclusão: Para o teste funcional escolhido e executado por atletas saudáveis em sintético de 3ª geração, nenhuma das chuteiras apresenta maior risco de lesão (com e sem fadiga), tendo em conta as variáveis em estudo.
Resumo:
A quinoxalina e seus derivativos são uma importante classe de compostos heterocíclicos, onde os elementos N, S e O substituem átomos de carbono no anel. A fórmula molecular da quinoxalina é C8H6N2, formada por dois anéis aromáticos, benzeno e pirazina. É rara em estado natural, mas a sua síntese é de fácil execução. Modificações na estrutura da quinoxalina proporcionam uma grande variedade de compostos e actividades, tais como actividades antimicrobiana, antiparasitária, antidiabética, antiproliferativa, anti-inflamatória, anticancerígena, antiglaucoma, antidepressiva apresentando antagonismo do receptor AMPA. Estes compostos também são importantes no campo industrial devido, por exemplo, ao seu poder na inibição da corrosão do metal. A química computacional, ramo natural da química teórica é um método bem desenvolvido, utilizado para representar estruturas moleculares, simulando o seu comportamento com as equações da física quântica e clássica. Existe no mercado uma grande variedade de ferramentas informaticas utilizadas na química computacional, que permitem o cálculo de energias, geometrias, frequências vibracionais, estados de transição, vias de reação, estados excitados e uma variedade de propriedades baseadas em várias funções de onda não correlacionadas e correlacionadas. Nesta medida, a sua aplicação ao estudo das quinoxalinas é importante para a determinação das suas características químicas, permitindo uma análise mais completa, em menos tempo, e com menos custos.
Resumo:
The immobilization and electro-oxidation of guanine and adenine asDNA bases on glassy carbon electrode are evaluated by square wave voltammetric analysis. The influence of electrochemical pretreatments, nature of supporting electrolyte, pH, accumulation time and composition of DNA nucleotides on the immobilization effect and the electrochemical mechanism are discussed. Trace levels of either guanine or adenine can be readily detected following short accumulation time with detection limits of 35 and 40 ngmL−1 for guanine and adenine, respectively. The biosensors of guanine and adenine were employed for the voltammetric detection of antioxidant capacity in flavored water samples. The method relies on monitoring the changes of the intrinsic anodic response of the surface-confined guanine and adenine species, resulting from its interaction with free radicals from Fenton-type reaction in absence and presence of antioxidant. Ascorbic acid was used as standard to evaluate antioxidant capacities of samples. Analytical data was compared with that of FRAP method.
Resumo:
Consider a wireless network where links may be unidirectional, that is, a computer node A can broadcast a message and computer node B will receive this message but if B broadcasts then A will not receive it. Assume that messages have deadlines. We propose a medium access control (MAC) protocol which replicates a message in time with carefully selected pauses between replicas, and in this way it guarantees that for every message at least one replica of that message is transmitted without collision. The protocol ensures this with no knowledge of the network topology and it requires neither synchronized clocks nor carrier sensing capabilities. We believe this result is significant because it is the only MAC protocol that offers an upper bound on the message queuing delay for unidirectional links without relying on synchronized clocks.
Resumo:
Esta dissertação incide sobre a problemática da construção de um data warehouse para a empresa AdClick que opera na área de marketing digital. O marketing digital é um tipo de marketing que utiliza os meios de comunicação digital, com a mesma finalidade do método tradicional que se traduz na divulgação de bens, negócios e serviços e a angariação de novos clientes. Existem diversas estratégias de marketing digital tendo em vista atingir tais objetivos, destacando-se o tráfego orgânico e tráfego pago. Onde o tráfego orgânico é caracterizado pelo desenvolvimento de ações de marketing que não envolvem quaisquer custos inerentes à divulgação e/ou angariação de potenciais clientes. Por sua vez o tráfego pago manifesta-se pela necessidade de investimento em campanhas capazes de impulsionar e atrair novos clientes. Inicialmente é feita uma abordagem do estado da arte sobre business intelligence e data warehousing, e apresentadas as suas principais vantagens as empresas. Os sistemas business intelligence são necessários, porque atualmente as empresas detêm elevados volumes de dados ricos em informação, que só serão devidamente explorados fazendo uso das potencialidades destes sistemas. Nesse sentido, o primeiro passo no desenvolvimento de um sistema business intelligence é concentrar todos os dados num sistema único integrado e capaz de dar apoio na tomada de decisões. É então aqui que encontramos a construção do data warehouse como o sistema único e ideal para este tipo de requisitos. Nesta dissertação foi elaborado o levantamento das fontes de dados que irão abastecer o data warehouse e iniciada a contextualização dos processos de negócio existentes na empresa. Após este momento deu-se início à construção do data warehouse, criação das dimensões e tabelas de factos e definição dos processos de extração e carregamento dos dados para o data warehouse. Assim como a criação das diversas views. Relativamente ao impacto que esta dissertação atingiu destacam-se as diversas vantagem a nível empresarial que a empresa parceira neste trabalho retira com a implementação do data warehouse e os processos de ETL para carregamento de todas as fontes de informação. Sendo que algumas vantagens são a centralização da informação, mais flexibilidade para os gestores na forma como acedem à informação. O tratamento dos dados de forma a ser possível a extração de informação a partir dos mesmos.
Resumo:
A new method, based on linear correlation and phase diagrams was successfully developed for processes like the sedimentary process, where the deposition phase can have different time duration - represented by repeated values in a series - and where the erosion can play an important rule deleting values of a series. The sampling process itself can be the cause of repeated values - large strata twice sampled - or deleted values: tiny strata fitted between two consecutive samples. What we developed was a mathematical procedure which, based upon the depth chemical composition evolution, allows the establishment of frontiers as well as the periodicity of different sedimentary environments. The basic tool isn't more than a linear correlation analysis which allow us to detect the existence of eventual evolution rules, connected with cyclical phenomena within time series (considering the space assimilated to time), with the final objective of prevision. A very interesting discovery was the phenomenon of repeated sliding windows that represent quasi-cycles of a series of quasi-periods. An accurate forecast can be obtained if we are inside a quasi-cycle (it is possible to predict the other elements of the cycle with the probability related with the number of repeated and deleted points). We deal with an innovator methodology, reason why it's efficiency is being tested in some case studies, with remarkable results that shows it's efficacy. Keywords: sedimentary environments, sequence stratigraphy, data analysis, time-series, conditional probability.
O Processo de internacionalização da música portuguesa: contexto histórico, desafios atuais e futuro
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Empreendedorismo e Internacionalização, sob orientação do Professor Doutor Freitas Santos
Resumo:
Artificial Intelligence has been applied to dynamic games for many years. The ultimate goal is creating responses in virtual entities that display human-like reasoning in the definition of their behaviors. However, virtual entities that can be mistaken for real persons are yet very far from being fully achieved. This paper presents an adaptive learning based methodology for the definition of players’ profiles, with the purpose of supporting decisions of virtual entities. The proposed methodology is based on reinforcement learning algorithms, which are responsible for choosing, along the time, with the gathering of experience, the most appropriate from a set of different learning approaches. These learning approaches have very distinct natures, from mathematical to artificial intelligence and data analysis methodologies, so that the methodology is prepared for very distinct situations. This way it is equipped with a variety of tools that individually can be useful for each encountered situation. The proposed methodology is tested firstly on two simpler computer versus human player games: the rock-paper-scissors game, and a penalty-shootout simulation. Finally, the methodology is applied to the definition of action profiles of electricity market players; players that compete in a dynamic game-wise environment, in which the main goal is the achievement of the highest possible profits in the market.
Resumo:
Neste relatório apresentam-se resultados de um estudo estatístico que procura contribuir para um melhor entendimento da problemática inerente à liberalização do setor elétrico em Portugal e dos desafios que esta liberalização, existente desde meados de 2007, trás aos seus intervenientes. Iniciam-se os trabalhos com um estudo que pretende avaliar a existência de relação entre o Preço de Mercado da eletricidade e um conjunto de variáveis potencialmente explicativas/condicionantes do Preço de Mercado. Neste estudo consideram-se duas abordagens. A primeira usa a função de correlação cruzada para avaliar a existência de relação do tipo linear entre pares de variáveis. A segunda considera o teste causalidade de Granger na avaliação de uma relação de causa e efeito entre esses pares. Este estudo avaliou a relação entre o Preço de Mercado da eletricidade e 19 variáveis ditas condicionantes distribuídas por três categorias distintas (consumo e produção de eletricidade; indicadores climáticos; e energias primárias). O intervalo de tempo em estudo cinge-se ao biénio 2012-2103. Durante este período avaliam-se as relações entre as variáveis em diversos sub-períodos de tempo em ciclos de consumo representativos do consumo em baixa (fim de semana) e de consumo mais elevado (fora de vazio) com os valores observados de cada uma das variáveis tratados com uma base horária e diária (média). Os resultados obtidos mostram a existência relação linear entre algumas das variáveis em estudo e o preço da eletricidade em regime de mercado liberalizado, mas raramente é possível identificar precedência temporal entre as variáveis. Considerando os resultados da análise de correlação e causalidade, apresenta-se ainda um modelo de previsão do Preço de Mercado para o curto e médio prazo em horas de período fora de vazio.
Resumo:
Accumulation of microcystin-LR (MC-LR) in edible aquatic organisms, particularly in bivalves, is widely documented. In this study, the effects of food storage and processing conditions on the free MC-LR concentration in clams (Corbicula fluminea) fed MC-LR-producing Microcystisaeruginosa (1 × 105 cell/mL) for four days, and the bioaccessibility of MC-LR after in vitro proteolytic digestion were investigated. The concentration of free MC-LR in clams decreased sequentially over the time with unrefrigerated and refrigerated storage and increased with freezing storage. Overall, cooking for short periods of time resulted in a significantly higher concentration (P < 0.05) of free MC-LR in clams, specifically microwave (MW) radiation treatment for 0.5 (57.5%) and 1 min (59%) and boiling treatment for 5 (163.4%) and 15 min (213.4%). The bioaccessibility of MC-LR after proteolytic digestion was reduced to 83%, potentially because of MC-LR degradation by pancreatic enzymes. Our results suggest that risk assessment based on direct comparison between MC-LR concentrations determined in raw food products and the tolerable daily intake (TDI) value set for the MC-LR might not be representative of true human exposure.