76 resultados para Reconhecimento em tempo real
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
O trabalho realizado teve como objetivo principal analisar os ajustes posturais antecipatórios que ocorrem durante o desempenho de uma tarefa motora fundamental (apanhar), em crianças entre os nove e os dez anos de idade, residentes no Porto e que apresentam um desenvolvimento normal com recurso ao sistema de captura e parametrização do movimento em tempo real BioStage ®. Como objetivo secundário pretendeu-se perceber de que forma este sistema pode ser uma ferramenta importante na prática clínica da terapia ocupacional. Para tal, realizou-se um estudo de natureza quantitativa e de carácter descritivo e recorreu-se a uma amostra de 12 crianças, utilizando o método de amostragem não probabilística por conveniência. A recolha de dados efetuou-se no sistema BioStage ® e foi pedido que realizassem quatro itens do subteste 5 do Bruininks-Oseretsky Test of Motor Proficiency (BOTMP) – receção bi e unilateral de uma bola com e sem ressalto no chão. Os resultados obtidos sugerem que as raparigas e as crianças mais novas demonstram ter menos estabilidade do tronco e pélvis ou menor capacidade de prever a trajetória da bola e que a receção unilateral foi mais difícil de efetuar pela maioria das crianças. Para concluir, refere-se que o BioStage ® mostra-se útil e é uma mais-valia, contribuindo de forma positiva para a prática da terapia ocupacional, uma vez que pode ser considerado como um complemento ao processo de avaliação pois faz uma análise detalhada, precisa e objetiva e identifica aspetos de difícil mensuração através da observação.
Resumo:
O estudo do comportamento motor, nomeadamente as áreas do desenvolvimento e controlo motor, têm permitido fundamentar a prática da terapia ocupacional, proporcionando um entendimento mais abrangente de aspetos relacionados com a análise de movimento. Todavia, o processo de análise de atividades, por norma, é realizado de forma empírica, principalmente devido à carência de métodos que avaliem de forma objetiva e precisa o comportamento motor e, consequentemente, os movimentos realizados no desempenho de atividades. Neste sentido, este estudo pretendeu encontrar padrões motores em crianças entre os nove e os dez anos de idade, com desenvolvimento normal, que traduzam o desempenho de uma tarefa motora funcional, com recurso ao sistema de captura e parametrização do movimento em tempo real BioStage®. Por outro lado, tentou-se perceber se o sistema poderia revelar-se um contributo para a prática da terapia ocupacional, possibilitando a obtenção de dados que possam ser utilizados na clínica. As tarefas selecionadas para análise foram os cinco lançamentos propostos pelo Bruininks-Oseretsky Test of Motor Proficiency, que consistem no lançamento por baixo uni e bilateral, lançamento ao chão uni e bilateral e lançamento ao alvo (unilateral). Os resultados encontrados apontam que aos nove e dez anos existem padrões motores similares entre as crianças, no entanto ainda se nota uma ligeira variabilidade no comportamento. Aferiu-se, também, que a idade, sexo e prática de exercício físico podem influenciar os padrões utilizados, estando de acordo com a literatura. O sistema BioStage® mostrou-se uma ferramenta eficaz para a análise de movimento, providenciando informação detalhada sobre o comportamento motor das crianças, no decorrer das tarefas. Deste modo, pode ser uma mais-valia para a prática da terapia ocupacional, podendo contribuir para uma análise de atividades mais precisa, objetiva e fundamentada.
Resumo:
Dissertação apresentada ao Instituto Superior de Contabilidade para a obtenção do Grau de Mestre em Auditoria Orientador: Mestre Agostinho Sousa Pinto
Resumo:
Versão integral do artigo no link do editor
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Mestrado em Engenharia Informática
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Este trabalho destina-se às provas para obtenção do Estatuto de Especialista na Escola Superior de Música, Artes e Espectáculo do Instituto Politécnico do Porto. Com ele pretendo abordar a música portuguesa para clarinete e electrónica, com a qual gravei o meu último disco que acaba de ser editado pela Miso Records. O propósito não é falar apenas sobre o disco em si mas, sobretudo, da música que lhe dá corpo. Descrever um pouco esta música, que envolve um instrumento com 300 anos, que é o clarinete, e uma tecnologia que evolui todos os dias, centrado nos seus aspectos performativos. Este disco acabou por ser uma consequência de um processo que é, fundamentalmente, de performance e de tudo o que a precede e envolve. É isso que tentarei explorar aqui. Há mais de 10 anos que tinha o objectivo de explorar, enquanto intérprete, o repertório para clarinete solo e electrónica. No entanto, esse desejo foi sendo sucessivamente adiado por diversas razões que se prendem fundamentalmente com a especificidade de um projeto desta natureza e com as necessidades de vária ordem que exige. As condições para a realização desse projeto pessoal começaram a criar-se em 2007, com o aparecimento do Sond’Ar-te Electric Ensemble e com a minha integração nesse grupo. Sendo um agrupamento criado no seio da Miso Music Portugal com o propósito de fazer fundamentalmente música mista, estava encontrado o parceiro ideal para que pudesse fazer música para clarinete e electrónica com regularidade. Por se tratar de uma instituição que privilegia sobretudo a criação e divulgação da música e dos músicos portugueses, o repertório a trabalhar começou por ser, naturalmente, o de compositores portugueses que já tivessem obras ou que estivessem a compor para clarinete e electrónica. Com a realização de vários concertos, bem como a estreia e rodagem de algumas obras, em 2009 decidimos fazer a gravação de 6 dessas obras para posterior edição em disco. Essa gravação, realizada em Dezembro de 2009, acaba de ser editado pela Miso Records e são essas obras que decidi explorar neste trabalho. Escolhi este repertório por várias razões, sendo as mais importantes o conhecimento das obras e da sua história enquanto intérprete, tendo mesmo estado envolvido em algumas delas desde o seu início, e a proximidade pessoal e musical que mantenho com os compositores. Para este trabalho procurei fazer uma resenha da história das obras e explorar dois aspectos que me parecem pertinentes neste tipo de repertório: por um lado, a relação que é absolutamente necessária entre intérprete e compositor para a criação desta música e por outro, um novo paradigma que surge, naturalmente, da relação dos compositores com o público, pelo seu envolvimento direto com o som que é produzido. Para isso, para além da experiência pessoal, contei com o envolvimento dos compositores na resposta a um questionário que lhes enviei. Esse questionário foi elaborado com o objectivo de explorar dois aspectos: as diferenças entre a electrónica em tempo real e em tempo diferido e também o do papel dos intérpretes na motivação para a composição e como catalisadores e fontes de informação técnica para o trabalho dos compositores. Começarei por abordar a música mista, na sua envolvente performativa. Antes de mais, importa delimitar conceitos e compreender o que é este tipo de música. Poderemos, neste caso concreto, considerar a música que foi, e continua a ser, composta para clarinete e electrónica. No entanto, entendo por música mista toda a música que relaciona a electrónica com instrumentos ditos acústicos. Embora reconhecendo que esta é uma forma um pouco ambígua de definir o conceito, será porventura a que se explicará por poucas palavras e de uma forma simples. Digo ambígua porque se considerarmos que a música electrónica, para ser escutada, tem de passar por processos acústicos de difusão, teríamos aqui um problema para definir o que é e o que não é acústico. Consideremos então os instrumentos tradicionais, sem qualquer processo eléctrico ou electrónico na sua origem sonora, como acústicos, ainda que para efeitos de difusão conjunta com a electrónica sejam, em muitos casos, amplificados e/ou equalizados de forma a poder obter-se uma interpretação coesa e optimizar-se uma sonoridade conjunta. Neste caso, que é o da música mista para clarinete de compositores portugueses, começaria por abordar os aspectos performativos dividindo-os em duas classes importantes que se prendem com a forma como a electrónica é apresentada: em tempo real ou em tempo diferido. Se a música com electrónica em tempo real depende do sinal emitido pelo instrumento, e a partir daí a electrónica é processada e gerada através de programas como Max/MSP, o mais utilizado hoje em dia, a música electrónica em tempo diferido está toda predefinida à partida e é apresentada em suporte físico, sob a forma de um ou vários ficheiros áudio que são difundidos ao longo da performance. Há também quem utilize os dois processos de forma concorrente e complementar na mesma obra.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores.
Resumo:
Mestrado em Engenharia Informática. Área de Especialização em Tecnologias do Conhecimento e Decisão.
Resumo:
The introduction of electricity markets and integration of Distributed Generation (DG) have been influencing the power system’s structure change. Recently, the smart grid concept has been introduced, to guarantee a more efficient operation of the power system using the advantages of this new paradigm. Basically, a smart grid is a structure that integrates different players, considering constant communication between them to improve power system operation and management. One of the players revealing a big importance in this context is the Virtual Power Player (VPP). In the transportation sector the Electric Vehicle (EV) is arising as an alternative to conventional vehicles propel by fossil fuels. The power system can benefit from this massive introduction of EVs, taking advantage on EVs’ ability to connect to the electric network to charge, and on the future expectation of EVs ability to discharge to the network using the Vehicle-to-Grid (V2G) capacity. This thesis proposes alternative strategies to control these two EV modes with the objective of enhancing the management of the power system. Moreover, power system must ensure the trips of EVs that will be connected to the electric network. The EV user specifies a certain amount of energy that will be necessary to charge, in order to ensure the distance to travel. The introduction of EVs in the power system turns the Energy Resource Management (ERM) under a smart grid environment, into a complex problem that can take several minutes or hours to reach the optimal solution. Adequate optimization techniques are required to accommodate this kind of complexity while solving the ERM problem in a reasonable execution time. This thesis presents a tool that solves the ERM considering the intensive use of EVs in the smart grid context. The objective is to obtain the minimum cost of ERM considering: the operation cost of DG, the cost of the energy acquired to external suppliers, the EV users payments and remuneration and penalty costs. This tool is directed to VPPs that manage specific network areas, where a high penetration level of EVs is expected to be connected in these areas. The ERM is solved using two methodologies: the adaptation of a deterministic technique proposed in a previous work, and the adaptation of the Simulated Annealing (SA) technique. With the purpose of improving the SA performance for this case, three heuristics are additionally proposed, taking advantage on the particularities and specificities of an ERM with these characteristics. A set of case studies are presented in this thesis, considering a 32 bus distribution network and up to 3000 EVs. The first case study solves the scheduling without considering EVs, to be used as a reference case for comparisons with the proposed approaches. The second case study evaluates the complexity of the ERM with the integration of EVs. The third case study evaluates the performance of scheduling with different control modes for EVs. These control modes, combined with the proposed SA approach and with the developed heuristics, aim at improving the quality of the ERM, while reducing drastically its execution time. The proposed control modes are: uncoordinated charging, smart charging and V2G capability. The fourth and final case study presents the ERM approach applied to consecutive days.