959 resultados para goal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos últimos anos tem-se verificado um desenvolvimento significativo em soluções Internet Protocol Television (IPTV), com vista a ser implementadas em diversos sectores, incluindo o mercado hoteleiro. O presente trabalho desenvolveu-se em torno de um produto específico ligado a esta área, o sistema de entretenimento NiVo. Este produto foi criado pela Nonius Software, empresa associada ao ramo das telecomunicações, que continua a expandi-lo, conferindo-lhe novas características e melhoramentos. O objectivo principal do projecto consiste no desenvolvimento de uma aplicação simuladora dos temas gráficos do sistema NiVo, com a finalidade de facilitar o processo de criação dos mesmos. Esta aplicação pretende ter uma apresentação e interactividade o mais próxima possível do sistema real, permitindo realizar o teste/validação de um tema, sem a necessidade de utilização de equipamento que compõe o sistema NiVo. Um segundo objectivo baseia-se no desenvolvimento de uma aplicação de ajuda à composição de temas, evitando que estes sejam desenvolvidos manualmente, sem qualquer tipo de suporte, o que pode resultar em erros. Para o cumprimento dos objectivos estabelecidos, focando-se no desenvolvimento do simulador, utilizou-se a tecnologia Flash, sendo esta muito utilizada para a criação de animações interactivas. Desta forma, a aplicação desenvolvida tira partido das vantagens fornecidas por esta tecnologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An Electrocardiogram (ECG) monitoring system deals with several challenges related with noise sources. The main goal of this text was the study of Adaptive Signal Processing Algorithms for ECG noise reduction when applied to real signals. This document presents an adaptive ltering technique based on Least Mean Square (LMS) algorithm to remove the artefacts caused by electromyography (EMG) and power line noise into ECG signal. For this experiments it was used real noise signals, mainly to observe the di erence between real noise and simulated noise sources. It was obtained very good results due to the ability of noise removing that can be reached with this technique. A recolha de sinais electrocardiogr a cos (ECG) sofre de diversos problemas relacionados com ru dos. O objectivo deste trabalho foi o estudo de algoritmos adaptativos para processamento digital de sinal, para redu c~ao de ru do em sinais ECG reais. Este texto apresenta uma t ecnica de redu c~ao de ru do baseada no algoritmo Least Mean Square (LMS) para remo c~ao de ru dos causados quer pela actividade muscular (EMG) quer por ru dos causados pela rede de energia el ectrica. Para as experiencias foram utilizados ru dos reais, principalmente para aferir a diferen ca de performance do algoritmo entre os sinais reais e os simulados. Foram conseguidos bons resultados, essencialmente devido as excelentes caracter sticas que esta t ecnica tem para remover ru dos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A realização desta Tese/Dissertação tem como objectivo o estudo e implementação piloto de um Sistema de Supervisão e Aquisição de dados (SCADA) na Swedwood Portugal, na qual exerço as funções de Engenheiro de Processo nas linhas de montagem de mobiliário. Foi efectuado um estudo das necessidades da empresa relativamente às melhorias dos processos das linhas de montagem, com o intuito de melhorar a montagem do semi-produto, a nível de qualidade das matérias-primas, operação e desempenho de equipamentos. Chegou-se à conclusão que existe uma grande necessidade de controlar a qualidade das matérias-primas utilizadas na construção do semi-produto em tempo real, de modo a que seja possível diminuir a complexidade na recolha atempada de amostras por parte dos elementos de operação e diminuir o atraso da entrega de resultados das amostras por parte do laboratório. A colagem é um elemento crítico na montagem do semi-produto, devido às variações de viscosidade da cola, consequência das variações climatéricas a que foi sujeita, desde a saída do fornecedor até à sua utilização nas linhas de montagem. Para tal concebeu-se uma solução para dar uma resposta mais rápida no controlo de qualidade da cola à base de acetato de polivinil (PVAC), ou seja, a implementação piloto de um sistema SCADA na sala de colas, de modo a que haja um controlo a nível de temperatura e humidade, controlo de viscosidade em tempo real e controlo do nível da cola na cuba, fazendo com que haja só uma supervisão por parte dos elementos de operação. Optou-se por um conjunto de hardware e software da SIMATIC desenvolvido pela Siemens, para elaboração da programação e desenvolvimento da Interface Homem Máquina (HMI).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Controlo e Gestão e dos Negócios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este relatório apresenta o trabalho realizado no âmbito da unidade curricular de Tese/Dissertação do Mestrado em Engenharia Electrotécnica e de Computadores - área de especialização de Telecomunicações. Pretende-se desenvolver um sistema distribuído de seguimento, no exterior, de plataformas móveis equipadas com receptores de baixo custo. O sistema deve, em tempo útil, realizar a aquisição, descodificação e tratamento dos dados emiti- dos pelo Global Navigation Satellite System (GNSS), das observações efectuadas pelo receptor e da informação proveniente do European Geostationary Navigation Overlay System (EGNOS). O objectivo é determinar, a partir deste conjunto de informação e para cada plataforma ligada, a posição em modo absoluto, as correcções diferenciais e, finalmente, a posição em modo diferencial. Optou-se por receber as correcções diferenciais de área alargada do EGNOS através da Internet, permitindo, assim, que receptores sem capacidade de receber directamente informação do EGNOS possam também usufruir desta fonte de informação complementar. As correcções diferenciais a aplicar às observações de cada receptor são geradas através do conceito de estacão de referência virtual - Virtual Reference Station (VRS) - a partir da posição aproximada do receptor e das correcções de área alargada provenientes do EGNOS. A determinação da posição em modo diferencial das plataformas móveis é efectuada segundo o conceito de Inverted Di®erential Global Navigation Satellite System (IDGNSS) e utilizando uma arquitectura do tipo Cliente-Servidor. Por último, os resultados, que são armazenados numa base de dados, são disponibilizados ao utilizador através de uma aplicação Web. O utilizador pode, assim, efectuar o seguimento de qualquer plataforma móvel ligada ao sistema a partir de qualquer dispositivo com navegador e acesso à Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contabilidade em Auditoria

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado, Património, Museologia e Desenvolvimento, 2 de Outubro de 2015, Universidade dos Açores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Gestão das Instituições Financeiras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Projeto de Intervenção apresentado à Escola Superior de Educação de Lisboa para obtenção de grau de Mestre em Didática da Língua Portuguesa no 1.º e 2.º Ciclos do Ensino Básico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da utilização do mercúrio, Hg, tanto para fins industriais como na aplicação de compostos mercuriais na agricultura, originaram um aumento significativo da contaminação ambiental, especialmente das águas e dos alimentos. Foi aprofundado o estudo sobre o mercúrio, nomeadamente as suas principais fontes de emissão, a sua toxicidade, os principais efeitos nos seres humanos, algumas medidas preventivas, os limites máximos que a legislação permite, que no caso das águas analisadas é de 0,001mg/L, os métodos analíticos para a sua determinação e alguns métodos de amostragem, tanto para o mercúrio em águas como em sedimentos. Em Almadén (Espanha), existe uma mina que pode ser considerada como uma das maiores anomalias geoqímica de mercúrio na Terra. Com este trabalho pretendeu-se perceber a possível existência de mercúrio nas águas termais ao longo da zona de falha Penacova-Régua-Verin e avaliar a existência de uma relação entre os níveis de mercúrio e o seu contexto geológico. Neste trabalho, foi desenvolvido um método simples para a determinação dos níveis de mercúrio em águas, utilizando a espectrometria de absorção atómica de fonte contínua de alta resolução acoplado à técnica de vapor frio. O objectivo deste trabalho foi avaliar os níveis de mercúrio existente em algumas águas engarrafadas e termais. Os limites de detecção da técnica utilizada foram 0,0595 μg/L e os de quantificação foram 0,2100 μg/L. Depois de analisadas as amostras verificou-se que os níveis de mercúrio encontrados nas águas eram inferiores ao limite de quantificação da técnica e por isso, não foi possível extrapolar qualquer relação entre os níveis de mercúrio e as alterações do fundo geológico. Como o limite de quantificação é inferior ao limite máximo permitido por lei, pode então dizer-se que todas as águas se encontram abaixo do limite máximo permitido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.