78 resultados para Algoritmo Boosting


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje usar o transporte público para nos deslocarmos de uma determinada origem para um determinado destino é uma realidade na vida da maioria das pessoas. Muitas destas deslocações fazem parte da rotina diária do cidadão, que depende destes transportes para as suas atividades do dia-a-dia. Nos últimos anos, o número de cidadãos que usa os transportes públicos como meio de deslocação tem vindo a aumentar consideravelmente. Contudo, a maioria dos operadores de transportes públicos pecam pela falta de pontualidade dos seus serviços, e pela falta de informação disponível ao cidadão acerca dos horários dos mesmos em tempo real. Tendo este problema em conta, foi desenvolvida uma solução capaz de realizar uma previsão do tempo de chegada de um transporte público, ao longo de todo o seu serviço. Previsão essa que é atualizada ao longo do percurso de forma a reduzir a margem de erro da informação apresentada. Com esta informação o cidadão pode planear melhor o seu dia e decidir qual é a melhor altura para se deslocar para a paragem, evitando ao máximo a perda de tempo à espera do seu transporte público. A solução final foi desenvolvida com a ajuda da empresa BEWARE e teve como objetivo a criação de uma aplicação web capaz de apresentar os tempos de espera dos autocarros em diferentes tipos de vista, bem como o acompanhamento do mesmo ao longo do percurso. Toda a informação utilizada na aplicação web foi criada por dois serviços de apoio que efetuam o controlo do autocarro ao longo do percurso, bem como os cálculos da previsão dos tempos de espera. O projeto foi dividido em quatro constituintes que foram repetidas durante o desenvolvimento da solução. A primeira constou na análise do problema, no levantamento e definição dos requisitos. A segunda incluiu o desenvolvimento de um algoritmo capaz de validar a posição do autocarro ao longo do seu percurso, detetando a paragem onde este se encontra e a hora de chegada à mesma. A terceira abrangeu o desenvolvimento de um algoritmo capaz de prever o tempo de chegada de um autocarro às paragens definidas na sua rota, recorrendo ao histórico de viagens realizadas anteriormente. A quarta consistiu no desenvolvimento da aplicação web, implementando todas as funcionalidades necessárias para que a aplicação consiga realizar o acompanhamento do autocarro no percurso, a consulta dos tempos de chegada e da previsão dos tempos às paragens seguintes recorrendo a três tipos de vistas diferentes, e a possibilidade de agendar notificações de forma a receber no email as previsões dos tempos de chegada nos dias e horas mais significativos para o utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos últimos anos, vários esforços e estudos foram feitos com o objetivo de colocar a fibra ótica no mercado, como um sistema preferencial de monitorização das mais diversas obras de Engenharia. Os sensores baseados na tecnologia em fibra ótica apresentam vantagens reconhecidas pelos mais diversos especialistas, sendo atualmente reconhecida como uma das soluções mais eficazes. Na engenharia Civil, a monitorização das grandes obras tem ganho uma importância crescente. Neste contexto, a monitorização de convergências em túneis visa o controlo da respectiva integridade estrutural ao longo da construção e a exploração da obra. Atualmente a solução de monitorização estrutural de túneis utilizada pela FiberSensing é uma solução desenhada em conjunto com a EPOS e o Cegeo (IST), baseada em sensores de Bragg em Fibra Ótica: o SysTunnel. O objetivo do estudo de uma solução alternativa encontra-se no facto do SysTunnel apresentar algumas debilidades no algoritmo de cálculo, sendo para o seu cálculo necessário a introdução de um parâmetro relacionado com o solo envolvente do túnel, facto que introduz incertezas no cálculo das convergências. O presente relatório tem como finalidade documentar o estágio curricular realizado na FiberSensing, entre 01/02/2014 a 31/07/2014. Este estágio teve como objetivo o desenvolvimento de uma solução alternativa de monitorização estrutural baseada na tecnologia das redes de Bragg para a monitorização das convergências em túneis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento foi redigido no âmbito da Tese, do Mestrado em Engenharia Informática na área de Tecnologias do Conhecimento e Decisão, do Departamento de Engenharia Informática, do ISEP, cujo tema é classificação de sons cardíacos usando motifs. Neste trabalho, apresenta-se um algoritmo de classificação de sons cardíacos, capaz de identificar patologias cardíacas. A classificação do som cardíaco é um trabalho desafiante dada a dificuldade em separar os sons ambiente (vozes, respiração, contacto do microfone com superfícies como pele ou tecidos) ou de ruído dos batimentos cardíacos. Esta abordagem seguiu a metodologia de descoberta de padrões SAX (motifs) mais frequentes, em séries temporais relacionando-os com a ocorrência sistólica (S1) e a ocorrência diastólica (S2) do coração. A metodologia seguida mostrou-se eficaz a distinguir sons normais de sons correspondentes a patologia. Os resultados foram publicados na conferência internacional IDEAS’14 [Oliveira, 2014], em Julho deste ano. Numa fase seguinte, desenvolveu-se uma aplicação móvel, capaz de captar os batimentos cardíacos, de os tratar e os classificar. A classificação dos sons é feita usando o método referido no parágrafo anterior. A aplicação móvel, depois de tratar os sons, envia-os para um servidor, onde o programa de classificação é executado, e recebe a resposta da classificação. É também descrita a arquitetura aplicacional desenhada e as componentes que a constituem, as ferramentas e tecnologias utilizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a massificação do uso da tecnologia no dia-a-dia, os sistemas de localização têm vindo a aumentar a sua popularidade, devido à grande diversidade de funcionalidades que proporcionam e aplicações a que se destinam. No entanto, a maior parte dos sistemas de posicionamento não funcionam adequadamente em ambientes indoor, impedindo o desenvolvimento de aplicações de localização nestes ambientes. Os acelerómetros são muito utilizados nos sistemas de localização inercial, pelas informações que fornecem acerca das acelerações sofridas por um corpo. Para tal, neste trabalho, recorrendo à análise do sinal de aceleração provindo de um acelerómetro, propõe-se uma técnica baseada na deteção de passos para que, em aplicações futuras, possa constituir-se como um recurso a utilizar para calcular a posição do utilizador dentro de um edifício. Neste sentido, este trabalho tem como objetivo contribuir para o desenvolvimento da análise e identificação do sinal de aceleração obtido num pé, por forma a determinar a duração de um passo e o número de passos dados. Para alcançar o objetivo de estudo foram analisados, com recurso ao Matlab, um conjunto de 12 dados de aceleração (para marcha normal, rápida e corrida) recolhidos por um sistema móvel (e provenientes de um acelerómetro). A partir deste estudo exploratório tornou-se possível apresentar um algoritmo baseado no método de deteção de pico e na utilização de filtros de mediana e Butterworth passa-baixo para a contagem de passos, que apresentou bons resultados. Por forma a validar as informações obtidas nesta fase, procedeu-se, seguidamente, à realização de um conjunto de testes experimentais a partir da recolha de 33 novos dados para a marcha e corrida. Identificaram-se o número de passos efetuados, o tempo médio de passo e da passada e a percentagem de erro como as variáveis em estudo. Obteve-se uma percentagem de erro igual a 1% para o total dos dados recolhidos de 20, 100, 500 e 1000 passos com a aplicação do método proposto para a contagem do passo. Não obstante as dificuldades observadas na análise dos sinais de aceleração relativos à corrida, o algoritmo proposto mostrou bom desempenho, conseguindo valores próximos aos esperados. Os resultados obtidos permitem afirmar que foi possível atingir-se o objetivo de estudo com sucesso. Sugere-se, no entanto, o desenvolvimento de futuras investigações de forma a alargar estes resultados em outras direções.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos últimos anos, os scanners 3D têm tido uma utilização crescente nas mais variadas áreas. Desde a Medicina à Arqueologia, passando pelos vários tipos de indústria, ´e possível identificar aplicações destes sistemas. Essa crescente utilização deve-se, entre vários factores, ao aumento dos recursos computacionais, à simplicidade e `a diversidade das técnicas existentes, e `as vantagens dos scanners 3D comparativamente com outros sistemas. Estas vantagens são evidentes em áreas como a Medicina Forense, onde a fotografia, tradicionalmente utilizada para documentar objectos e provas, reduz a informação adquirida a duas dimensões. Apesar das vantagens associadas aos scanners 3D, um factor negativo é o preço elevado. No âmbito deste trabalho pretendeu-se desenvolver um scanner 3D de luz estruturada económico e eficaz, e um conjunto de algoritmos para o controlo do scanner, para a reconstrução de superfícies de estruturas analisadas, e para a validação dos resultados obtidos. O scanner 3D implementado ´e constituído por uma câmara e por um projector de vídeo ”off-the-shelf”, e por uma plataforma rotativa desenvolvida neste trabalho. A função da plataforma rotativa consiste em automatizar o scanner de modo a diminuir a interação dos utilizadores. Os algoritmos foram desenvolvidos recorrendo a pacotes de software open-source e a ferramentas gratuitas. O scanner 3D foi utilizado para adquirir informação 3D de um crânio, e o algoritmo para reconstrução de superfícies permitiu obter superfícies virtuais do crânio. Através do algoritmo de validação, as superfícies obtidas foram comparadas com uma superfície do mesmo crânio, obtida por tomografia computorizada (TC). O algoritmo de validação forneceu um mapa de distâncias entre regiões correspondentes nas duas superfícies, que permitiu quantificar a qualidade das superfícies obtidas. Com base no trabalho desenvolvido e nos resultados obtidos, é possível afirmar que foi criada uma base funcional para o varrimento de superfícies 3D de estruturas, apta para desenvolvimento futuro, mostrando que é possível obter alternativas aos métodos comerciais usando poucos recursos financeiros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Computação Evolutiva enquadra-se na área da Inteligência Artificial e é um ramo das ciências da computação que tem vindo a ser aplicado na resolução de problemas em diversas áreas da Engenharia. Este trabalho apresenta o estado da arte da Computação Evolutiva, assim como algumas das suas aplicações no ramo da eletrónica, denominada Eletrónica Evolutiva (ou Hardware Evolutivo), enfatizando a síntese de circuitos digitais combinatórios. Em primeiro lugar apresenta-se a Inteligência Artificial, passando à Computação Evolutiva, nas suas principais vertentes: os Algoritmos Evolutivos baseados no processo da evolução das espécies de Charles Darwin e a Inteligência dos Enxames baseada no comportamento coletivo de alguns animais. No que diz respeito aos Algoritmos Evolutivos, descrevem-se as estratégias evolutivas, a programação genética, a programação evolutiva e com maior ênfase, os Algoritmos Genéticos. Em relação à Inteligência dos Enxames, descreve-se a otimização por colônia de formigas e a otimização por enxame de partículas. Em simultâneo realizou-se também um estudo da Eletrónica Evolutiva, explicando sucintamente algumas das áreas de aplicação, entre elas: a robótica, as FPGA, o roteamento de placas de circuito impresso, a síntese de circuitos digitais e analógicos, as telecomunicações e os controladores. A título de concretizar o estudo efetuado, apresenta-se um caso de estudo da aplicação dos algoritmos genéticos na síntese de circuitos digitais combinatórios, com base na análise e comparação de três referências de autores distintos. Com este estudo foi possível comparar, não só os resultados obtidos por cada um dos autores, mas também a forma como os algoritmos genéticos foram implementados, nomeadamente no que diz respeito aos parâmetros, operadores genéticos utilizados, função de avaliação, implementação em hardware e tipo de codificação do circuito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este projecto tem como objectivo a optimização das rotas dos técnicos de serviço após venda da Schmitt+Sohn Elevadores, associadas à realização das manutenções preventivas a cada elemento contratado à empresa (elevadores, escadas rolantes, etc). Como tal, é necessário fazer uma distribuição dos equipamentos que se encontram em carteira, por um dos técnicos que assegura a manutenção, pelos vários dias úteis de cada mês, e pelas horas de trabalho de cada dia. Apesar do técnico ter disponíveis, por dia, 8h de trabalho, apenas 6h podem ser preenchidas com manutenções preventivas. As 2h restantes são essencialmente para possíveis manutenções correctivas para as quais o técnico seja solicitado. Caso o técnico não seja contactado para resolver nenhuma avaria, essas horas podem ser utilizadas pelo mesmo para adiantar trabalho do dia seguinte, isto é, visitar já alguns dos próximos pontos de manutenção preventiva do dia seguinte, ou para compensar trabalho que esteja atrasado. De salientar que, para cada dia, as deslocações do técnico de qualquer local ao primeiro ponto de uma rota ou de regresso do último ponto de uma rota não são contabilizadas. O trabalho desenvolvido nesta dissertação pretende dar resposta ao problema apresentado pela Schmitt+Sohn Elevadores. Para isso foi desenvolvida uma heurística para a optimização das rotas dos técnicos. Esta é baseada no conceito de “vizinho mais próximo” que procura sempre o ponto que se apresenta mais perto do último ponto que foi adicionado à rota. Com base nesta metodologia, nos processos de escolha dos pontos que formam clusters, e na selecção dos pontos iniciais de cada uma das rotas diárias, a ferramenta de optimização resultante define as rotas diárias para que o percurso efectuado por cada técnico num mês seja o menor possível. São feitas alterações às rotas definidas inicialmente quando encontrados pontos de uma mesma entrada a serem visitados em dias diferentes. Isto obrigaria o técnico a fazer duas viagens ao mesmo local. Por fim, o resultado é apresentado num documento Word a ser utilizado pelo técnico como guia diário das suas deslocações aos equipamentos que necessitam de verificações periódicas. Os resultados obtidos foram comparados com as rotas que estavam a ser usadas pela empresa, tendo apresentado resultados de melhor qualidade, constatando-se a eficiência da solução criada pelo algoritmo proposto neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como principal objetivo a criação de uma interface humana, baseada na eletromiografia dos músculos orbicular do olho e frontalis. O algoritmo de programação do microcontrolador ATmega2560 deteta o piscar de olhos voluntário, conta o número de vezes que este acontece e verifica se preenche os requisitos necessários à execução de um comando. Para este efeito foram utilizados elétrodos para a captação do sinal eletromiográfico. O sinal analógico é condicionado pela Shield ECG/EMG da Olimex sendo enviado para o arduíno ATmega2560. Este microcontrolador administra todos os atuadores, dos quais o mais importante é um painel de comandos (quatro comandos diferentes), no qual existe um ponteiro motorizado que indica qual a ação a realizar. O código de execução é extremamente simples:  se o utilizador piscar os olhos três vezes, o ponteiro movimenta-se para a secção do painel imediatamente à direita; e  se o utilizador piscar os olhos quatro vezes, o ponteiro movimenta-se para a secção do painel imediatamente à esquerda. Os testes realizados com este dispositivo indicam que os utilizadores demoram menos de 10 minutos a aprender a utilizar e executar todos os comandos do painel. Apenas num dos testes realizados o dispositivo não funcionou. Dos utilizadores que realizaram o teste:  vários usam óculos;  um idoso com graves problemas auditivos, cegueira parcial e dificuldades locomotoras;  nenhum foi incapaz de piscar, pelo menos, um dos olhos voluntariamente; e  a maioria referiu que, com alguma concentração e principalmente se ouvirem o bip sonoro, a aprendizagem de utilização torna-se muito fácil. Apesar dos limites impostos à concretização de um projeto deste tipo (dos quais se evidenciam as dificuldades em conseguir voluntários com paralisia medular, bem como os limites orçamentais), pode-se afirmar que este dispositivo é eficaz e seria uma mais valia quando implementado num cenário de paralisia medular (total ou parcial). A melhoria de qualidade de vida de um utilizador com estes problemas físicos, ou outros que lhe comprometam a locomoção é garantida. O cenário em que vivem é tremendamente limitado sendo urgente criar soluções para tornar estas vidas mais cómodas. Com os devidos aplicativos, o utilizador poderia abrir portas ou janelas, acender ou apagar luzes, pedir ajuda, ajustar a posição da cama, controlar cadeiras de rodas, entre outros. É neste sentido que surge a minha motivação de criar algo que ajude estas pessoas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O empreendedorismo social é um campo que tem vindo a ganhar uma importância crescente nas sociedades atuais, sendo reconhecido como uma ferramenta útil na promoção do desenvolvimento sustentável. Como se trata de um campo emergente, apresenta-se ainda pouco explorado. Em Cabo Verde não existem ainda estudos sobre o tema, embora existam já algumas iniciativas de empreendedorismo social. A investigação foi desenvolvida de forma a responder ao objetivo de se conhecer qual o contributo que as Organizações Não Governamentais para o Desenvolvimento (ONGD) portuguesas têm dado para a sedimentação do empreendedorismo social em Cabo Verde. Assim, procurou-se apurar e analisar as ONGD que desenvolvem projetos em Cabo Verde, as áreas em que estas atuam para promoverem o desenvolvimento economico-social, os meios de financiamentos a que recorrem, as dificuldades encontradas no desenvolvimento das suas atividades, bem como compreender a razão que levou a que Cabo Verde fosse beneficiado com as ações dessas ONGD. Para conseguir atingir estas metas recorreu-se à metodologia qualitativa onde se fez uma análise exploratória e descritiva. A técnica utilizada para a recolha da informação primária foi a entrevista dirigida aos responsáveis de seis ONGD portuguesas que atuam em Cabo Verde, nomeadamente a Associação para a Cooperação Entre os Povos, a Associação de Defesa do Património de Mértola, Instituto Marquês de Valle Flôr, Meninos do Mundo, Terras Dentro e a Associação Raia Histórica. Os resultados deste estudo permitiram identificar que as ONGD portuguesas agem impulsionando o empreendedorismo social em Cabo Verde através da promoção do desenvolvimento integrado e sustentável, apoiado em parcerias estabelecidas com outras organizações locais caboverdeanas. Estes parceiros são atores chave que estão no terreno e possuem o conhecimento da realidade do país. Cabo Verde foi beneficiado pelos projetos por pertencer aos Países Africanos de Língua Oficial Portuguesa e/ou à Comunidade dos Países de Língua Portuguesa. Na obtenção de recursos, a maioria das ONGD portuguesas recorre a recursos em espécie e a voluntários portugueses, desempenhando estes o papel de formadores. A geração de valor social por parte destas entidades é feita muitas vezes de uma forma indireta, através da criação de valor económico que depois se repercute em valor social. Este valor social resulta da sua atuação em várias áreas como a saúde e segurança alimentar, desenvolvimento rural, meio ambiente, educação e formação profissional, emprego, economia alternativa ou microcrédito, pobreza e exclusão social, ambiente, habitação, promoção social e do turismo, capacitação e reforço institucional e coerência das políticas públicas para o desenvolvimento. Sendo Cabo Verde um arquipélago, as principais dificuldades encontradas pelas ONGD na sua atuação prende-se com a acessibilidade às ilhas devido à falta de transportes e meios de comunicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A matemática é um edifício intelectual complexo, subtil, construído ao longo dos séculos sobre diversos princípios e regras lógicas. O tão “básico” algoritmo da multiplicação que “mecanicamente” utilizamos é o resultado de uma evolução histórica. Ao longo dos tempos, diferentes povos, em diferentes lugares, desenvolveram variadas técnicas para multiplicar e aqui serão recordadas algumas. Desde o processo de duplicações sucessivas dos egípcios da Antiguidade, e de algumas variações a este, ao processo de multiplicação utilizando as mãos, dos camponeses franceses, passando pelo método da gelosia utilizado pelos árabes que, provavelmente, o aprenderam com os hindus, vários serão os métodos analisados à luz dos conhecimentos actuais. Para terminar, não poderá deixar de se abordar o algoritmo usual da multiplicação, frequentemente "ensinado” como se de uma “receita” se tratasse, justificando todos os seus “porquês”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a crescente preocupação em dinamizar as exportações e potenciar os seus efeitos na economia, muitos trabalhos têm tentado encontrar fatores potenciadores do sucesso das empresas no mercado internacional (dimensão, produtividade pré exportadora, idade, fase do ciclo de produção, relacionamento prévio com o exterior, etc.). Temas como a seleção natural do mercado e a aprendizagem pela exportação, são transversais e incontornáveis nos trabalhos empíricos que abordam o estudo das exportações ao nível das empresas. No entanto, não nos devemos esquecer que uma das principais motivações das empresas, é a maximização do lucro. Com efeito, uma nova onda de trabalhos tem-se voltado para a o impacto que as exportações têm sobre a rentabilidade das empresas. Utilizando um modelo de efeitos fixos com dados em painel, aplicado a uma base de dados de empresas portuguesas, com espetro temporal entre 2008 e 2012, este trabalho encontra evidências e que as exportações são um fraco potenciador da rentabilidade das empresas. Do ponto de vista da organização do presente trabalho, no primeiro capítulo será apresentada uma breve revisão de literatura enquadradora do tema; no segundo capítulo será apresentada a base de dados, tratamento e a abordagem econométrica; por último será apresentada uma conclusão, com os resultados principais do trabalho e com algumas questões que poderão ser abordadas no futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara de vídeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara de vídeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O escalonamento é uma das decisões mais importantes no funcionamento de uma linha de produção. No âmbito desta dissertação foi realizada uma descrição do problema do escalonamento, identificando alguns métodos para a optimização dos problemas de escalonamento. Foi realizado um estudo ao caso do problema de máquina única através do teste de várias instâncias com o objectivo de minimizar o atraso pesado, aplicando uma Meta-Heurística baseada na Pesquisa Local e dois algoritmos baseados no SB. Os resultados obtidos reflectem que os algoritmos baseados no SB apresentaram resultados mais próximos do óptimo, em relação ao algoritmo baseado na PL. Os resultados obtidos permitem sustentar a hipótese de não existirem algoritmos específicos para os problemas de escalonamento. A melhor forma de encontrar uma solução de boa qualidade em tempo útil é experimentar diferentes algoritmos e comparar o desempenho das soluções obtidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As Redes Sem Fios Enterradas (Wireless Underground Networks - WUN) são formadas por nós que comunicam entre si através de ligações sem fios e têm como meio de propagação o solo. Os sistemas de localização mais utilizados atualmente têm desvantagens ao nível da precisão e o custo. Nesta tese é proposta uma solução de localização de precisão que recorre à utilização de redes sem fios enterradas e um algoritmo de posicionamento baseados em Wi-Fi. O objetivo é estimar a localização de objetos, utilizando dispositivos Wi-Fi de baixo custo. Os resultados experimentais obtidos demonstram que o erro de localização é inferior a 0,40 m, e que esta solução é viável para, por exemplo, localizar jogadores num campo de futebol ou localizar um objeto num campo agrícola.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.