999 resultados para módulo proporcional de deformidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de projeto para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analisar os fatores relacionados à determinação e às desigualdades no acesso e uso dos serviços de saúde por idosos. MÉTODOS: Estudo integrante do Projeto Saúde, Bem-estar e Envelhecimento (SABE), no qual foram entrevistados 2.143 indivíduos com 60 anos ou mais no município de São Paulo, SP, em 2000. A amostra foi obtida em dois estágios, utilizando-se setores censitários com reposição, probabilidade proporcional à população e complementação da amostra de pessoas de 75 anos. Foi mensurado o uso de serviços hospitalares e ambulatoriais nos quatro meses anteriores à entrevista, relacionando-os com fatores de capacidade, necessidade e predisposição (renda total, escolaridade, seguro saúde, morbidade referida, auto-percepção, sexo e idade). O método estatístico utilizado foi regressão logística multivariada. RESULTADOS: Dos entrevistados, 4,7% referiram ter utilizado a internação hospitalar e 64,4% o atendimento ambulatorial. Dos atendimentos ambulatoriais em serviço público, 24,7% ocorreram em hospital e 24,1% em serviço ambulatorial; dentre os que ocorreram em serviços privados, 14,5% foram em hospital e 33,7% em clínicas. Pela análise multivariada, observou-se associação entre a utilização de serviços e sexo, presença de doenças, auto-percepção de saúde, interação da renda e escolaridade e posse de seguro saúde. A análise isolada com escolaridade apresentou efeito inverso. CONCLUSÕES: Foram observadas desigualdades no uso e acesso aos serviços de saúde e inadequação do modelo de atenção, indicando necessidade de políticas públicas que levem em conta as especificidades dessa população, facilitem o acesso e possam reduzir essas desigualdades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado elaborado no Laboratório Nacional de Engenharia Civil (LNEC) para a obtenção do grau de Mestre em Engenharia Civil pelo Instituto Superior de Engenharia de Lisboa no âmbito do protocolo de cooperação entre o ISEL e o LNEC

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis submitted in the fulfilment of the requirements for the Degree of Master in Electronic and Telecomunications Engineering

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O consumo de energia tem vindo a crescer de uma forma contínua e directamente proporcional ao aumento da população e da industrialização. A maior parte da energia consumida no Mundo é, ainda, proveniente dos combustíveis fósseis. Contudo, a diminuição da reserva e a poluição atmosférica produzida pela sua utilização, estimulam e aumentam a necessidade de fontes alternativas de energia. O biodiesel tem atraído considerável atenção como combustível renovável, biodegradável e não tóxico, e pode contribuir para a resolução do problema energético, reduzindo significativamente a emissão dos gases causadores do aquecimento global. A primeira etapa deste trabalho consistiu na simulação de diferentes alternativas de processos de produção de biodiesel. O método usado para a produção do biodiesel foi a transesterificação entre os óleos vegetais e um álcool, na presença de um catalisador. Entre as matérias-primas figuram os óleos de palma e os óleos alimentares usados que foram objecto de estudo nesta dissertação. Na segunda etapa realizou-se uma análise do ciclo de vida para todas as alternativas em estudo seguida de uma análise económica para as alternativas que apresentassem menores impactos e que fossem mais promissoras do ponto de vista económico. Por fim, procedeu-se à comparação das diferentes alternativas sob o ponto de vista da análise do ciclo de vida e sob o ponto de vista da análise económica. Comprovou-se a viabilidade de todos os processos e o biodiesel obtido apresentou boas especificações. Do ponto de vista da análise do ciclo de vida a melhor alternativa foi o processo de catálise alcalina com pré-tratamento ácido para óleos alimentares usados. O processo que usa como matérias-primas os óleos virgens, o metanol e o hidróxido de sódio apresenta, no entanto, menores custos de investimento. Contudo, o processo de catálise alcalina com pré-tratamento ácido cuja matéria-prima principal são os óleos usados é muito mais rentável e apresenta menores impactes ambientais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento do número de recursos digitais disponíveis dificulta a tarefa de pesquisa dos recursos mais relevantes, no sentido de se obter o que é mais relevante. Assim sendo, um novo tipo de ferramentas, capaz de recomendar os recursos mais apropriados às necessidades do utilizador, torna-se cada vez mais necessário. O objetivo deste trabalho de I&D é o de implementar um módulo de recomendação inteligente para plataformas de e-learning. As recomendações baseiam-se, por um lado, no perfil do utilizador durante o processo de formação e, por outro lado, nos pedidos efetuados pelo utilizador, através de pesquisas [Tavares, Faria e Martins, 2012]. O e-learning 3.0 é um projeto QREN desenvolvido por um conjunto de organizações e tem com objetivo principal implementar uma plataforma de e-learning. Este trabalho encontra-se inserido no projeto e-learning 3.0 e consiste no desenvolvimento de um módulo de recomendação inteligente (MRI). O MRI utiliza diferentes técnicas de recomendação já aplicadas noutros sistemas de recomendação. Estas técnicas são utilizadas para criar um sistema de recomendação híbrido direcionado para a plataforma de e-learning. Para representar a informação relevante, sobre cada utilizador, foi construído um modelo de utilizador. Toda a informação necessária para efetuar a recomendação será representada no modelo do utilizador, sendo este modelo atualizado sempre que necessário. Os dados existentes no modelo de utilizador serão utilizados para personalizar as recomendações produzidas. As recomendações estão divididas em dois tipos, a formal e a não formal. Na recomendação formal o objetivo é fazer sugestões relacionadas a um curso específico. Na recomendação não-formal, o objetivo é fazer sugestões mais abrangentes onde as recomendações não estão associadas a nenhum curso. O sistema proposto é capaz de sugerir recursos de aprendizagem, com base no perfil do utilizador, através da combinação de técnicas de similaridade de palavras, um algoritmo de clustering e técnicas de filtragem [Tavares, Faria e Martins, 2012].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A optimização e a aprendizagem em Sistemas Multi-Agente são consideradas duas áreas promissoras mas relativamente pouco exploradas. A optimização nestes ambientes deve ser capaz de lidar com o dinamismo. Os agentes podem alterar o seu comportamento baseando-se em aprendizagem recente ou em objectivos de optimização. As estratégias de aprendizagem podem melhorar o desempenho do sistema, dotando os agentes da capacidade de aprender, por exemplo, qual a técnica de optimização é mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização é mais adequada em determinado cenário. Nesta dissertação são estudadas algumas técnicas de resolução de problemas de Optimização Combinatória, sobretudo as Meta-heurísticas, e é efectuada uma revisão do estado da arte de Aprendizagem em Sistemas Multi-Agente. É também proposto um módulo de aprendizagem para a resolução de novos problemas de escalonamento, com base em experiência anterior. O módulo de Auto-Optimização desenvolvido, inspirado na Computação Autónoma, permite ao sistema a selecção automática da Meta-heurística a usar no processo de optimização, assim como a respectiva parametrização. Para tal, recorreu-se à utilização de Raciocínio baseado em Casos de modo que o sistema resultante seja capaz de aprender com a experiência adquirida na resolução de problemas similares. Dos resultados obtidos é possível concluir da vantagem da sua utilização e respectiva capacidade de adaptação a novos e eventuais cenários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos tempos foi possível constatar que uma grande parte do tempo dos professores é gasta na componente de avaliação. Por esse facto, há já algumas décadas que a correcção automática de texto livre é alvo de investigação. Sendo a correcção de exercícios efectuada pelo computador permite que o professor dedique o seu tempo em tarefas que melhorem a aprendizagem dos alunos. Para além disso, cada vez mais as novas tecnologias permitem o uso de ferramentas com bastante utilidade no ensino, pois para além de facilitarem a exposição do conhecimento também permitem uma maior retenção da informação. Logo, associar ferramentas de gestão de sala de aula à correcção automática de respostas de texto livre é um desafio bastante interessante. O objectivo desta dissertação foi a realização de um estudo relativamente à área de avaliação assistida por computador em que este trabalho se insere. Inicialmente, foram analisados alguns correctores ortográficos para seleccionar aquele que seria integrado no módulo proposto. De seguida, foram estudadas as técnicas mais relevantes e as ferramentas que mais se enquadram no âmbito deste trabalho. Neste contexto, a ideia foi partir da existência de uma ferramenta de gestão de sala de aula e desenvolver um módulo para a correcção de exercícios. A aplicação UNI_NET-Classroom, que foi a ferramenta para a qual o módulo foi desenvolvido, já continha um componente de gestão de exercícios que apenas efectuava a correcção para as respostas de escolha múltipla. Com este trabalho pretendeu-se acrescentar mais uma funcionalidade a esse componente, cujo intuito é dar apoio ao professor através da correcção de exercícios e sugestão da cotação a atribuir. Por último, foram realizadas várias experiências sobre o módulo desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. A conclusão mais importante foi que as ferramentas de correcção automática são uma mais-valia para os professores e escolas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho pretende-se introduzir os conceitos associados à lógica difusa no controlo de sistemas, neste caso na área da robótica autónoma, onde é feito um enquadramento da utilização de controladores difusos na mesma. Foi desenvolvido de raiz um AGV (Autonomous Guided Vehicle) de modo a se implementar o controlador difuso, e testar o desempenho do mesmo. Uma vez que se pretende de futuro realizar melhorias e/ou evoluções optou-se por um sistema modular em que cada módulo é responsável por uma determinada tarefa. Neste trabalho existem três módulos que são responsáveis pelo controlo de velocidade, pela aquisição dos dados dos sensores e, por último, pelo controlador difuso do sistema. Após a implementação do controlador difuso, procedeu-se a testes para validar o sistema onde foram recolhidos e registados os dados provenientes dos sensores durante o funcionamento normal do robô. Este dados permitiram uma melhor análise do desempenho do robô. Verifica-se que a lógica difusa permite obter uma maior suavidade na transição de decisões, e que com o aumento do número de regras é possível tornar o sistema ainda mais suave. Deste modo, verifica-se que a lógica difusa é uma ferramenta útil e funcional para o controlo de aplicações. Como desvantagem surge a quantidade de dados associados à implementação, tais como, os universos de discurso, as funções de pertença e as regras. Ao se aumentar o número de regras de controlo do sistema existe também um aumento das funções de pertença consideradas para cada variável linguística; este facto leva a um aumento da memória necessária e da complexidade na implementação pela quantidade de dados que têm de ser tratados. A maior dificuldade no projecto de um controlador difuso encontra-se na definição das variáveis linguísticas através dos seus universos de discurso e das suas funções de pertença, pois a definição destes pode não ser a mais adequada ao contexto de controlo e torna-se necessário efectuar testes e, consequentemente, modificações à definição das funções de pertença para melhorar o desempenho do sistema. Todos os aspectos referidos são endereçados no desenvolvimento do AGV e os respectivos resultados são apresentados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estuda-se a geração de trajectórias em tempo real de um robô quadrúpede. As trajectórias podem dividir-se em duas componentes: rítmica e discreta. A componente rítmica das trajectórias é modelada por uma rede de oito osciladores acoplados, com simetria 4 2 Z  Z . Cada oscilador é modelado matematicamente por um sistema de Equações Diferenciais Ordinárias. A referida rede foi proposta por Golubitsky, Stewart, Buono e Collins (1999, 2000), para gerar os passos locomotores de animais quadrúpedes. O trabalho constitui a primeira aplicação desta rede à geração de trajectórias de robôs quadrúpedes. A derivação deste modelo baseia-se na biologia, onde se crê que Geradores Centrais de Padrões de locomoção (CPGs), constituídos por redes neuronais, geram os ritmos associados aos passos locomotores dos animais. O modelo proposto gera soluções periódicas identificadas com os padrões locomotores quadrúpedes, como o andar, o saltar, o galopar, entre outros. A componente discreta das trajectórias dos robôs usa-se para ajustar a parte rítmica das trajectórias. Este tipo de abordagem é útil no controlo da locomoção em terrenos irregulares, em locomoção guiada (por exemplo, mover as pernas enquanto desempenha tarefas discretas para colocar as pernas em localizações específicas) e em percussão. Simulou-se numericamente o modelo de CPG usando o oscilador de Hopf para modelar a parte rítmica do movimento e um modelo inspirado no modelo VITE para modelar a parte discreta do movimento. Variou-se o parâmetro g e mediram-se a amplitude e a frequência das soluções periódicas identificadas com o passo locomotor quadrúpede Trot, para variação deste parâmetro. A parte discreta foi inserida na parte rítmica de duas formas distintas: (a) como um offset, (b) somada às equações que geram a parte rítmica. Os resultados obtidos para o caso (a), revelam que a amplitude e a frequência se mantêm constantes em função de g. Os resultados obtidos para o caso (b) revelam que a amplitude e a frequência aumentam até um determinado valor de g e depois diminuem à medida que o g aumenta, numa curva quase sinusoidal. A variação da amplitude das soluções periódicas traduz-se numa variação directamente proporcional na extensão do movimento do robô. A velocidade da locomoção do robô varia com a frequência das soluções periódicas, que são identificadas com passos locomotores quadrúpedes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A geração de trajectórias de robôs em tempo real é uma tarefa muito complexa, não existindo ainda um algoritmo que a permita resolver de forma eficaz. De facto, há controladores eficientes para trajectórias previamente definidas, todavia, a adaptação a variações imprevisíveis, como sendo terrenos irregulares ou obstáculos, constitui ainda um problema em aberto na geração de trajectórias em tempo real de robôs. Neste trabalho apresentam-se modelos de geradores centrais de padrões de locomoção (CPGs), inspirados na biologia, que geram os ritmos locomotores num robô quadrúpede. Os CPGs são modelados matematicamente por sistemas acoplados de células (ou neurónios), sendo a dinâmica de cada célula dada por um sistema de equações diferenciais ordinárias não lineares. Assume-se que as trajectórias dos robôs são constituídas por esta parte rítmica e por uma parte discreta. A parte discreta pode ser embebida na parte rítmica, (a.1) como um offset ou (a.2) adicionada às expressões rítmicas, ou (b) pode ser calculada independentemente e adicionada exactamente antes do envio dos sinais para as articulações do robô. A parte discreta permite inserir no passo locomotor uma perturbação, que poderá estar associada à locomoção em terrenos irregulares ou à existência de obstáculos na trajectória do robô. Para se proceder á análise do sistema com parte discreta, será variado o parâmetro g. O parâmetro g, presente nas equações da parte discreta, representa o offset do sinal após a inclusão da parte discreta. Revê-se a teoria de bifurcação e simetria que permite a classificação das soluções periódicas produzidas pelos modelos de CPGs com passos locomotores quadrúpedes. Nas simulações numéricas, usam-se as equações de Morris-Lecar e o oscilador de Hopf como modelos da dinâmica interna de cada célula para a parte rítmica. A parte discreta é modelada por um sistema inspirado no modelo VITE. Medem-se a amplitude e a frequência de dois passos locomotores para variação do parâmetro g, no intervalo [-5;5]. Consideram-se duas formas distintas de incluir a parte discreta na parte rítmica: (a) como um (a.1) offset ou (a.2) somada nas expressões que modelam a parte rítmica, e (b) somada ao sinal da parte rítmica antes de ser enviado às articulações do robô. No caso (a.1), considerando o oscilador de Hopf como dinâmica interna das células, verifica-se que a amplitude e frequência se mantêm constantes para -5de Hopf, a amplitude e a frequência têm o mesmo comportamento, crescendo e diminuindo nos intervalos de g [-0.5,0.34] e [0.4,1.83], sendo nos restantes valores de g nulas. Isto traduz-se em variações na extensão do movimento e na velocidade do robô, proporcionais à amplitude e à frequência, respectivamente. Ainda com o oscilador Hopf, no caso (b), a frequência mantêm-se constante enquanto a amplitude diminui para g<0.2 e aumenta para g>0.2. A extensão do movimento varia de forma directamente proporcional à amplitude. No caso das equações de Morris-Lecar, quando a componente discreta é embebida (a.2), a amplitude e a frequência aumentam e depois diminuem para - 0.17de diminui para g<0.5 e aumenta para g>0.5 Pode concluir-se que: (1) a melhor forma de inserção da parte discreta que menos perturbação insere no robô é a inserção como offset; (2) a inserção da parte discreta parece ser independente do sistema de equações diferenciais ordinárias que modelam a dinâmica interna de cada célula. Como trabalho futuro, é importante prosseguir o estudo das diferentes formas de inserção da parte discreta na parte rítmica do movimento, para que se possa gerar uma locomoção quadrúpede, robusta, flexível, com objectivos, em terrenos irregulares, modelada por correcções discretas aos padrões rítmicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese descreve o desenvolvimento do hardware e do software de um sistema com a capacidade de reconhecer o número de passos que uma pessoa efectua durante uma actividade física. O sistema consiste num acelerómetro controlado por um microcontrolador, que comunica com um dispositivo móvel através de Bluetooth. De modo a realizar o sistema foi necessário analisar uma vasta bibliografia, para conhecer o estado da arte desta tecnologia, entender o princípio de funcionamento do protocolo Bluetooth e os conceitos biomecânicos por detrás da marcha humana. A proposta deste trabalho apresentava como elemento diferenciador do estado da arte o uso de um acelerómetro em conjunto com sensores de pressão. Com a conjugação destes sensores pretendia-se aumentar a precisão de um equipamento que normalmente não é reconhecido por essa característica. Contudo, a indisponibilidade dos sensores de pressão levou a que o sistema só fosse constituído pelo acelerómetro. Embora, o sistema foi projectado considerando que os sensores de pressão serão incluídos num futuro desenvolvimento. Neste trabalho foram desenvolvidos dois algoritmos para detectar os passos que uma pessoa executa, com pé onde é colocado o sensor, quando caminha ou corre. Num dos testes realizados o algoritmo da “aceleração composta” detectou 84% dos passos, enquanto o algoritmo da “aceleração simples”detectou 99%. A plataforma para a interface gráfica pretendia-se que fosse um telemóvel, contudo não foi possível obter um telemóvel que suporta-se o perfil SPP (Serial Port Profile), necessário para a comunicação com o módulo Bluetooth usado. A solução passou por usar como plataforma um computador portátil com Bluetooth, para o qual foi desenvolvido a aplicação “Pedómetro ISEP” em Visual Basic. O “Pedómetro ISEP” apresenta várias funcionalidades, entre elas destaca-se o cálculo da distância percorrida, da velocidade, e das calorias consumidas, bem como, o registo desses valores em tabelas e da possibilidade de desenhar os gráficos representativos do progresso do utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.