887 resultados para Algoritmo Boosting
Resumo:
Os problemas de visibilidade têm diversas aplicações a situações reais. Entre os mais conhecidos, e exaustivamente estudados, estão os que envolvem os conceitos de vigilância e ocultação em estruturas geométricas (problemas de vigilância e ocultação). Neste trabalho são estudados problemas de visibilidade em estruturas geométricas conhecidas como polígonos, uma vez que estes podem representar, de forma apropriada, muitos dos objectos reais e são de fácil manipulação computacional. O objectivo dos problemas de vigilância é a determinação do número mínimo de posições para a colocação de dispositivos num dado polígono, de modo a que estes dispositivos consigam “ver” a totalidade do polígono. Por outro lado, o objectivo dos problemas de ocultação é a determinação do número máximo de posições num dado polígono, de modo a que quaisquer duas posições não se consigam “ver”. Infelizmente, a maior parte dos problemas de visibilidade em polígonos são NP-difíceis, o que dá origem a duas linhas de investigação: o desenvolvimento de algoritmos que estabelecem soluções aproximadas e a determinação de soluções exactas para classes especiais de polígonos. Atendendo a estas duas linhas de investigação, o trabalho é dividido em duas partes. Na primeira parte são propostos algoritmos aproximados, baseados essencialmente em metaheurísticas e metaheurísticas híbridas, para resolver alguns problemas de visibilidade, tanto em polígonos arbitrários como ortogonais. Os problemas estudados são os seguintes: “Maximum Hidden Vertex Set problem”, “Minimum Vertex Guard Set problem”, “Minimum Vertex Floodlight Set problem” e “Minimum Vertex k-Modem Set problem”. São também desenvolvidos métodos que permitem determinar a razão de aproximação dos algoritmos propostos. Para cada problema são implementados os algoritmos apresentados e é realizado um estudo estatístico para estabelecer qual o algoritmo que obtém as melhores soluções num tempo razoável. Este estudo permite concluir que as metaheurísticas híbridas são, em geral, as melhores estratégias para resolver os problemas de visibilidade estudados. Na segunda parte desta dissertação são abordados os problemas “Minimum Vertex Guard Set”, “Maximum Hidden Set” e “Maximum Hidden Vertex Set”, onde são identificadas e estudadas algumas classes de polígonos para as quais são determinadas soluções exactas e/ou limites combinatórios.
Resumo:
Este trabalho focou-se no estudo de técnicas de sub-espaço tendo em vista as aplicações seguintes: eliminação de ruído em séries temporais e extracção de características para problemas de classificação supervisionada. Foram estudadas as vertentes lineares e não-lineares das referidas técnicas tendo como ponto de partida os algoritmos SSA e KPCA. No trabalho apresentam-se propostas para optimizar os algoritmos, bem como uma descrição dos mesmos numa abordagem diferente daquela que é feita na literatura. Em qualquer das vertentes, linear ou não-linear, os métodos são apresentados utilizando uma formulação algébrica consistente. O modelo de subespaço é obtido calculando a decomposição em valores e vectores próprios das matrizes de kernel ou de correlação/covariância calculadas com um conjunto de dados multidimensional. A complexidade das técnicas não lineares de subespaço é discutida, nomeadamente, o problema da pre-imagem e a decomposição em valores e vectores próprios de matrizes de dimensão elevada. Diferentes algoritmos de préimagem são apresentados bem como propostas alternativas para a sua optimização. A decomposição em vectores próprios da matriz de kernel baseada em aproximações low-rank da matriz conduz a um algoritmo mais eficiente- o Greedy KPCA. Os algoritmos são aplicados a sinais artificiais de modo a estudar a influência dos vários parâmetros na sua performance. Para além disso, a exploração destas técnicas é extendida à eliminação de artefactos em séries temporais biomédicas univariáveis, nomeadamente, sinais EEG.
Resumo:
Este trabalho apresenta um estudo sobre o dimensionamento de redes ópticas, com vistas a obter um modelo de dimensionamento para redes de transporte sobreviventes. No estudo utilizou-se uma abordagem estatística em detrimento à determinística. Inicialmente, apresentam-se as principais tecnologias e diferentes arquitecturas utilizadas nas redes ópticas de transporte. Bem como os principais esquemas de sobrevivência e modos de transporte. São identificadas variáveis necessárias e apresenta-se um modelo dimensionamento para redes de transporte, tendo-se dado ênfase às redes com topologia em malha e considerando os modos de transporte opaco, transparente e translúcido. É feita uma análise rigorosa das características das topologias de redes de transporte reais, e desenvolve-se um gerador de topologias de redes de transporte, para testar a validade dos modelos desenvolvidos. Também é implementado um algoritmo genético para a obtenção de uma topologia optimizada para um dado tráfego. São propostas expressões para o cálculo de variáveis não determinísticas, nomeadamente, para o número médio de saltos de um pedido, coeficiente de protecção e coeficiente de restauro. Para as duas últimas, também é analisado o impacto do modelo de tráfego. Verifica-se que os resultados obtidos pelas expressões propostas são similares às obtidas por cálculo numérico, e que o modelo de tráfego não influencia significativamente os valores obtidos para os coeficientes. Finalmente, é demonstrado que o modelo proposto é útil para o dimensionamento e cálculo dos custos de capital de redes com informação incompleta.
Resumo:
Consideramos o problema de controlo óptimo de tempo mínimo para sistemas de controlo mono-entrada e controlo afim num espaço de dimensão finita com condições inicial e final fixas, onde o controlo escalar toma valores num intervalo fechado. Quando aplicamos o método de tiro a este problema, vários obstáculos podem surgir uma vez que a função de tiro não é diferenciável quando o controlo é bang-bang. No caso bang-bang os tempos conjugados são teoricamente bem definidos para este tipo de sistemas de controlo, contudo os algoritmos computacionais directos disponíveis são de difícil aplicação. Por outro lado, no caso suave o conceito teórico e prático de tempos conjugados é bem conhecido, e ferramentas computacionais eficazes estão disponíveis. Propomos um procedimento de regularização para o qual as soluções do problema de tempo mínimo correspondente dependem de um parâmetro real positivo suficientemente pequeno e são definidas por funções suaves em relação à variável tempo, facilitando a aplicação do método de tiro simples. Provamos, sob hipóteses convenientes, a convergência forte das soluções do problema regularizado para a solução do problema inicial, quando o parâmetro real tende para zero. A determinação de tempos conjugados das trajectórias localmente óptimas do problema regularizado enquadra-se na teoria suave conhecida. Provamos, sob hipóteses adequadas, a convergência do primeiro tempo conjugado do problema regularizado para o primeiro tempo conjugado do problema inicial bang-bang, quando o parâmetro real tende para zero. Consequentemente, obtemos um algoritmo eficiente para a computação de tempos conjugados no caso bang-bang.
Resumo:
O presente trabalho propõe-se a divulgar as mais significativas técnicas de esquemas cooperativos, de forma a ultrapassar alguns dos problemas dos sistemas móveis sem fios da próxima geração, estendendo a área de cobertura destes sistemas, assim como a sua capacidade e fiabilidade. O estudo de diversos esquemas cooperativos é efetuado em termos de capacidade e de taxa de erros, fazendo variar o número de relays e de antenas em cada elemento do sistema. Diversos algoritmos com aplicação em sistemas cooperativos são desenvolvidos e propostos ao longo desta tese, como códigos espaço-frequência aplicados de forma distribuída nos relays, para sistemas baseados na tecnologia OFDM e sob diversos cenários próximos da realidade. Os sistemas cooperativos são particularmente úteis em situações em que o caminho direto entre dois terminais não está acessível ou tem uma fraca qualidade de transmissão. Tendo este aspeto em consideração, e pretendendo ter a máxima eficiência espetral e máxima diversidade, um algoritmo com precodificação é também proposto para múltiplos relays, cada um equipado com uma ou duas antenas. A formulação matemática associada aos algoritmos propostos é apresentada, assim como a derivação da probabilidade de erro teórica. O desempenho dos sistemas assistidos por relays usando os algoritmos propostos é comparado em relação a outros esquemas cooperativos equivalentes e a esquemas não-cooperativos, considerando cenários com diferentes qualidades de canal, daí advindo importantes conclusões em relação a estes sistemas.
Resumo:
O presente trabalho centra-se no estudo dos amplificadores de Raman em fibra ótica e suas aplicações em sistemas modernos de comunicações óticas. Abordaram-se tópicos específicos como a simulação espacial do amplificador de Raman, a equalização e alargamento do ganho, o uso de abordagens híbridas de amplificação através da associação de amplificadores de Raman em fibra ótica com amplificadores de fibra dopada com Érbio (EDFA) e os efeitos transitórios no ganho dos amplificadores. As actividades realizadas basearam-se em modelos teóricos, sendo os resultados validados experimentalmente. De entre as contribuições mais importantes desta tese, destaca-se (i) o desenvolvimento de um simulador eficiente para amplificadores de Raman que suporta arquitecturas de bombeamento contraprogantes e bidirecionais num contexto com multiplexagem no comprimento de onda (WDM); (ii) a implementação de um algoritmo de alocação de sinais de bombeamento usando a combinação do algoritmo genético com o método de Nelder- Mead; (iii) a apreciação de soluções de amplificação híbridas por associação dos amplificadores de Raman com EDFA em cenários de redes óticas passivas, nomeadamente WDM/TDM-PON com extensão a região espectral C+L; e (iv) a avaliação e caracterização de fenómenos transitórios em amplificadores para tráfego em rajadas/pacotes óticos e consequente desenvolvimento de soluções de mitigação baseadas em técnicas de clamping ótico.
Resumo:
Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.
Resumo:
O cancro da mama feminino pela sua magnitude merece uma especial atenção ao nível das políticas de saúde. Emerge, pois uma visão abrangente que, por um lado, deve atentar para o encargo que esta representa para qualquer sistema de saúde, pelos custos que acarreta, como também, para a qualidade de vida das mulheres portadoras da mesma. Desta forma, a Liga Portuguesa Contra o Cancro (LPCC) tem desenvolvido, em colaboração com as Administrações Regionais de Saúde (ARS), o Programa de Rastreio do Cancro da Mama (PRCM), o qual apresenta, no Concelho de Aveiro, taxas de adesão na ordem dos 50%, ainda distantes dos 70%, objetivo recomendado pelas guidelines da Comissão Europeia. A não adesão tem sido considerada como um dos principais problemas do sistema de saúde, tanto pelas repercussões ao nível de ganhos em saúde, como também na qualidade de vida e na satisfação dos pacientes com os cuidados de saúde, constituindo-se como um fenómeno multifatorial e multidimensional. É neste sentido que o presente trabalho se propõe identificar os fatores, de cariz individual e do meio envolvente, determinantes da adesão ao PRCM, numa amostra de mulheres residentes no Concelho de Aveiro, com idades compreendidas entre os 45 e os 69 anos e, a partir dos resultados emergentes, propor estratégias de educação em saúde. Como procedimentos metodológicos e, numa primeira fase, entre outubro 2009 e maio 2010 foi aplicado um survey, o qual foi complementado com notas de campo dos entrevistadores a uma amostra não aleatória de 805 mulheres, em dois contextos distintos: no centro de saúde às aderentes à mamografia e, no domicílio, às não aderentes. Numa segunda fase, realizamos duas sessões de Focus Group (FG), num total de 12 elementos, um grupo heterogéneo com enfermeiros, médicos e utentes, e um outro grupo homogéneo, apenas com profissionais de saúde. O tratamento dos dados do survey foi efetuado através de procedimentos estatísticos, com utilização do SPSS® versão 17 e realizadas análises bivariadas (qui-quadrado) e multivariadas (discriminação de função e árvore de decisão através do algoritmo Chi-squared Automatic Interaction Detector) com o intuito de determinar as diferenças entre os grupos e predizer as variáveis exógenas. No que diz respeito a indicadores sociodemográficos, os resultados mostram que aderem mais, as mulheres com idades <50 anos e ≥ 56 anos, as que vivem em localidades urbanas, as trabalhadoras não qualificadas e as reformadas. As que aderem menos ao PRCM têm idades compreendidas entre os 50-55 anos, vivem nas zonas periurbanas, são licenciadas, apresentam categoria profissional superior ou estão desempregadas. Em relação às restantes variáveis exógenas, aderem ao PRCM, as mulheres que apresentam um Bom Perfil de Conhecimentos (46.6%), enquanto as não aderentes apresentam um Fraco Perfil de Conhecimentos (50.6%), sendo esta relação estatisticamente significativa (X2= 10.260; p=0.006).Cerca de 59% das mulheres aderentes realiza o seu rastreio de forma concordante com as orientações programáticas presentes no PRCM, comparativamente com 41.1% das mulheres que não o faz, verificando-se uma relação de dependência bastante significativa entre as variáveis Perfil de Comportamentos e adesão(X2= 348.193; p=0.000). Apesar de não existir dependência estatisticamente significativa entre as Motivações e a adesão ao PRCM (X2= 0.199; p=0.656), se analisarmos particularmente, os motivos de adesão, algumas inquiridas demonstram preocupação, tanto na deteção precoce da doença, como na hereditariedade. Por outro lado, os motivos de não adesão, também denotam aspetos de nível pessoal como o desleixo com a saúde, o desconhecimento e o esquecimento da marcação. As mulheres que revelam Boa Acessibilidade aos Cuidados de Saúde Primários e um Bom Atendimento dos Prestadores de Cuidados aderem mais ao PRCM, comparativamente com as inquiridas que relatam Fraca Acessibilidade e Atendimento, não aderindo. A partir dos resultados da análise multivariada podemos inferir que as variáveis exógenas estudadas possuem um poder discriminante significativo, sendo que, o Perfil de Comportamentos é a variável que apresenta maior grau de diferenciação entre os grupos das aderentes e não aderentes. Como variáveis explicativas resultantes da árvore de decisão CHAID, permaneceram, o Perfil de Comportamentos (concordantes e não concordantes com as guidelines), os grupos etários (<50 anos, 50-55anos e ≥56anos) e o Atendimento dos prestadores de cuidados de saúde. As mulheres mais novas (<50 anos) com Perfil de comportamentos «concordantes» com as guidelines são as que aderem mais, comparativamente com os outros grupos etários. Por outro lado, as não aderentes necessitam de um «bom» atendimento dos prestadores de cuidados para se tornarem aderentes ao PRCM. Tanto as notas de campo, como a discussão dos FG foram sujeitas a análise de conteúdo segundo as categorias em estudo obtidas na primeira fase e os relatos mostram a importância de fatores de ordem individual e do meio envolvente. No que se refere a aspetos psicossociais, destaca-se a importância das crenças e como fatores ambientais menos facilitadores para a adesão apontam a falta de transportes, a falta de tempo das pessoas e a oferta de recursos, principalmente se existirem radiologistas privados como alternativa ao PRCM. Tal como na primeira fase do estudo, uma das motivações para a adesão é a recomendação dos profissionais de saúde para o PRCM, bem como a marcação de consultas pela enfermeira, que pode ser uma oportunidade de contacto para a sensibilização. Os hábitos de vigilância de saúde, a perceção positiva acerca dos programas de saúde no geral, o acesso à informação pertinente sobre o PRCM e a operacionalização deste no terreno parecem ser fatores determinantes segundo a opinião dos elementos dos FG. O tipo e a regularidade no atendimento por parte dos profissionais de saúde, a relação entre profissional de saúde/paciente, a personalização das intervenções educativas, a divulgação que estes fazem do PRCM junto das suas pacientes, bem como, a organização do modelos de cuidados de saúde das unidades de saúde e a forma como os profissionais se envolvem e tomam a responsabilização por um programa desta natureza são fatores condicionantes da adesão. Se atendermos aos resultados deste estudo, verificamos um envolvimento de fatores que integram múltiplos níveis de intervenção, sendo um desafio para as equipas de saúde que pretendam intervir no âmbito do programa de rastreio do cancro da mama. Com efeito, os resultados também apontam para a combinação de múltiplas estratégias que são transversais a vários programas de promoção da saúde, assumindo, desta forma, uma perspetiva multidimensional e dinâmica que visa, essencialmente, a construção social da saúde e do bem-estar (i.e. responsabilização do cidadão pela sua própria saúde e o seu empowerment).
Resumo:
O Turismo apresenta-se, hoje, como uma área com imensas possibilidades de expansão na região de Viseu e mais ainda no que respeita ao termalismo, quer com a continuidade da qualidade do termalismo clássico quer com a consolidação do segmento de Saúde e Bem-estar. A comunicação, numa empresa, é muito importante, mas torna-se primordial que seja eficaz, e nisto, o recurso a línguas estrangeiras é fundamental, de modo a potenciar a competitividade internacional das empresas Portuguesas. De modo a respondermos à questão central deste estudo - o que é que as termas de Viseu estão a fazer de modo a comunicar eficazmente as suas valências aos diferentes públicos e qual a importância de iniciarem um esforço maior bem como de criarem instrumentos de comunicação mais eficazes e adequadas às aspirações de desenvolvimento económico e social – recorremos ao levantamento e à análise das fontes de informação utilizadas em termalismo, na região de Viseu, e da aplicação de questionários aos intervenientes no processo termal. Tendo em mente a questão fulcral desenvolveu-se um estudo composto por quatro capítulos, tendo um prévio, onde é apresentado o estudo. O primeiro é reservado ao enquadramento teórico, onde se cruzam as perspetivas de Linguística Sistémica Funcional, Turismo em Portugal e Comunicação de Informação. O segundo apresenta a metodologia de investigação adotada, o terceiro expõe a análise dos dados recolhidos, nos Sítios Web das estâncias termais Viseenses, nas brochuras, através dos questionários aplicados às rececionistas, à equipa médica, aos administradores das termas, aos presidentes das câmaras, aos aquistas e aos gabinetes de promoção termal. O terceiro capítulo termina com um diálogo de esclarecimento final efetuado aos presidentes camarários e aos administradores termais. No quarto e último capítulo são expostas as principais conclusões do estudo e é evidenciada a importância que as línguas estrangeiras têm na comunicação internacional dos produtos e serviços termais, bem como a necessidade do recurso a uma comunicação eficaz de modo a que as termas possam alcançar resultados mais proveitosos.
Resumo:
O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.
Resumo:
O tema principal desta tese é o problema de cancelamento de interferência para sistemas multi-utilizador, com antenas distribuídas. Como tal, ao iniciar, uma visão geral das principais propriedades de um sistema de antenas distribuídas é apresentada. Esta descrição inclui o estudo analítico do impacto da ligação, dos utilizadores do sistema, a mais antenas distribuídas. Durante essa análise é demonstrado que a propriedade mais importante do sistema para obtenção do ganho máximo, através da ligação de mais antenas de transmissão, é a simetria espacial e que os utilizadores nas fronteiras das células são os mais bene ciados. Tais resultados são comprovados através de simulação. O problema de cancelamento de interferência multi-utilizador é considerado tanto para o caso unidimensional (i.e. sem codi cação) como para o multidimensional (i.e. com codi cação). Para o caso unidimensional um algoritmo de pré-codi cação não-linear é proposto e avaliado, tendo como objectivo a minimização da taxa de erro de bit. Tanto o caso de portadora única como o de multipla-portadora são abordados, bem como o cenário de antenas colocadas e distribuidas. É demonstrado que o esquema proposto pode ser visto como uma extensão do bem conhecido esquema de zeros forçados, cuja desempenho é provado ser um limite inferior para o esquema generalizado. O algoritmo é avaliado, para diferentes cenários, através de simulação, a qual indica desempenho perto do óptimo, com baixa complexidade. Para o caso multi-dimensional um esquema para efectuar "dirty paper coding" binário, tendo como base códigos de dupla camada é proposto. No desenvolvimento deste esquema, a compressão com perdas de informação, é considerada como um subproblema. Resultados de simulação indicam transmissão dedigna proxima do limite de Shannon.
Resumo:
Anualmente ocorrem cerca de 16 milhões AVCs em todo o mundo. Cerca de metade dos sobreviventes irá apresentar défice motor que necessitará de reabilitação na janela dos 3 aos 6 meses depois do AVC. Nos países desenvolvidos, é estimado que os custos com AVCs representem cerca de 0.27% do Produto Interno Bruto de cada País. Esta situação implica um enorme peso social e financeiro. Paradoxalmente a esta situação, é aceite na comunidade médica a necessidade de serviços de reabilitação motora mais intensivos e centrados no doente. Na revisão do estado da arte, demonstra-se o arquétipo que relaciona metodologias terapêuticas mais intensivas com uma mais proficiente reabilitação motora do doente. Revelam-se também as falhas nas soluções tecnológicas existentes que apresentam uma elevada complexidade e custo associado de aquisição e manutenção. Desta forma, a pergunta que suporta o trabalho de doutoramento seguido inquire a possibilidade de criar um novo dispositivo de simples utilização e de baixo custo, capaz de apoiar uma recuperação motora mais eficiente de um doente após AVC, aliando intensidade com determinação da correcção dos movimentos realizados relativamente aos prescritos. Propondo o uso do estímulo vibratório como uma ferramenta proprioceptiva de intervenção terapêutica a usar no novo dispositivo, demonstra-se a tolerabilidade a este tipo de estímulos através do teste duma primeira versão do sistema apenas com a componente de estimulação num primeiro grupo de 5 doentes. Esta fase validará o subsequente desenvolvimento do sistema SWORD. Projectando o sistema SWORD como uma ferramenta complementar que integra as componentes de avaliação motora e intervenção proprioceptiva por estimulação, é descrito o desenvolvimento da componente de quantificação de movimento que o integra. São apresentadas as diversas soluções estudadas e o algoritmo que representa a implementação final baseada na fusão sensorial das medidas provenientes de três sensores: acelerómetro, giroscópio e magnetómetro. O teste ao sistema SWORD, quando comparado com o método de reabilitação tradicional, mostrou um ganho considerável de intensidade e qualidade na execução motora para 4 dos 5 doentes testados num segundo grupo experimental. É mostrada a versatilidade do sistema SWORD através do desenvolvimento do módulo de Tele-Reabilitação que complementa a componente de quantificação de movimento com uma interface gráfica de feedback e uma ferramenta de análise remota da evolução motora do doente. Finalmente, a partir da componente de quantificação de movimento, foi ainda desenvolvida uma versão para avaliação motora automatizada, implementada a partir da escala WMFT, que visa retirar o factor subjectivo da avaliação humana presente nas escalas de avaliação motora usadas em Neurologia. Esta versão do sistema foi testada num terceiro grupo experimental de cinco doentes.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
Esta tese apresenta um sistema de localização baseado exclusivamente em ultrassons, não necessitando de recorrer a qualquer outra tecnologia. Este sistema de localização foi concebido para poder operar em ambientes onde qualquer outra tecnologia não pode ser utilizada ou o seu uso está condicionado, como são exemplo aplicações subaquáticas ou ambientes hospitalares. O sistema de localização proposto faz uso de uma rede de faróis fixos permitindo que estações móveis se localizem. Devido à necessidade de transmissão de dados e medição de distâncias foi desenvolvido um pulso de ultrassons robusto a ecos que permite realizar ambas as tarefas com sucesso. O sistema de localização permite que as estações móveis se localizem escutando apenas a informação em pulsos de ultrassons enviados pelos faróis usando para tal um algoritmo baseado em diferenças de tempo de chegada. Desta forma a privacidade dos utilizadores é garantida e o sistema torna-se completamente independente do número de utilizadores. Por forma a facilitar a implementação da rede de faróis apenas será necessário determinar manualmente a posição de alguns dos faróis, designados por faróis âncora. Estes irão permitir que os restantes faróis, completamente autónomos, se possam localizar através de um algoritmo iterativo de localização baseado na minimização de uma função de custo. Para que este sistema possa funcionar como previsto será necessário que os faróis possam sincronizar os seus relógios e medir a distância entre eles. Para tal, esta tese propõe um protocolo de sincronização de relógio que permite também obter as medidas de distância entre os faróis trocando somente três mensagens de ultrassons. Adicionalmente, o sistema de localização permite que faróis danificados possam ser substituídos sem comprometer a operabilidade da rede reduzindo a complexidade na manutenção. Para além do mencionado, foi igualmente implementado um simulador de ultrassons para ambientes fechados, o qual provou ser bastante preciso e uma ferramenta de elevado valor para simular o comportamento do sistema de localização sobre condições controladas.