42 resultados para Algoritmos evolutivos

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo investigou a temática da escrita colaborativa a distância, no Ensino Superior, em Inglês Língua Estrangeira. A escrita foi estudada de uma perspectiva processual, valorizando, portanto, o caminho que os alunos percorrem até ao produto final. O ambiente colaborativo reforçou este processo, na medida em que proporcionou, aos alunos, um espaço de discussão e melhoramento das diversas versões do texto. Por outro lado, a componente de ensino a distância de blended learning contribuiu, também, para um processo mais interactivo, mais colaborativo e, ao mesmo tempo, mais distanciado, o que beneficiaria o desenvolvimento da competência de escrita dos alunos e, simultaneamente, dos próprios alunos enquanto indivíduos. A investigação procurou averiguar diversos aspectos relacionados com o tipo de ensino já referido: aspectos evolutivos do processo de escrita na colaboração a distância – nomeadamente, as alterações efectuadas aos textos e seu impacto –; estratégias postas em prática pelos participantes em trabalho de escrita colaborativa a distância em Inglês Língua Estrangeira (ILE); formas de colaboração presentes no trabalho e a influência do ensino a distância no trabalho de escrita colaborativa. Para atingir as metas enumeradas, foi seleccionada uma turma de Língua e Cultura Inglesa II, 2º ano, da licenciatura em Ensino de Português/Inglês, da Universidade de Aveiro, que levou a cabo as diversas tarefas de escrita processual colaborativa, tarefas essas determinadas e realizadas através do webCT da Universidade de Aveiro (com uma página adaptada especialmente para a turma em questão). Todo o trabalho realizado pelos alunos foi ali registado para posterior análise. Tornou-se claro, ao longo da análise dos dados, que o ambiente a distância criou várias dificuldades aos alunos, implicando a criação de estratégias para as resolver. Por outro lado, a colaboração dentro dos grupos revelou-se um evidente benefício quer em termos de tarefas, quer em termos do desenvolvimento, motivação e envolvimento pessoais dos alunos. Também a abordagem processual à escrita trouxe resultados díspares: um dos grupos escrevia habitualmente segundo este modelo, não notando diferenças significativas, enquanto que o outro grupo valorizou o processo como um benefício para a escrita, sobretudo pelas fases de revisão que incluía. Pretendeu-se, com a análise referida e sumariada, conseguir não só investigar a escrita colaborativa a distância mas, também, identificar estratégias válidas para o ensino desta competência, estratégias essas que possam ajudar ao desenvolvimento de um ensino de escrita com mais sucesso e melhores resultados, sobretudo do ponto de vista dos alunos. É urgente um aprofundamento desta área ainda pouco desenvolvida, uma vez que as práticas de escrita se afastam cada vez mais da realidade actual, uma realidade construída em conjunto, por indivíduos que trabalham em ambientes virtuais e reais, sendo, portanto, relevante integrar os alunos nestes contextos, para melhor os preparar para o mundo de hoje. ABSTRACT: The study presented here has investigated collaborative writing at a distance in English as a Foreign Language (EFL), with University students. Students were encouraged to write according to a process model, which valued the stages of writing rather than the final product resulting from it. The collaborative environment strengthened the process, in the sense that it gave students room for discussion and improvement of the different versions of the text. On the other hand, distance learning contributed to a more collaborative and interactive process and, at the same time, more distanced, which benefited the development of the students’ writing skills and of the students as individuals. The investigation aimed to study several aspects of collaborative writing at a distance: the evolution of the writing process in distance collaboration, strategies used by the participants when writing collaboratively at a distance, initial writing competences of the participants and eventual advantages of distance learning for the collaborative revision phase of the writing process. In order to accomplish the proposed goals, we selected a class from those in the second year taking English Language and Culture II, of the English/ Portuguese Teaching “Licenciatura” degree at the University of Aveiro, and a web page was created for them. This page registered all the work done by the students along the project, establishing the data for future analysis. From this class, two groups were selected as case studies, in order to carry out a deeper and more comprehensive study of the process. We intended not only to investigate collaborative writing at a distance but also to identify valid strategies for the teaching of writing. Such strategies might aid the development of a more successful teaching of this competence, with better and more lasting results in students. Further research in this poorly developed area is urgent, as the practices of writing get further apart from the current reality. Nowadays, it is becoming growingly common to work both in real and virtual environments. It is thus relevant to integrate students in both, in order to prepare them for today’s world – our mission as teachers and educators.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década, a referência ao conceito de redes cresceu rapidamente entre a literatura sobre turismo, geralmente aplicado a tópicos como as interorganizações, estrutura de multi-destinos, espaços de Turismo online, entre outros. O conceito de rede difundiu-se na natureza e na sociedade, em áreas que vão desde a Biologia à Medicina, ou da Economia à Gestão, e o conhecimento sobre redes tem vindo a impulsionar uma teoria comum para facilitar a compreensão de diferentes sistemas complexos e a representação das ligações entre organizações, acções, bens, proteínas ou pessoas. A tese teve como propósito o encontro de um eixo comum entre dois campos férteis de investigação através de uma revisão teórica sistemática. A investigação sobre redes complexas é um campo recente na Física que tem vindo a desenvolver-se bastante na última década com fortes aplicações interdisciplinares. Por outro lado, a análise de redes sociais é uma área de investigação activa em Sociologia e Economia há bastante tempo. O estudo das implicações das redes complexas para a ciência das redes de turismo é uma área promissora já com resultados fascinantes. A tese tem três resultados principais. Primeiro, traz conhecimento das ricas áreas de conhecimento sobre redes complexas e redes sociais. Em segundo lugar, apresenta modelos evolutivos que melhor se adaptam às chegadas turísticas internacionais. Como se organizam as redes sociais? Como é que os indivíduos escolhem os seus destinos de viagem? Estes são exemplos de questões que serão abordadas na tese. Em terceiro lugar, discute resultados que fazem notar comportamentos comuns entre redes em turismo e outras redes reais. O que é comum a todas as redes na natureza? Adicionalmente, os padrões encontrados entre os destinos turísticos mostram um comportamento não social, com destinos mais característicos de redes económicas e sistemas tecnológicos que questionam a faceta social do sector do turismo. Por acréscimo, a rede de transportes aéreos e a rede de turismo mostram diferenças consideráveis que se podem dever a razões políticas ou outras que provavelmente explicam o aumento da utilização de voos charters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de sistemas computacionais é um processo complexo, com múltiplas etapas, que requer uma análise profunda do problema, levando em consideração as limitações e os requisitos aplicáveis. Tal tarefa envolve a exploração de técnicas alternativas e de algoritmos computacionais para optimizar o sistema e satisfazer os requisitos estabelecidos. Neste contexto, uma das mais importantes etapas é a análise e implementação de algoritmos computacionais. Enormes avanços tecnológicos no âmbito das FPGAs (Field-Programmable Gate Arrays) tornaram possível o desenvolvimento de sistemas de engenharia extremamente complexos. Contudo, o número de transístores disponíveis por chip está a crescer mais rapidamente do que a capacidade que temos para desenvolver sistemas que tirem proveito desse crescimento. Esta limitação já bem conhecida, antes de se revelar com FPGAs, já se verificava com ASICs (Application-Specific Integrated Circuits) e tem vindo a aumentar continuamente. O desenvolvimento de sistemas com base em FPGAs de alta capacidade envolve uma grande variedade de ferramentas, incluindo métodos para a implementação eficiente de algoritmos computacionais. Esta tese pretende proporcionar uma contribuição nesta área, tirando partido da reutilização, do aumento do nível de abstracção e de especificações algorítmicas mais automatizadas e claras. Mais especificamente, é apresentado um estudo que foi levado a cabo no sentido de obter critérios relativos à implementação em hardware de algoritmos recursivos versus iterativos. Depois de serem apresentadas algumas das estratégias para implementar recursividade em hardware mais significativas, descreve-se, em pormenor, um conjunto de algoritmos para resolver problemas de pesquisa combinatória (considerados enquanto exemplos de aplicação). Versões recursivas e iterativas destes algoritmos foram implementados e testados em FPGA. Com base nos resultados obtidos, é feita uma cuidada análise comparativa. Novas ferramentas e técnicas de investigação que foram desenvolvidas no âmbito desta tese são também discutidas e demonstradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese insere-se na área da simulação de circuitos de RF e microondas, e visa o estudo de ferramentas computacionais inovadoras que consigam simular, de forma eficiente, circuitos não lineares e muito heterogéneos, contendo uma estrutura combinada de blocos analógicos de RF e de banda base e blocos digitais, a operar em múltiplas escalas de tempo. Os métodos numéricos propostos nesta tese baseiam-se em estratégias multi-dimensionais, as quais usam múltiplas variáveis temporais definidas em domínios de tempo deformados e não deformados, para lidar, de forma eficaz, com as disparidades existentes entre as diversas escalas de tempo. De modo a poder tirar proveito dos diferentes ritmos de evolução temporal existentes entre correntes e tensões com variação muito rápida (variáveis de estado activas) e correntes e tensões com variação lenta (variáveis de estado latentes), são utilizadas algumas técnicas numéricas avançadas para operar dentro dos espaços multi-dimensionais, como, por exemplo, os algoritmos multi-ritmo de Runge-Kutta, ou o método das linhas. São também apresentadas algumas estratégias de partição dos circuitos, as quais permitem dividir um circuito em sub-circuitos de uma forma completamente automática, em função dos ritmos de evolução das suas variáveis de estado. Para problemas acentuadamente não lineares, são propostos vários métodos inovadores de simulação a operar estritamente no domínio do tempo. Para problemas com não linearidades moderadas é proposto um novo método híbrido frequência-tempo, baseado numa combinação entre a integração passo a passo unidimensional e o método seguidor de envolvente com balanço harmónico. O desempenho dos métodos é testado na simulação de alguns exemplos ilustrativos, com resultados bastante promissores. Uma análise comparativa entre os métodos agora propostos e os métodos actualmente existentes para simulação RF, revela ganhos consideráveis em termos de rapidez de computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda o problema da estimação de canal e da estimação de desvio de frequência em sistemas OFDM com múltiplas configurações de antenas no transmissor e no receptor. Nesta tese é apresentado o estudo teórico sobre o impacto da densidade de pilotos no desempenho da estimação de canal em sistemas OFDM e são propostos diversos algoritmos para estimação de canal e estimação de desvio de frequência em sistemas OFDM com antenas únicas no transmissor e receptor, com diversidade de transmissão e MIMO. O estudo teórico culmina com a formulação analítica do erro quadrático médio de um estimador de canal genérico num sistema OFDM que utilize pilotos dedicados, distribuidos no quadro transmitido em padrões bi-dimensionais. A formulação genérica é concretizada para o estimador bi-dimensional LS-DFT, permitindo aferir da exactidão da formulação analítica quando comparada com os valores obtidos por simulação do sistema abordado. Os algoritmos de estimação investigados tiram partido da presença de pilotos dedicados presentes nos quadros transmitidos para estimar com precisão os parâmetros pretendidos. Pela sua baixa complexidade, estes algoritmos revelam-se especialmente adequados para implementação em terminais móveis com capacidade computacional e consumo limitados. O desempenho dos algoritmos propostos foi avaliado por meio de simulação do sistema utilizado, recorrendo a modelos aceites de caracterização do canal móvel multipercurso. A comparação do seu desempenho com algoritmos de referência permitir aferir da sua validade. ABSTRACT: The present work focus on the problem of channel estimation and frequency offset estimation in OFDM systems, with different antenna configurations at both the transmitter and the receiver. This thesis presents the theoretical study of the impact of the pilot density in the performance of the channel estimation in OFDM systems and proposes several channel and frequency offset algorithms for OFDM systems with single antenna at both transmitter and receiver, with transmitter diversity and MIMO. The theoretical study results in the analytical formulation of the mean square error of a generic channel estimator for an OFDM system using dedicated pilots, distributed in the transmitted frame in two-dimensional patterns. The generic formulation is implemented for the two-dimensional LS-DFT estimator to verify the accuracy of the analytical formulation when compared with the values obtained by simulation of the discussed system. The investigated estimation algorithms take advantage of the presence of dedicated pilots present in the transmitted frames to accurately estimate the required parameters. Due to its low complexity, these algorithms are especially suited for implementation in mobile terminals with limited processing power and consumption. The performance of the proposed algorithms was evaluated by simulation of the used system, using accepted multipath mobile channel models. The comparison of its performance with the one of reference algorithms measures its validity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os problemas de visibilidade têm diversas aplicações a situações reais. Entre os mais conhecidos, e exaustivamente estudados, estão os que envolvem os conceitos de vigilância e ocultação em estruturas geométricas (problemas de vigilância e ocultação). Neste trabalho são estudados problemas de visibilidade em estruturas geométricas conhecidas como polígonos, uma vez que estes podem representar, de forma apropriada, muitos dos objectos reais e são de fácil manipulação computacional. O objectivo dos problemas de vigilância é a determinação do número mínimo de posições para a colocação de dispositivos num dado polígono, de modo a que estes dispositivos consigam “ver” a totalidade do polígono. Por outro lado, o objectivo dos problemas de ocultação é a determinação do número máximo de posições num dado polígono, de modo a que quaisquer duas posições não se consigam “ver”. Infelizmente, a maior parte dos problemas de visibilidade em polígonos são NP-difíceis, o que dá origem a duas linhas de investigação: o desenvolvimento de algoritmos que estabelecem soluções aproximadas e a determinação de soluções exactas para classes especiais de polígonos. Atendendo a estas duas linhas de investigação, o trabalho é dividido em duas partes. Na primeira parte são propostos algoritmos aproximados, baseados essencialmente em metaheurísticas e metaheurísticas híbridas, para resolver alguns problemas de visibilidade, tanto em polígonos arbitrários como ortogonais. Os problemas estudados são os seguintes: “Maximum Hidden Vertex Set problem”, “Minimum Vertex Guard Set problem”, “Minimum Vertex Floodlight Set problem” e “Minimum Vertex k-Modem Set problem”. São também desenvolvidos métodos que permitem determinar a razão de aproximação dos algoritmos propostos. Para cada problema são implementados os algoritmos apresentados e é realizado um estudo estatístico para estabelecer qual o algoritmo que obtém as melhores soluções num tempo razoável. Este estudo permite concluir que as metaheurísticas híbridas são, em geral, as melhores estratégias para resolver os problemas de visibilidade estudados. Na segunda parte desta dissertação são abordados os problemas “Minimum Vertex Guard Set”, “Maximum Hidden Set” e “Maximum Hidden Vertex Set”, onde são identificadas e estudadas algumas classes de polígonos para as quais são determinadas soluções exactas e/ou limites combinatórios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho focou-se no estudo de técnicas de sub-espaço tendo em vista as aplicações seguintes: eliminação de ruído em séries temporais e extracção de características para problemas de classificação supervisionada. Foram estudadas as vertentes lineares e não-lineares das referidas técnicas tendo como ponto de partida os algoritmos SSA e KPCA. No trabalho apresentam-se propostas para optimizar os algoritmos, bem como uma descrição dos mesmos numa abordagem diferente daquela que é feita na literatura. Em qualquer das vertentes, linear ou não-linear, os métodos são apresentados utilizando uma formulação algébrica consistente. O modelo de subespaço é obtido calculando a decomposição em valores e vectores próprios das matrizes de kernel ou de correlação/covariância calculadas com um conjunto de dados multidimensional. A complexidade das técnicas não lineares de subespaço é discutida, nomeadamente, o problema da pre-imagem e a decomposição em valores e vectores próprios de matrizes de dimensão elevada. Diferentes algoritmos de préimagem são apresentados bem como propostas alternativas para a sua optimização. A decomposição em vectores próprios da matriz de kernel baseada em aproximações low-rank da matriz conduz a um algoritmo mais eficiente- o Greedy KPCA. Os algoritmos são aplicados a sinais artificiais de modo a estudar a influência dos vários parâmetros na sua performance. Para além disso, a exploração destas técnicas é extendida à eliminação de artefactos em séries temporais biomédicas univariáveis, nomeadamente, sinais EEG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consideramos o problema de controlo óptimo de tempo mínimo para sistemas de controlo mono-entrada e controlo afim num espaço de dimensão finita com condições inicial e final fixas, onde o controlo escalar toma valores num intervalo fechado. Quando aplicamos o método de tiro a este problema, vários obstáculos podem surgir uma vez que a função de tiro não é diferenciável quando o controlo é bang-bang. No caso bang-bang os tempos conjugados são teoricamente bem definidos para este tipo de sistemas de controlo, contudo os algoritmos computacionais directos disponíveis são de difícil aplicação. Por outro lado, no caso suave o conceito teórico e prático de tempos conjugados é bem conhecido, e ferramentas computacionais eficazes estão disponíveis. Propomos um procedimento de regularização para o qual as soluções do problema de tempo mínimo correspondente dependem de um parâmetro real positivo suficientemente pequeno e são definidas por funções suaves em relação à variável tempo, facilitando a aplicação do método de tiro simples. Provamos, sob hipóteses convenientes, a convergência forte das soluções do problema regularizado para a solução do problema inicial, quando o parâmetro real tende para zero. A determinação de tempos conjugados das trajectórias localmente óptimas do problema regularizado enquadra-se na teoria suave conhecida. Provamos, sob hipóteses adequadas, a convergência do primeiro tempo conjugado do problema regularizado para o primeiro tempo conjugado do problema inicial bang-bang, quando o parâmetro real tende para zero. Consequentemente, obtemos um algoritmo eficiente para a computação de tempos conjugados no caso bang-bang.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de equipamentos de descodificação massiva de genomas veio aumentar de uma forma brutal os dados disponíveis. No entanto, para desvendarmos informação relevante a partir da análise desses dados é necessário software cada vez mais específico, orientado para determinadas tarefas que auxiliem o investigador a obter conclusões o mais rápido possível. É nesse campo que a bioinformática surge, como aliado fundamental da biologia, uma vez que tira partido de métodos e infra-estruturas computacionais para desenvolver algoritmos e aplicações informáticas. Por outro lado, na maior parte das vezes, face a novas questões biológicas é necessário responder com novas soluções específicas, pelo que o desenvolvimento de aplicações se torna um desafio permanente para os engenheiros de software. Foi nesse contexto que surgiram os principais objectivos deste trabalho, centrados na análise de tripletos e de repetições em estruturas primárias de DNA. Para esse efeito, foram propostos novos métodos e novos algoritmos que permitirem o processamento e a obtenção de resultados sobre grandes volumes de dados. Ao nível da análise de tripletos de codões e de aminoácidos foi proposto um sistema concebido para duas vertentes: por um lado o processamento dos dados, por outro a disponibilização na Web dos dados processados, através de um mecanismo visual de composição de consultas. Relativamente à análise de repetições, foi proposto e desenvolvido um sistema para identificar padrões de nucleótidos e aminoácidos repetidos em sequências específicas, com particular aplicação em genes ortólogos. As soluções propostas foram posteriormente validadas através de casos de estudo que atestam a mais-valia do trabalho desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar da fauna de mamíferos Neotropicais ser uma das mais ricas do mundo, o nosso conhecimento sobre os limites de espécies, distribuições geográficas e relações filogenéticas está ainda agora no seu início. As áreas de transição entre os dois maiores biomas da América do Sul, o Cerrado e a Amazónia, são ainda menos conhecidas. Até ao momento, escassos estudos focaram os pequenos mamíferos destas áreas. Destes estudos, apenas dois apresentam dados taxonómicos e de distribuição geográfica de uma lista de espécies reduzida e, nenhum é focado nos processos evolutivos que conduziram à diversidade destas áreas. O presente trabalho tem como objectivo aumentar o conhecimento básico sobre a diversidade do médio Rio Araguaia, na região central do Brasil, através da amostragem e análise de espécies de pequenos mamíferos, integrando um intenso trabalho de campo, de laboratório e de museu. Desta forma, um total de 22 espécies é registado para o médio Araguaia. De entre estas espécies, descreve-se uma espécie nova de Rhipidomys, regista-se uma espécie não descrita de Thrichomys e uma potencial nova forma de Oligoryzomys, e também se apresenta uma diagnose emendada do obscuro Oecomys cleberi. Para cada espécie, são também descritas as suas características morfológicas e resumem-se os seus aspectos de distribuição geográfica e história natural. Para os quatro géneros acima referidos, são apresentadas as análises filogenéticas que permitem a identificação das espécies. Adicionalmente, os princípios da filogeografia são aplicados para estudar os padrões da distribuição geográfica da diversidade genética de três roedores sigmodontíneos e seis marsupiais didelphídeos. Os resultados obtidos demonstram que o Rio Araguaia forma uma barreira geográfica para espécies especialistas em florestas não-alagáveis; por outro lado, espécies generalistas apresentam partilha de haplótipos em ambas as margens do rio. Argumentamos também que os refúgios florestais e os gradientes poderão ter tido um papel importante para moldar a estrutura genética de populações de pequenos mamíferos no Brasil central. Em suma, os resultados apresentados corroboram a proposição de que a diversidade Neotropical não poderá ser explicada através de um único modelo de especiação e que estes não são mutuamente exclusivos. O entendimento integral dos processos ecológicos e históricos que deram origem à fauna Neotropical, assim como a continuidade de estudos sistemáticos, depende da realização de novas amostragens e consequente enriquecimento dos museus com colecções apropriadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motivados pelo propósito central de contribuir para a construção, a longo prazo, de um sistema completo de conversão de texto para fala, baseado em síntese articulatória, desenvolvemos um modelo linguístico para o português europeu (PE), com base no sistema TADA (TAsk Dynamic Application), que visou a obtenção automática da trajectória dos articuladores a partir do texto de entrada. A concretização deste objectivo ditou o desenvolvimento de um conjunto de tarefas, nomeadamente 1) a implementação e avaliação de dois sistemas de silabificação automática e de transcrição fonética, tendo em vista a transformação do texto de entrada num formato adequado ao TADA; 2) a criação de um dicionário gestual para os sons do PE, de modo a que cada fone obtido à saída do conversor grafema-fone pudesse ter correspondência com um conjunto de gestos articulatórios adaptados para o PE; 3) a análise do fenómeno da nasalidade à luz dos princípios dinâmicos da Fonologia Articulatória (FA), com base num estudo articulatório e perceptivo. Os dois algoritmos de silabificação automática implementados e testados fizeram apelo a conhecimentos de natureza fonológica sobre a estrutura da sílaba, sendo o primeiro baseado em transdutores de estados finitos e o segundo uma implementação fiel das propostas de Mateus & d'Andrade (2000). O desempenho destes algoritmos – sobretudo do segundo – mostrou-se similar ao de outros sistemas com as mesmas potencialidades. Quanto à conversão grafema-fone, seguimos uma metodologia baseada em regras de reescrita combinada com uma técnica de aprendizagem automática. Os resultados da avaliação deste sistema motivaram a exploração posterior de outros métodos automáticos, procurando também avaliar o impacto da integração de informação silábica nos sistemas. A descrição dinâmica dos sons do PE, ancorada nos princípios teóricos e metodológicos da FA, baseou-se essencialmente na análise de dados de ressonância magnética, a partir dos quais foram realizadas todas as medições, com vista à obtenção de parâmetros articulatórios quantitativos. Foi tentada uma primeira validação das várias configurações gestuais propostas, através de um pequeno teste perceptual, que permitiu identificar os principais problemas subjacentes à proposta gestual. Este trabalho propiciou, pela primeira vez para o PE, o desenvolvimento de um primeiro sistema de conversão de texto para fala, de base articulatória. A descrição dinâmica das vogais nasais contou, quer com os dados de ressonância magnética, para caracterização dos gestos orais, quer com os dados obtidos através de articulografia electromagnética (EMA), para estudo da dinâmica do velo e da sua relação com os restantes articuladores. Para além disso, foi efectuado um teste perceptivo, usando o TADA e o SAPWindows, para avaliar a sensibilidade dos ouvintes portugueses às variações na altura do velo e alterações na coordenação intergestual. Este estudo serviu de base a uma interpretação abstracta (em termos gestuais) das vogais nasais do PE e permitiu também esclarecer aspectos cruciais relacionados com a sua produção e percepção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho propõe-se a divulgar as mais significativas técnicas de esquemas cooperativos, de forma a ultrapassar alguns dos problemas dos sistemas móveis sem fios da próxima geração, estendendo a área de cobertura destes sistemas, assim como a sua capacidade e fiabilidade. O estudo de diversos esquemas cooperativos é efetuado em termos de capacidade e de taxa de erros, fazendo variar o número de relays e de antenas em cada elemento do sistema. Diversos algoritmos com aplicação em sistemas cooperativos são desenvolvidos e propostos ao longo desta tese, como códigos espaço-frequência aplicados de forma distribuída nos relays, para sistemas baseados na tecnologia OFDM e sob diversos cenários próximos da realidade. Os sistemas cooperativos são particularmente úteis em situações em que o caminho direto entre dois terminais não está acessível ou tem uma fraca qualidade de transmissão. Tendo este aspeto em consideração, e pretendendo ter a máxima eficiência espetral e máxima diversidade, um algoritmo com precodificação é também proposto para múltiplos relays, cada um equipado com uma ou duas antenas. A formulação matemática associada aos algoritmos propostos é apresentada, assim como a derivação da probabilidade de erro teórica. O desempenho dos sistemas assistidos por relays usando os algoritmos propostos é comparado em relação a outros esquemas cooperativos equivalentes e a esquemas não-cooperativos, considerando cenários com diferentes qualidades de canal, daí advindo importantes conclusões em relação a estes sistemas.