908 resultados para Algoritmos transgenéticos
Resumo:
The ever-growing energy consumption in mobile networks stimulated by the expected growth in data tra ffic has provided the impetus for mobile operators to refocus network design, planning and deployment towards reducing the cost per bit, whilst at the same time providing a signifi cant step towards reducing their operational expenditure. As a step towards incorporating cost-eff ective mobile system, 3GPP LTE-Advanced has adopted the coordinated multi-point (CoMP) transmission technique due to its ability to mitigate and manage inter-cell interference (ICI). Using CoMP the cell average and cell edge throughput are boosted. However, there is room for reducing energy consumption further by exploiting the inherent exibility of dynamic resource allocation protocols. To this end packet scheduler plays the central role in determining the overall performance of the 3GPP longterm evolution (LTE) based on packet-switching operation and provide a potential research playground for optimizing energy consumption in future networks. In this thesis we investigate the baseline performance for down link CoMP using traditional scheduling approaches, and subsequently go beyond and propose novel energy e fficient scheduling (EES) strategies that can achieve power-e fficient transmission to the UEs whilst enabling both system energy effi ciency gain and fairness improvement. However, ICI can still be prominent when multiple nodes use common resources with di fferent power levels inside the cell, as in the so called heterogeneous networks (Het- Net) environment. HetNets are comprised of two or more tiers of cells. The rst, or higher tier, is a traditional deployment of cell sites, often referred to in this context as macrocells. The lower tiers are termed small cells, and can appear as microcell, picocells or femtocells. The HetNet has attracted signiffi cant interest by key manufacturers as one of the enablers for high speed data at low cost. Research until now has revealed several key hurdles that must be overcome before HetNets can achieve their full potential: bottlenecks in the backhaul must be alleviated, as well as their seamless interworking with CoMP. In this thesis we explore exactly the latter hurdle, and present innovative ideas on advancing CoMP to work in synergy with HetNet deployment, complemented by a novel resource allocation policy for HetNet tighter interference management. As system level simulator has been used to analyze the proposed algorithm/protocols, and results have concluded that up to 20% energy gain can be observed.
Resumo:
Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.
Resumo:
Estudar os mecanismos subjacentes à produção de fala é uma tarefa complexa e exigente, requerendo a obtenção de dados mediante a utilização de variadas técnicas, onde se incluem algumas modalidades imagiológicas. De entre estas, a Ressonância Magnética (RM) tem ganho algum destaque, nos últimos anos, posicionando-se como uma das mais promissoras no domínio da produção de fala. Um importante contributo deste trabalho prende-se com a otimização e implementação de protocolos (RM) e proposta de estratégias de processamento de imagem ajustados aos requisitos da produção de fala, em geral, e às especificidades dos diferentes sons. Para além disso, motivados pela escassez de dados para o Português Europeu (PE), constitui-se como objetivo a obtenção de dados articulatórios que permitam complementar informação já existente e clarificar algumas questões relativas à produção dos sons do PE (nomeadamente, consoantes laterais e vogais nasais). Assim, para as consoantes laterais foram obtidas imagens RM (2D e 3D), através de produções sustidas, com recurso a uma sequência Eco de Gradiente (EG) rápida (3D VIBE), no plano sagital, englobando todo o trato vocal. O corpus, adquirido por sete falantes, contemplou diferentes posições silábicas e contextos vocálicos. Para as vogais nasais, foram adquiridas, em três falantes, imagens em tempo real com uma sequência EG - Spoiled (TurboFLASH), nos planos sagital e coronal, obtendo-se uma resolução temporal de 72 ms (14 frames/s). Foi efetuada aquisição sincronizada das imagens com o sinal acústico mediante utilização de um microfone ótico. Para o processamento e análise de imagem foram utilizados vários algoritmos semiautomáticos. O tratamento e análise dos dados permitiu efetuar uma descrição articulatória das consoantes laterais, ancorada em dados qualitativos (e.g., visualizações 3D, comparação de contornos) e quantitativos que incluem áreas, funções de área do trato vocal, extensão e área das passagens laterais, avaliação de efeitos contextuais e posicionais, etc. No que respeita à velarização da lateral alveolar /l/, os resultados apontam para um /l/ velarizado independentemente da sua posição silábica. Relativamente ao /L/, em relação ao qual a informação disponível era escassa, foi possível verificar que a sua articulação é bastante mais anteriorizada do que tradicionalmente descrito e também mais extensa do que a da lateral alveolar. A resolução temporal de 72 ms conseguida com as aquisições de RM em tempo real, revelou-se adequada para o estudo das características dinâmicas das vogais nasais, nomeadamente, aspetos como a duração do gesto velar, gesto oral, coordenação entre gestos, etc. complementando e corroborando resultados, já existentes para o PE, obtidos com recurso a outras técnicas instrumentais. Para além disso, foram obtidos novos dados de produção relevantes para melhor compreensão da nasalidade (variação área nasal/oral no tempo, proporção nasal/oral). Neste estudo, fica patente a versatilidade e potencial da RM para o estudo da produção de fala, com contributos claros e importantes para um melhor conhecimento da articulação do Português, para a evolução de modelos de síntese de voz, de base articulatória, e para aplicação futura em áreas mais clínicas (e.g., perturbações da fala).
Resumo:
When developing software for autonomous mobile robots, one has to inevitably tackle some kind of perception. Moreover, when dealing with agents that possess some level of reasoning for executing their actions, there is the need to model the environment and the robot internal state in a way that it represents the scenario in which the robot operates. Inserted in the ATRI group, part of the IEETA research unit at Aveiro University, this work uses two of the projects of the group as test bed, particularly in the scenario of robotic soccer with real robots. With the main objective of developing algorithms for sensor and information fusion that could be used e ectively on these teams, several state of the art approaches were studied, implemented and adapted to each of the robot types. Within the MSL RoboCup team CAMBADA, the main focus was the perception of ball and obstacles, with the creation of models capable of providing extended information so that the reasoning of the robot can be ever more e ective. To achieve it, several methodologies were analyzed, implemented, compared and improved. Concerning the ball, an analysis of ltering methodologies for stabilization of its position and estimation of its velocity was performed. Also, with the goal keeper in mind, work has been done to provide it with information of aerial balls. As for obstacles, a new de nition of the way they are perceived by the vision and the type of information provided was created, as well as a methodology for identifying which of the obstacles are team mates. Also, a tracking algorithm was developed, which ultimately assigned each of the obstacles a unique identi er. Associated with the improvement of the obstacles perception, a new algorithm of estimating reactive obstacle avoidance was created. In the context of the SPL RoboCup team Portuguese Team, besides the inevitable adaptation of many of the algorithms already developed for sensor and information fusion and considering that it was recently created, the objective was to create a sustainable software architecture that could be the base for future modular development. The software architecture created is based on a series of di erent processes and the means of communication among them. All processes were created or adapted for the new architecture and a base set of roles and behaviors was de ned during this work to achieve a base functional framework. In terms of perception, the main focus was to de ne a projection model and camera pose extraction that could provide information in metric coordinates. The second main objective was to adapt the CAMBADA localization algorithm to work on the NAO robots, considering all the limitations it presents when comparing to the MSL team, especially in terms of computational resources. A set of support tools were developed or improved in order to support the test and development in both teams. In general, the work developed during this thesis improved the performance of the teams during play and also the e ectiveness of the developers team when in development and test phases.
Resumo:
The main motivation for the work presented here began with previously conducted experiments with a programming concept at the time named "Macro". These experiments led to the conviction that it would be possible to build a system of engine control from scratch, which could eliminate many of the current problems of engine management systems in a direct and intrinsic way. It was also hoped that it would minimize the full range of software and hardware needed to make a final and fully functional system. Initially, this paper proposes to make a comprehensive survey of the state of the art in the specific area of software and corresponding hardware of automotive tools and automotive ECUs. Problems arising from such software will be identified, and it will be clear that practically all of these problems stem directly or indirectly from the fact that we continue to make comprehensive use of extremely long and complex "tool chains". Similarly, in the hardware, it will be argued that the problems stem from the extreme complexity and inter-dependency inside processor architectures. The conclusions are presented through an extensive list of "pitfalls" which will be thoroughly enumerated, identified and characterized. Solutions will also be proposed for the various current issues and for the implementation of these same solutions. All this final work will be part of a "proof-of-concept" system called "ECU2010". The central element of this system is the before mentioned "Macro" concept, which is an graphical block representing one of many operations required in a automotive system having arithmetic, logic, filtering, integration, multiplexing functions among others. The end result of the proposed work is a single tool, fully integrated, enabling the development and management of the entire system in one simple visual interface. Part of the presented result relies on a hardware platform fully adapted to the software, as well as enabling high flexibility and scalability in addition to using exactly the same technology for ECU, data logger and peripherals alike. Current systems rely on a mostly evolutionary path, only allowing online calibration of parameters, but never the online alteration of their own automotive functionality algorithms. By contrast, the system developed and described in this thesis had the advantage of following a "clean-slate" approach, whereby everything could be rethought globally. In the end, out of all the system characteristics, "LIVE-Prototyping" is the most relevant feature, allowing the adjustment of automotive algorithms (eg. Injection, ignition, lambda control, etc.) 100% online, keeping the engine constantly working, without ever having to stop or reboot to make such changes. This consequently eliminates any "turnaround delay" typically present in current automotive systems, thereby enhancing the efficiency and handling of such systems.
Resumo:
Nesta tese abordam-se várias formulações e diferentes métodos para resolver o Problema da Árvore de Suporte de Custo Mínimo com Restrições de Peso (WMST – Weight-constrained Minimum Spanning Tree Problem). Este problema, com aplicações no desenho de redes de comunicações e telecomunicações, é um problema de Otimização Combinatória NP-difícil. O Problema WMST consiste em determinar, numa rede com custos e pesos associados às arestas, uma árvore de suporte de custo mínimo de tal forma que o seu peso total não exceda um dado limite especificado. Apresentam-se e comparam-se várias formulações para o problema. Uma delas é usada para desenvolver um procedimento com introdução de cortes baseado em separação e que se tornou bastante útil na obtenção de soluções para o problema. Tendo como propósito fortalecer as formulações apresentadas, introduzem-se novas classes de desigualdades válidas que foram adaptadas das conhecidas desigualdades de cobertura, desigualdades de cobertura estendida e desigualdades de cobertura levantada. As novas desigualdades incorporam a informação de dois conjuntos de soluções: o conjunto das árvores de suporte e o conjunto saco-mochila. Apresentam-se diversos algoritmos heurísticos de separação que nos permitem usar as desigualdades válidas propostas de forma eficiente. Com base na decomposição Lagrangeana, apresentam-se e comparam-se algoritmos simples, mas eficientes, que podem ser usados para calcular limites inferiores e superiores para o valor ótimo do WMST. Entre eles encontram-se dois novos algoritmos: um baseado na convexidade da função Lagrangeana e outro que faz uso da inclusão de desigualdades válidas. Com o objetivo de obter soluções aproximadas para o Problema WMST usam-se métodos heurísticos para encontrar uma solução inteira admissível. Os métodos heurísticos apresentados são baseados nas estratégias Feasibility Pump e Local Branching. Apresentam-se resultados computacionais usando todos os métodos apresentados. Os resultados mostram que os diferentes métodos apresentados são bastante eficientes para encontrar soluções para o Problema WMST.
Resumo:
Esta dissertação tem como objetivo a divulgação de temas e de algoritmos presentes nos tratados de aritmética prática do século XVI. Pretendemos delinear a atuação dos seus autores face aos desafios do mundo mercantil envolvente. Sendo o nosso «ator principal» Ruy Mendes, esta escolha deve-se a dois motivos: entre os três autores é aquele que tem sido menos mencionado e estudado; os interesses de Mendes parecem-nos mais distantes do mundo mercantil. Assim, no desenrolar deste estudo apresentaremos a Prática do ponto de vista da estrutura e organização, contemplando os seguintes pontos: uma Matemática básica; a Matemática pour elle Même; uma Matemática para o comércio. Neste último ponto incluiremos as regras locais do comércio português: a regra de quarto e vintena e a regra da conta de Flandres. Para cada assunto é realizado um estudo comparativo com os dois tratados da mesma época: o Tratado da Pratica d'Arismetica de Gaspar Nicolas e o Tratado da Arte d'Arismetica de Bento Fernandes. Apesar de se tratar de autores já referidos por alguns historiadores, consideramos que não foram ainda estudados do ponto de vista do interesse intrínseco presente no conhecimento histórico da Matemática, bem como na sua atuação relativamente à divulgação do cálculo aritmético e do seu contributo para o desenvolvimento da Matemática através de problemas práticos.
Resumo:
Tese dout., Engenharia electrónica e computação - Processamento de sinal, Universidade do Algarve, 2008
Resumo:
Dissertação mest., Matemática, Universidade do Algarve, 2009
Resumo:
Tese dout., Engenharia Electrónica e Computação, Universidade do Algarve, 2009
Resumo:
Tese dout., Matemática, Universidade do Algarve, 2007,
Resumo:
Disssertação de mest., Estudos Marinhos e Costeiros, Faculdade de Ciências e Tecnologia, Univ. do Algarve, 2010
Resumo:
Dissertação de mest., Biologia Marinha (Aquacultura), Faculdade de Ciências e Tecnologia, Univ. do Algarve, 2010
Resumo:
As células estaminais hematopoiéticas residem na medula óssea e possuem capacidade para se auto-renovar e dar origem a todos os tipos de células sanguíneas. O endotélio da medula óssea é constituído por células endoteliais de medula óssea (BMEC) e compreende dois nichos com funções distintas: o nicho osteoblástico e o nicho vascular. O nicho osteoblásctico proporciona condições para a quiescência de células estaminais hematopoiéticas, enquanto no nicho vascular ocorre proliferação e diferenciação das mesmas. Quando ocorre um desequilíbrio na expressão de genes que codificam para proteínas envolvidas na mobilização de células do nicho osteoblástico para o nicho vascular – factores angiócrinos – ocorre uma desestabilização do microambiente medular, que se pode traduzir num processo tumoral. Os microRNAs (miRNAs) são uma classe de RNAs não codificantes, de cadeia simples, que regula a expressão génica. Os miRNAs são sequências endógenas de RNA que possuem entre 19 e 25 nucleótidos de tamanho. Os miRNAs são reguladores da expressão genica, induzindo o silenciamento a nível da pós-transcrição, através da sua ligação com uma sequência específica para a qual possuem afinidade, na região 3’ não traduzida (3’ UTR) dos seus mRNA alvo, conduzindo à inibição da tradução ou à sua degradação. Os miRNAs estão envolvidos na regulação de genes de diversas vias afectando processos fundamentais como hematopoiese, apoptose, proliferação celular e tumorigénese. Os níveis de expressão dos miRNAs estão alterados no cancro, podendo actuar directamente como supressores de tumor ou como oncogenes, sendo neste caso denominados de oncomirs. Os perfis dos níveis de expressão de vários miRNAs foram estudados, tendo-se verificado que se alteram durante o processo de carcinogénese, podendo actuar directamente como supressores de tumor ou como oncogenes, sendo neste caso denominados de oncomirs. Apesar do miR-363* estar envolvido na regulação da expressão de genes que regulam propriedades das células endoteliais e medula óssea, os genes sobre os quais exerce a sua função ainda não foram identificados.O objectivo do presente estudo é a identificação dos genes directamente regulados pelo miR-363* (genes alvo) e a sua relevância para a disfunção medular e a sua caracterização nos síndromes mielodisplásicos. A estratégia usada baseou-se na redução ou aumento forçados dos níveis de miR-363* em células endoteliais e subsequente análise da expressão génica através de microarrays de cDNA do genoma humano. A redução do miR-363* vai implicar o aumento da expressão dos seus genes alvo, assim como o aumento dos níveis do miR-363* vai induzir a degradação e consequente redução dos seus genes alvos. A intersecção dos dados gerados através do estudo da expressão com bases de dados que possuem algoritmos para previsão de genes alvo directos dos miRNAs (miRBase e MicroCosm Targets) permitiu restringir os genes a analisar a sete genes, nomeadamente BST1, ESAM, FCER1G, IKBKG, SELE, THBS3 e TIMP1. A interacção directa destes candidatos a alvos directos do miR-363* foi posteriormente validada. Para tal, as 3’UTR dos genes foram clonadas num vector que contém o gene da luciferase. Uma vez as clonagens realizadas, efectuaram-se ensaios funcionais em células endoteliais, nomeadamente HUVEC, nas quais se co-transfectaram os vectores gerados, anti-miRs ou pre-miRs (para diminuir ou aumentar o nível de miRNA) e o plasmídeo controlo da Renilla para normalização dos ensaios de luciferase. A variação da luminescência obtida em presença do aumento ou redução do miR-363* deu uma forte indicação da regulação directa do miR-363* nesses alvos. No entanto, a confirmação desta interacção directa foi efectuada através de ensaios de mutagénese, nos quais de induziram mutações na 3’UTR nos locais de ligação do miRNA, seguidos dos ensaios funcionais como acima descritos. Esta estratégia sugere que o TIMP1, inibidor da metaloprotease-9 (MMP-9), é regulado directamente pelo miR-363*. Adicionalmente, os níveis de expressão dos alvos directos do miR-363* foram estudados em 17 amostras de aspirados de medula óssea de doentes com síndromes mielodisplásicos. Os síndromes mielodisplásicos são caracterizados como um grupo heterogéneo de condições, que apresentam citopenias (produção deficiente de eritrócitos, leucócitos e/ou megacariócitos) e medula óssea displástica e hipercelular. A escalonagem dos doentes foi feita de acordo com o sistema de prognóstico IPSS elaborado pela Organização Mundial de Saúde, e que consiste numa tabela de risco de progressão de síndromes mielodisplásicos para leucemia mielóide aguda (LMA) e que agrupa os doentes em baixo risco – que compreende os níveis baixo e intermédio 1 – e em alto risco – que compreende os níveis intermédio 2 e alto. Dos genes regulados pelo miR-363*, o destacam-se o TIMP1, estando aumentando em doentes com mau prognóstico, e o THBS3 que apresenta um aumento nos doentes com prognóstico intermédio. Em suma, os estudos realizados permitiram a identificação de genes regulados pelo miR-363* e contribuiram para o conhecimento de como o miR-363* contribui para a disfunção medular, particularmente em síndromes mielodisplásicos, pela desregulação das propriedades endoteliais.
Resumo:
A performance dos detetores sísmicos atualmente utilizados pode e deve ser melhorada. Atualmente existem vários algoritmos para a deteção de sismos de forma automática, desde os sistemas simples baseados em STA/LTA, aos mais sofisticados baseados em reconhecimento de padrões. Este estudo pretende dar continuidade ao desenvolvimento de uma abordagem de deteção de eventos sísmicos ao nível da estação local, utilizando uma técnica bastante conhecida, chamada Máquina de Vetores de Suporte (SVM). SVM é amplamente utilizada em problemas de classificação, devido a sua boa capacidade de generalização. Nesta experiência, a técnica baseada em SVM é aplicada em diferentes modos de operações. Os resultados mostraram que a técnica proposta dá excelentes resultados em termos de sensibilidade e especificidade, além de exigir um tempo de deteção suficientemente pequeno para ser utilizado num sistema de aviso precoce (early-warning system). Começamos pela classificação de dados de forma Off-line, seguido da validação do classificador desenvolvido. Posteriormente, o processamento de dados é executado de forma contínua (On-line). Os algoritmos foram avaliados em conjuntos de dados reais, provenientes de estações sísmicas da Rede de Vigilância Sísmica de Portugal, e em aplicações reais da área de Sismologia (simulação de funcionamento em ambiente real). Apesar de apenas duas estações serem consideradas, verificou-se que utilizando a combinação de detetores, consegue-se uma percentagem de deteção idêntica para quando utilizado um único modelo (Abordagem OR) e o número de falsos alarmes para a combinação de modelos é quase inexistente (Abordagem AND). Os resultados obtidos abrem várias possibilidades de pesquisas futuras.