967 resultados para Ant colony optimisation algorithm
Resumo:
Strain improvement of the insect pathogenic fungus Metarhizium anisopUae is necessary to increase its virulence towards agricultural pests and thus improve its commercial efficacy. Nevertheless, the release of genetically modified conidia in crop fields may negatively affect the ecosystem. Controlling conidiation is a potential means of limiting the release of engineered strains since conidia are the infective propagules and the means of dispersal. The purpose of this study was to research the colony development of M. anisopUae to identify potential targets for genetic manipulation to control conidiation. Following Agrobacterium tumefaciem insertional mutagenesis, phenotypic mutants were characterized using Y-shaped adaptor dependent extension PCR. Four of 1 8 colony development recombinants had T-DNA flanking sequences with high homology to genes encoding known signaling pathway proteins that regulate pathogenesis and/or asexual development in filamentous fungi. Conidial density counts and insect bioassays suggested that a Serine/Threonine protein kinase COTl homolog is not essential for conidiation or virulence. Furthermore, a choline kinase homolog is important for conidiation, but not virulence. Finally, the regulator of G protein signaling CAG8 and a NADPH oxidase NoxA homolog are necessary for conidiation and virulence. These genes are candidates for further investigation into the regulatory pathways controlling conidiation to yield insight into promising gene targets for biocontrol strain improvement.
Resumo:
Flavour is a combination of taste, odour, and chemesthetic sensations. Close associations exist between these sensory modalities, and thus, the overall flavour of a food or beverage product can change when the intensity of one or more of these sensations is altered. Strategies to modify flavour are often utilized by the food industry, and are central to the engineering of new and reformulated products. For functional food and beverages, flavour modification is particularly important, as fortifying agents can elicit high levels of less than desirable sensations, such as bitterness and astringency. The application of various flavour modifying strategies can decrease the perceived intensity of these sensations, and in tum, improve the sensory profile of the product. This collection of studies describes the sensory characteristics of experimental functional beverages fortified with trans-resveratrol, (+)-catechin, and/or caffeine, and examines the impact of novel flavour modifying strategies on the perceived flavour of these beverages. In the first study, results demonstrate that the flavour profile of Cabemet Sauvignon wines fortified with 20 mglL and 200 mg/L of trans-resveratrol is not perceived as different compared to control wine (0 mglL). However, Riesling wine fortified with 200 mg/L is perceived as significantly higher in bitterness compared to 20 mglL and control. For some functional food formulations, alternative strategies for flavour modification are needed. Traditional methods, such as the addition of sucrose and sodium chloride, may decrease the perceived 'healthiness' of a product, and thus, may be sub-optimal. In a second study, high and low concentrations of five different bitter inhibiting compounds - 'bitter blockers' - (B-cyclodextrin, homoeridictyol sodium salt, carboxymethylcellulose - low viscosity, zinc sulfate, magnesium sulfate) were tested for their efficacy towards decreasing the bitterness of high and low concentrations of caffeine and (+)catechin - two health-relevant, plant-derived bitterants. B-cyclodextrin and homoeridictyol sodium salt were the most effective blockers at decreasing (+ )-catechin and caffeine, respectively. In addition to bitter blockers, additional flavour modifying strategies, either alone or in combination - may also be successful in functional food formulations. Both sucrose and rebaudioside A - a plant-derived sweetener - were effective at decreasing the bitterness of (+)catechin. When added to (+)-catechin along with B-cyc1odextrin, both sweeteners provided the most effective decrease in bitterness compared to binary, ternary, or quaternary mixtures of (+)catechin together with bitter blockers, sweeteners, andlor odourants. The perceived intensity of sensations elicited by sweeteners and odourants was not affected by the addition of bitter blockers, and thus, their impact within these complex matrices is minimal. In addition, withinmodal (taste-taste) compared to cross-modal (taste-odour) sensory interactions were more effective at decreasing the bitterness of (+ )-catechin. Overall, results from these studies demonstrate that certain novel, alternative flavour modifying approaches may be successful towards lowering the bitterness and astringency elicited by (+ )-catechin and caffeine in aqueous solutions.
Resumo:
Understanding the machinery of gene regulation to control gene expression has been one of the main focuses of bioinformaticians for years. We use a multi-objective genetic algorithm to evolve a specialized version of side effect machines for degenerate motif discovery. We compare some suggested objectives for the motifs they find, test different multi-objective scoring schemes and probabilistic models for the background sequence models and report our results on a synthetic dataset and some biological benchmarking suites. We conclude with a comparison of our algorithm with some widely used motif discovery algorithms in the literature and suggest future directions for research in this area.
Resumo:
Business directory for Canada and Newfoundland for the year 1899
Resumo:
DNA assembly is among the most fundamental and difficult problems in bioinformatics. Near optimal assembly solutions are available for bacterial and small genomes, however assembling large and complex genomes especially the human genome using Next-Generation-Sequencing (NGS) technologies is shown to be very difficult because of the highly repetitive and complex nature of the human genome, short read lengths, uneven data coverage and tools that are not specifically built for human genomes. Moreover, many algorithms are not even scalable to human genome datasets containing hundreds of millions of short reads. The DNA assembly problem is usually divided into several subproblems including DNA data error detection and correction, contig creation, scaffolding and contigs orientation; each can be seen as a distinct research area. This thesis specifically focuses on creating contigs from the short reads and combining them with outputs from other tools in order to obtain better results. Three different assemblers including SOAPdenovo [Li09], Velvet [ZB08] and Meraculous [CHS+11] are selected for comparative purposes in this thesis. Obtained results show that this thesis’ work produces comparable results to other assemblers and combining our contigs to outputs from other tools, produces the best results outperforming all other investigated assemblers.
Resumo:
Ordered gene problems are a very common classification of optimization problems. Because of their popularity countless algorithms have been developed in an attempt to find high quality solutions to the problems. It is also common to see many different types of problems reduced to ordered gene style problems as there are many popular heuristics and metaheuristics for them due to their popularity. Multiple ordered gene problems are studied, namely, the travelling salesman problem, bin packing problem, and graph colouring problem. In addition, two bioinformatics problems not traditionally seen as ordered gene problems are studied: DNA error correction and DNA fragment assembly. These problems are studied with multiple variations and combinations of heuristics and metaheuristics with two distinct types or representations. The majority of the algorithms are built around the Recentering- Restarting Genetic Algorithm. The algorithm variations were successful on all problems studied, and particularly for the two bioinformatics problems. For DNA Error Correction multiple cases were found with 100% of the codes being corrected. The algorithm variations were also able to beat all other state-of-the-art DNA Fragment Assemblers on 13 out of 16 benchmark problem instances.
Resumo:
Understanding the relationship between genetic diseases and the genes associated with them is an important problem regarding human health. The vast amount of data created from a large number of high-throughput experiments performed in the last few years has resulted in an unprecedented growth in computational methods to tackle the disease gene association problem. Nowadays, it is clear that a genetic disease is not a consequence of a defect in a single gene. Instead, the disease phenotype is a reflection of various genetic components interacting in a complex network. In fact, genetic diseases, like any other phenotype, occur as a result of various genes working in sync with each other in a single or several biological module(s). Using a genetic algorithm, our method tries to evolve communities containing the set of potential disease genes likely to be involved in a given genetic disease. Having a set of known disease genes, we first obtain a protein-protein interaction (PPI) network containing all the known disease genes. All the other genes inside the procured PPI network are then considered as candidate disease genes as they lie in the vicinity of the known disease genes in the network. Our method attempts to find communities of potential disease genes strongly working with one another and with the set of known disease genes. As a proof of concept, we tested our approach on 16 breast cancer genes and 15 Parkinson's Disease genes. We obtained comparable or better results than CIPHER, ENDEAVOUR and GPEC, three of the most reliable and frequently used disease-gene ranking frameworks.
Resumo:
A Woodruff family genealogy in ten chapters. The chapters are titled: The Five New England Generations, Ezekiel's Seven Children, The Upper Canada Descendants, In Retrospect, Niagara (Newark), St. Davids, The War of 1812-1814, Some More Recent Portraits, Sources and References, Appendix. The first page of the book is inscribed "Best Wishes to Margaret and Percy from Norris", Oct. 5, 1959.
Resumo:
In this thesis we are going to analyze the dictionary graphs and some other kinds of graphs using the PagerRank algorithm. We calculated the correlation between the degree and PageRank of all nodes for a graph obtained from Merriam-Webster dictionary, a French dictionary and WordNet hypernym and synonym dictionaries. Our conclusion was that PageRank can be a good tool to compare the quality of dictionaries. We studied some artificial social and random graphs. We found that when we omitted some random nodes from each of the graphs, we have not noticed any significant changes in the ranking of the nodes according to their PageRank. We also discovered that some social graphs selected for our study were less resistant to the changes of PageRank.
Resumo:
UANL
Resumo:
UANL
Resumo:
Le sang provenant d’un cordon ombilical (SCO) représente une bonne source de cellules souches hématopoïétiques (CSH) pour des transplantations. Cependant, le nombre de cellules souches contenues dans ce sang est souvent insuffisant pour greffer un adulte. Le mécanisme intervenant dans la domiciliation de ces cellules au sein de la moelle osseuse (MO) est encore mal compris. On sait que l’interaction entre la chimiokine SDF-1 et le récepteur CXCR4, présent sur les cellules CD34+ de SCO, mène à la migration de ces cellules en direction de la MO. Nous pensons que l’augmentation de la proportion de cellules qui réussit à se greffer pourra pallier au problème du nombre. Les produits de dégradation, C3a et le C3desarg,, issus du système du complément, sont connus pour favoriser la réponse de cellules exprimant CXCR4 vers SDF-1. Nous avons analysé l’effet du C3adesarg, molécule non anaphylatoxique, sur la migration cellulaire vers SDF-1, de même que sur la prise de greffe des cellules CD34+ issues de SCO suite à une transplantation sur des souris NOD/SCIDyC-. Nos expériences ont démontré que le C3a ainsi que le C3adesarg augmentaient tous les deux la réponse des cellules CD34+ vers SDF-1. Toutefois, nous n’avons pas pu démontrer que ces molécules liaient directement le récepteur CXCR4. Par contre, le composé C3adesarg favorise la prise de greffe des cellules CD34+ de SCO. Il serait donc un bon candidat pour poursuivre une optimisation de ses propriétés. Nous avons également constaté que suite à une transplantation chez la souris, les cellules CD34+ de SCO subissent une hausse d’expression transitoire de leur CXCR4 environ quatre jours après la greffe. Cette hausse d’expression coïncide avec la multiplication des cellules CD34+ dans la MO. Nous avons également confirmé qu’une cellule CD34+ avec une forte expression de CXCR4 était dans un état prolifératif. Nos données suggèrent que l’interaction directe avec les cellules stromales soit responsable de cette hausse d’expression de CXCR4.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.