877 resultados para next generation matrix
Resumo:
Personalized medicine will revolutionize our capabilities to combat disease. Working toward this goal, a fundamental task is the deciphering of geneticvariants that are predictive of complex diseases. Modern studies, in the formof genome-wide association studies (GWAS) have afforded researchers with the opportunity to reveal new genotype-phenotype relationships through the extensive scanning of genetic variants. These studies typically contain over half a million genetic features for thousands of individuals. Examining this with methods other than univariate statistics is a challenging task requiring advanced algorithms that are scalable to the genome-wide level. In the future, next-generation sequencing studies (NGS) will contain an even larger number of common and rare variants. Machine learning-based feature selection algorithms have been shown to have the ability to effectively create predictive models for various genotype-phenotype relationships. This work explores the problem of selecting genetic variant subsets that are the most predictive of complex disease phenotypes through various feature selection methodologies, including filter, wrapper and embedded algorithms. The examined machine learning algorithms were demonstrated to not only be effective at predicting the disease phenotypes, but also doing so efficiently through the use of computational shortcuts. While much of the work was able to be run on high-end desktops, some work was further extended so that it could be implemented on parallel computers helping to assure that they will also scale to the NGS data sets. Further, these studies analyzed the relationships between various feature selection methods and demonstrated the need for careful testing when selecting an algorithm. It was shown that there is no universally optimal algorithm for variant selection in GWAS, but rather methodologies need to be selected based on the desired outcome, such as the number of features to be included in the prediction model. It was also demonstrated that without proper model validation, for example using nested cross-validation, the models can result in overly-optimistic prediction accuracies and decreased generalization ability. It is through the implementation and application of machine learning methods that one can extract predictive genotype–phenotype relationships and biological insights from genetic data sets.
Resumo:
Manufacturing industry has been always facing challenge to improve the production efficiency, product quality, innovation ability and struggling to adopt cost-effective manufacturing system. In recent years cloud computing is emerging as one of the major enablers for the manufacturing industry. Combining the emerged cloud computing and other advanced manufacturing technologies such as Internet of Things, service-oriented architecture (SOA), networked manufacturing (NM) and manufacturing grid (MGrid), with existing manufacturing models and enterprise information technologies, a new paradigm called cloud manufacturing is proposed by the recent literature. This study presents concepts and ideas of cloud computing and cloud manufacturing. The concept, architecture, core enabling technologies, and typical characteristics of cloud manufacturing are discussed, as well as the difference and relationship between cloud computing and cloud manufacturing. The research is based on mixed qualitative and quantitative methods, and a case study. The case is a prototype of cloud manufacturing solution, which is software platform cooperated by ATR Soft Oy and SW Company China office. This study tries to understand the practical impacts and challenges that are derived from cloud manufacturing. The main conclusion of this study is that cloud manufacturing is an approach to achieve the transformation from traditional production-oriented manufacturing to next generation service-oriented manufacturing. Many manufacturing enterprises are already using a form of cloud computing in their existing network infrastructure to increase flexibility of its supply chain, reduce resources consumption, the study finds out the shift from cloud computing to cloud manufacturing is feasible. Meanwhile, the study points out the related theory, methodology and application of cloud manufacturing system are far from maturity, it is still an open field where many new technologies need to be studied.
Resumo:
Lichens are symbiotic organisms, which consist of the fungal partner and the photosynthetic partner, which can be either an alga or a cyanobacterium. In some lichen species the symbiosis is tripartite, where the relationship includes both an alga and a cyanobacterium alongside the primary symbiont, fungus. The lichen symbiosis is an evolutionarily old adaptation to life on land and many extant fungal species have evolved from lichenised ancestors. Lichens inhabit a wide range of habitats and are capable of living in harsh environments and on nutrient poor substrates, such as bare rocks, often enduring frequent cycles of drying and wetting. Most lichen species are desiccation tolerant, and they can survive long periods of dehydration, but can rapidly resume photosynthesis upon rehydration. The molecular mechanisms behind lichen desiccation tolerance are still largely uncharacterised and little information is available for any lichen species at the genomic or transcriptomic level. The emergence of the high-throughput next generation sequencing (NGS) technologies and the subsequent decrease in the cost of sequencing new genomes and transcriptomes has enabled non-model organism research on the whole genome level. In this doctoral work the transcriptome and genome of the grey reindeer lichen, Cladonia rangiferina, were sequenced, de novo assembled and characterised using NGS and traditional expressed sequence tag (EST) technologies. RNA extraction methods were optimised to improve the yield and quality of RNA extracted from lichen tissue. The effects of rehydration and desiccation on C. rangiferina gene expression on whole transcriptome level were studied and the most differentially expressed genes were identified. The secondary metabolites present in C. rangiferina decreased the quality – integrity, optical characteristics and utility for sensitive molecular biological applications – of the extracted RNA requiring an optimised RNA extraction method for isolating sufficient quantities of high-quality RNA from lichen tissue in a time- and cost-efficient manner. The de novo assembly of the transcriptome of C. rangiferina was used to produce a set of contiguous unigene sequences that were used to investigate the biological functions and pathways active in a hydrated lichen thallus. The de novo assembly of the genome yielded an assembly containing mostly genes derived from the fungal partner. The assembly was of sufficient quality, in size similar to other lichen-forming fungal genomes and included most of the core eukaryotic genes. Differences in gene expression were detected in all studied stages of desiccation and rehydration, but the largest changes occurred during the early stages of rehydration. The most differentially expressed genes did not have any annotations, making them potentially lichen-specific genes, but several genes known to participate in environmental stress tolerance in other organisms were also identified as differentially expressed.
Resumo:
Marshall and the critics to the classical political economy. This paper analyzes the period of transition between the millian orthodoxy and the marshallian orthodoxy with special emphasis on the influence of the economic debates of the 1870's and 1880's in the genesis of Marshall's conceptions. It is argued that in these decades Political Economy was questioned in three different fronts: by the theoretical critics, by the adepts of the historical method, and by the humanists. It is also argued that Marshall answered these criticisms, sometimes by accepting and incorporating them, sometimes by rejecting them, and in doing so he was able to construct a new disciplinary consensus - that gave the foundations to the practice of the next generation of economists.
Resumo:
Puolijohteiden yleistyttyä vuodesta 1948 alkaen, ovat elektroniset laitteet pienentyneet jatkuvasti tehojen kuitenkin kasvaessa. Kasvaneet tehotiheydet kuitenkin vaikeuttavat laitesuunnittelua, sillä puoljohdekomponenttien suorituskyvylle ja eliniälle on oleellista lämpötilojen ja lämpötilavaihteluiden minimointi. Perinteisen ilmajäähdytyksen lähestyessä rajojaan niin kokonaistehon kuin järkevän energiatehokkuudenkin suhteen, on parhaaksi seuraavaksi teknologiaksi ennustettu kaksifaasijäähdytystä, jonka suorituskyky ja energiatehokkuus ovat vaaditulla tasolla. Kaksifaasijäähdytyksen optimaaliselle toiminnalle tärkeää on hyvin suunniteltu ja tarkasti valmistettu lämmönsiirtopinta, jota kutsutaan mikrokanavistoksi. Pulssitettu laserkaiverrus on edistynyt valmistustekniikka, jonka tarkkuus ja luotettavuus sopisivat mikrokanavistojen valmistamiseen. Laserkaiverruksella saavutettavat lopputulokset vaihtelevat kuitenkin materiaalista riippuen ja kupari – jota käytetään yleisesti lämmönjohteena – on eräs huonoimmin lasertyöstöön reagoivista materiaaleista ja siksi on oleellista selvittää laser-kaiverruksen toimivuutta kuparisten mikrokanavistojen valmistuksessa. Pulssitetun laser-kaiverruksen eri variaatioista nanosekunti-luokan pulssinpituuksilla toimivat laitteet ovat jatkuvan tuotannon kannalta paras vaihtoehto niiden hyvän tuottavuuden, saatavuuden sekä kohtuullisen alkuinvestoinnin vuoksi. Käytännön kaiverruskokeiden perusteella selvisi, että menetelmä on laatunsa ja tarkkuutensa puolesta sopiva varsinaiseen tuotantoon. Kaiverruksen tehokkuus kuparia työstettäessä on kuitenkin ennakoituakin heikompi ja niin valmistus- kuin suunnitelu-prosessikin vaativat vielä jatkotutkimusta ja -kehitystä.
Resumo:
During the last 30 years Aboriginal peoples in Canada have made steady progress in reclaiming the responsibility for the education of their young people, especially in primary and secondary school. In comparison the education and or training of adult populations has not kept pace and many socioeconomic and sociocultural indicators demonstrate a ' , continued confinement of those populations to the margins of the dominant society of Canada. It is the adults, the mothers and the fathers, the grandmothers and grandfathers, the aunties and uncles that are the first teachers of the next generation and the nature of these relationships replicates the culture of unwellness in each subsequent generation through those teachers. There are few examples in the Aboriginal adult education literatures that give voice to the educational experience of the Learner. This study addresses that gap by exploring the perspectives embedded in the stories of a Circle of Learners who are, or were enrolled in the Bachelor of Education in Aboriginal Adult Education program at Brock University. That Circle of 1 participants included 9 women and 1 man, 6 of whom were from various i Anishinabek nations while 4 represented the Hotinonshd:ni nations in southern Ontario. They are an eclectic group, representing many professions, age groups, spiritual traditions, and backgrounds. This then is their story, the story of the heaming and Healing pedagogy and an expanded vision of Aboriginal education and research at Brock University.
Resumo:
This study explores how effectively current research assistantships impart research methods, skills, and attitudes; and how well those experiences prepare the next generation of researchers to meet the evolving needs of an ever-expanding, knowledge- based economy and society. Through personal interviews, 7 graduate student research assistants expressed their perceptions regarding their research assistantships. The open- ended interview questions emphasized (a) what research knowledge and skills the graduate students acquired; (b) what other lessons they took away from the experience; and (c) how the research assistantships influenced their graduate studies and future academic plans. After participants were interviewed, the data were transcribed, memberchecked, and then analyzed using a grounded theory research design. The findings show that research assistantships are valuable educational venues that can not only promote research learning but also benefit research assistants' master's studies and stimulate reflection regarding their future educational and research plans. Although data are limited to the responses of 7 students, findings can contribute to the enhancement of research assistantship opportunities as a means of developing skilled future researchers that in tum will benefit Canada as an emerging leader in research and development. The study is meant to serve as an informative source for (a) experienced researchers who have worked with research assistants; (b) researchers who are planning to hire research assistants; and (c) experienced and novice research assistants. Further, the study has the potential to inform future research training initiatives as well as related policies and practices.
Resumo:
DNA assembly is among the most fundamental and difficult problems in bioinformatics. Near optimal assembly solutions are available for bacterial and small genomes, however assembling large and complex genomes especially the human genome using Next-Generation-Sequencing (NGS) technologies is shown to be very difficult because of the highly repetitive and complex nature of the human genome, short read lengths, uneven data coverage and tools that are not specifically built for human genomes. Moreover, many algorithms are not even scalable to human genome datasets containing hundreds of millions of short reads. The DNA assembly problem is usually divided into several subproblems including DNA data error detection and correction, contig creation, scaffolding and contigs orientation; each can be seen as a distinct research area. This thesis specifically focuses on creating contigs from the short reads and combining them with outputs from other tools in order to obtain better results. Three different assemblers including SOAPdenovo [Li09], Velvet [ZB08] and Meraculous [CHS+11] are selected for comparative purposes in this thesis. Obtained results show that this thesis’ work produces comparable results to other assemblers and combining our contigs to outputs from other tools, produces the best results outperforming all other investigated assemblers.
Resumo:
Our perceptions of knowledge attainment have changed (Bezemer & Kress, 2010). The type of students our teachers once were is vastly different from the students they currently teach. We need our next generation to thrive in a dynamically, interactive world saturated with opportunities for meaning making (Kress & Selander, 2012). Our current students are responsible for continuing our society, but that does not mean we need them to become us (Gee, 2009). Rather desperately, we need them to be thinkers and expressive in a variety of modes. The world will be different when they take their rightful place as the next generation of leaders, and so too must their thinking be different (Cope & Kalantzis, 2000). This explanatory mixed-method study (Creswell, 2013; Mertens, 2014) involved an investigation into perceptions of new teachers regarding inclusive pedagogies like Universal Design for Learning (CAST, 2011). It specifically discusses the contemporary thinking of 44 new Ontario teachers regarding inclusive pedagogies in their teacher education as well as their relative intent to utilize them in their practice. This study reveals a distinct tone of skepticism and provides suggestions for the continued improvement of teacher education programs in this province.
Resumo:
Systemic Acquired Resistance (SAR) is a type of plant systemic resistance occurring against a broad spectrum of pathogens. It can be activated in response to pathogen infection in the model plant Arabidopsis thaliana and many agriculturally important crops. Upon SAR activation, the infected plant undergoes transcriptional reprogramming, marked by the induction of a battery of defense genes, including Pathogenesis-related (PR) genes. Activation of the PR-1 gene serves as a molecular marker for the deployment of SAR. The accumulation of a defense hormone, salicylic acid (SA) is crucial for the infected plant to mount SAR. Increased cellular levels of SA lead to the downstream activation of the PR-1 gene, triggered by the combined action of the Non-expressor of Pathogenesis-related Gene 1 (NPR1) protein and the TGA II-clade transcription factor (namely TGA2). Despite the importance of SA, its receptor has remained elusive for decades. In this study, we demonstrated that in Arabidopsis the NPR1 protein is a receptor for SA. SA physically binds to the C-terminal transactivation domain of NPR1. The two cysteines (Cys521 and Cys529), which are important for NPR1’s coactivator function, within this transactivation domain are critical for the binding of SA to NPR1. The interaction between SA and NPR1 requires a transition metal, copper, as a cofactor. Our results also suggested a conformational change in NPR1 upon SA binding, releasing the C-terminal transactivation domain from the N-terminal autoinhibitory BTB/POZ domain. These results advance our understanding of the plant immune function, specifically related to the molecular mechanisms underlying SAR. The discovery of NPR1 as a SA receptor enables future chemical screening for small molecules that activate plant immune responses through their interaction with NPR1 or NPR1-like proteins in commercially important plants. This will help in identifying the next generation of non-biocidal pesticides.
Resumo:
Ce mémoire propose une étude de la thématique hivernale dans les tableaux réalisés par Maurice Cullen (1864-1936) entre 1896 et 1914. Elle s’appuie sur une analyse des contextes politiques et culturels. Pour représenter les paysages enneigés canadiens, Cullen adapte quelques techniques modernes issues de l’impressionnisme, acquises lors de son premier séjour en Europe. Malgré cette influence artistique étrangère présente par l’emploi d’une palette de couleurs vives et de la touche divisée, le respect de la perspective et de la tridimensionnalité témoignent du maintien de certains principes académiques. L’usage de procédés impressionnistes permet à cet artiste de mettre en évidence les caractéristiques atmosphériques et lumineuses de son pays. Par l’application de ces procédés sur la représentation de la neige, Cullen participe ainsi à un travail de redécouverte et de valorisation du territoire. En effet, il privilégie plutôt l’expérience sensitive du territoire que le choix de la thématique des œuvres. L’ensemble des données visuelles et sensitives contenues dans ses œuvres a pour objectif de faire prendre conscience au spectateur de sa difficulté à se repérer au sein de son propre territoire et à accepter les rudes conditions climatiques inhérentes au Canada. Ce travail demeure impartial face au conflit identitaire opposant les francophones et les anglophones, bien qu’il intervienne dans les prémices de la mise en place d’une esthétique canadienne. Ce mémoire défend l’idée que Cullen renouvelle l’imagerie hivernale et s’inscrit dans les débuts du processus de création d’une iconographie nationale. Avec ses pairs, il s’engage à valoriser l’art local, et il ouvre une réflexion sur la représentation du territoire canadien, qui sera poursuivie par la génération suivante avec le Groupe des Sept.
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.
Resumo:
Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.
Resumo:
Nous avons mis au point une approche novatrice pour la synthèse d’un matériau de cathode pour les piles lithium-ion basée sur la décomposition thermique de l’urée. Les hydroxydes de métal mixte (NixMnxCo(1-2x)(OH)2) ont été préparés (x = 0.00 à 0.50) et subséquemment utilisés comme précurseurs à la préparation de l’oxyde de métal mixte (LiNixMnxCo(1-2x)O2). Ces matériaux, ainsi que le phosphate de fer lithié (LiFePO4), sont pressentis comme matériaux de cathode commerciaux pour la prochaine génération de piles lithium-ion. Nous avons également développé un nouveau traitement post-synthèse afin d’améliorer la morphologie des hydroxydes. L’originalité de l’approche basée sur la décomposition thermique de l’urée réside dans l’utilisation inédite des hydroxydes comme précurseurs à la préparation d’oxydes de lithium mixtes par l’intermédiaire d’une technique de précipitation uniforme. De plus, nous proposons de nouvelles techniques de traitement s’adressant aux méthodes de synthèses traditionnelles. Les résultats obtenus par ces deux méthodes sont résumés dans deux articles soumis à des revues scientifiques. Tous les matériaux produits lors de cette recherche ont été analysés par diffraction des rayons X (DRX), microscope électronique à balayage (MEB), analyse thermique gravimétrique (ATG) et ont été caractérisés électrochimiquement. La performance électrochimique (nombre de cycles vs capacité) des matériaux de cathode a été conduite en mode galvanostatique.
Resumo:
Notre étude est bipartite. En premier lieu nous avons effectué une étude empirique des différences entre les processus de catégorisation explicite (verbalisable) et implicite (non-verbalisable). Nous avons examiné la difficulté et le temps nécessaire pour apprendre trois tâches de catégorisation dites par air de famille, par règle logique conjonctive et par règle logique disjonctive. Nous avons ensuite utilisé un réseau neuronal pour modéliser la catégorisation en lui faisant compléter les mêmes tâches. La comparaison entre les deux nous permet de juger de l’adéquation du modèle. Les données empiriques ont montré un effet de la typicité et de la familiarité en accord avec la documentation et nous trouvons que la tâche de catégorisation par règle disjonctive est la plus difficile alors que la tâche de catégorisation par air de famille est la plus facile. La modélisation par le réseau est une réussite partielle mais nous présentons des solutions afin qu’un réseau futur puisse modéliser le processus catégoriel humain efficacement