968 resultados para approche McGill


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire est essentiellement une revue de littérature critique, comparative et complémentariste de quelques-unes des grandes théories de la révolution. L’auteur cherche, à travers le cas particulier de la révolution, à mieux cerner certains enjeux cruciaux de changements sociaux. Il s’interroge, notamment, sur la nature et l’importance du projet révolutionnaire en relation avec la mobilisation et l’issue révolutionnaire. La majeure partie du mémoire est consacré à la constitution d’un portrait des théories dites « classique », celle de Marx, Moore, Gurr, Tilly, Johnson, Wallace, Brinton, puis celle, originale et méconnue, du religiologue Jean-Jacques Dubois. Après en avoir tiré les thématiques essentielles, l’auteur tente une comparaison critique et discute de la pertinence épistémique de chacun des concepts. Dans une perspective synthétique, il entreprend finalement d’en combler les lacunes en s’intéressant à leurs aspects complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle, sous la direction de M. Philippe Despoix (Université de Montréal) et de M. Michel Marie (Université Sorbonne Nouvelle-Paris 3)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte: Le Bénin est atteint par le double fardeau nutritionnel : dans le même pays, et parfois dans le même ménage, il y a des personnes malnutries et d’autres aux prises avec des maladies chroniques. Ces conditions, au moins pour partie, peuvent être prévenues si la population est sensibilisée à de bonnes habitudes alimentaires. Pour ce faire, les professionnels de la santé ont besoin d’outils comme un guide alimentaire (GA) pour faciliter l’apprentissage de bonnes pratiques alimentaires. Ce dernier nécessite plusieurs étapes à son élaboration, dont la définition des groupes alimentaires, la présentation visuelle et la quantification des portions d'aliments. Objectif : Ce travail a eu pour but de proposer et d’homologuer des portions quotidiennes d’aliments dans chaque groupe alimentaire pour différents groupes d’âge de Béninois. Méthode : Elle consiste à : 1) Caractériser la consommation alimentaire locale; 2) Optimiser le profil moyen de consommation alimentaire quotidienne à l’aide de la programmation linéaire (PL); 3) Traduire les résultats en termes de nombre et taille de portions d’aliments de chaque groupe à consommer quotidiennement; 4) Illustrer les recommandations au moyen d’exemples de menus journaliers; 5) Homologuer le prototype du GA avec des experts béninois. La PL a permis de déterminer les choix d’aliments et quantités optimales à recommander à partir des enquêtes transversales récentes et des recommandations nutritionnelles de l’OMS. Résultats : Les quantités et portions d'aliments recommandées à la consommation ont été déterminées. Les résultats ont été partagés avec les personnes-ressources en nutrition au Bénin. Le premier prototype du GA a été développé pour restitution subséquente aux autorités du Bénin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire constitue une tentative de circonscrire - par l’étude d’un corpus textuel principalement emprunté à l’œuvre vernaculaire (allemande) de Maître Eckhart de Hochheim (1260-1328) – le rôle joué par certains motifs conceptuels caractérisant la notion moderne de sujet-agent au sein de la pensée de ce philosophe, théologien et prédicateur. Plus précisément, il y est question de déterminer en quoi le « je » (ich) décrit en plusieurs lieux textuels de l’œuvre d’Eckhart présente les caractères d’autonomie et de transparence à soi qui sont l’apanage de la subjectivité telle que la conçoit majoritairement une certaine modernité postcartésienne. Notre argument, qui se déploie sur trois chapitres, adopte sur le corpus faisant l’objet de cette étude et la conceptualité qu’il déploie, trois perspectives différentes – lesquelles perspectives sont respectivement d’ordre ontologique (premier chapitre), existentiel ou éthique (second chapitre) et anthropologique (troisième chapitre). La première approche – ontologique – explicite le sens que donne Eckhart aux notions d’être, de néant, d’intellect et d’image, ainsi que la manière dont elles se définissent dialectiquement en rapport les unes avec les autres. Le second chapitre, dont l’approche est existentielle, expose les applications éthiques des concepts abordés au chapitre précédent, analysant la méthode de détachement prescrite par Eckhart pour parvenir à l’état de béatitude. Le troisième et dernier chapitre cherche, quant à lui, à définir de quelle manière l’homme se définit par rapport à l’union à laquelle l’invite Eckhart, et ce autant sur le plan spécifique que sur le plan individuel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comment concevoir la sécurité et le conflit violent d’aujourd’hui ? Cette étude traite de la pertinence de l’étude des questions environnementales au champ de la gouvernance de la sécurité dans le cadre de la consolidation de la paix. Ainsi, nous cherchons à décrire les liens entre les enjeux environnementaux, la sécurité et le conflit violent, à étudier le potentiel des projets environnementaux pour la gouvernance de la sécurité, de présenter les recommandations pour améliorer la durabilité de ces interventions, tout en considérant la question des écophilosophies. Nous avons opté pour des données de type qualitatif, soit sept entrevues semi-directives réalisées avec des professionnels du domaine des opérations de paix, quatre webémissions et neuf documents écrits. Toutes ont été traitées selon les directives de la théorie ancrée. Notre analyse démontre une interdépendance entre la détérioration environnementale, la sécurité et la dynamique des conflits armés. À l’instar de cette interaction, la « coopération environnementale » et la gestion des ressources naturelles serviraient à établir un dialogue entre les belligérants dans un objectif de bâtir la confiance, mais aussi à promouvoir le développement durable. La participation citoyenne constituerait un facteur incontournable pour développer la résilience des populations et des institutions face aux changements environnementaux et sociaux rapides et par conséquent favoriserait une sécurité humaine plus stable. Or, les réformes de gouvernance de la sécurité demandent une plus grande intégration de la population. Pour conclure, nous avons produit un modèle d’intégration des questions environnementales dans le but d’améliorer la gouvernance de la sécurité dans le cadre de consolidation de la paix en milieux postconflits. Sous forme de six énoncés pratiques, nous expliquons l’importance d’imbriquer les concepts de sécurité humaine et environnementale, d’exploiter les opportunités que présentent les situations d’interdépendances, de considérer davantage les interventions locales, d’adopter une approche participative, d’utiliser la coopération environnementale et de privilégier les approches stratégiques amenant à des solutions gagnantes pour tous.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour but de caractériser la conception moderniste du nationalisme chez la sociologue américaine Liah Greenfeld. Celle-ci fait une contribution significative à la littérature sur le nationalisme, notamment par son approche pluridisciplinaire que l'on peut diviser en trois axes principaux : philosophique, historique et psychologique. Le mémoire propose donc une synthèse de l'œuvre de l'auteure tout en accordant comme il se doit une place prépondérante à l'axe philosophique de sa pensée. On définira dans un premier temps la conception «mentaliste» et empiriste du monde que Greenfeld développe et qui est inspirée de Max Weber, en prenant le temps de distinguer celle-ci des autres conceptions canoniques (idéalisme, réalisme, structuralisme, etc.). Cela permettra d'établir sur des bases philosophiques et sociologiques solides la conception de la nation et du nationalisme de Greenfeld, tout en démontrant que le nationalisme est selon elle l'élément fondamental qui caractérise la modernité. On analysera ensuite les différents types de nationalismes mentionnés par la sociologue, en soulignant l'importance qu'elle accorde à la composante économique du nationalisme. On terminera en soulevant les enjeux philosophiques qui se trouvent au cœur de la description historiciste et psychologisante que fait Greenfeld pour analyser l'émergence, le déploiement et la perpétuation du nationalisme dans le monde à travers différentes nations modernes (principalement Angleterre, France, Russie, États-Unis, Allemagne). Le mémoire se termine en soulevant quelques critiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les archives sont aujourd’hui utilisées et envisagées hors de leur lieu traditionnel qu’est le service d’archives et souvent même hors de l’action des archivistes. Cette thèse de doctorat propose un renversement dialectique benjaminien dans la conception de l’archivistique dont le point central devient l’utilisation des archives définitives plutôt que la production des documents. Les premiers chapitres retracent les différentes compréhensions des archives depuis la création des institutions nationales au 19e siècle jusqu’au renouvellement opéré par certains archivistes se réclamant de la postmodernité à la fin du 20e siècle. Cette histoire des archives et de l’archivistique montre que les archives définitives sont caractérisées au regard du rapport au passé qu’elles permettent et que les archivistes pensent leur objet depuis la question historiographique de l’écriture de l’histoire. Ainsi, deux conceptions générales des archives coexistent aujourd’hui et apparaissent comme essentiellement contradictoires en ce que l’une (traditionnelle) est centrée sur le créateur des documents et le passé compris comme l’ensemble des actes posés par le créateur, tandis que l’autre (postmoderne) se fonde sur les fonctions sociales des archives et sur le rôle de l’archiviste. L’élément commun à ces deux visions est l’absence de prise en charge théorique des utilisateurs et de l’exploitation des documents. Or, en suivant les traces et la pensée de Walter Benjamin, nous proposons de penser la double nature des archives comme documents et comme témoignage tout en articulant cette pensée à l’archive comme modalité d’inscription de soi dans le temps. Il en ressort que les archives peuvent être considérées comme une objectivation du passé relevant d’une temporalité chronologique au cœur de laquelle réside, à l’état latent, l’archive potentiellement libératrice. L’exploitation artistique des archives, telle qu’elle est présentée dans le cinquième chapitre, montre comment la notion d’archives explose. En outre, l’observation de ce type particulier d’exploitation permet de mettre au jour le fait que les archives sont toujours inscrites dans des conditions d’utilisation (contexte, matérialité, dispositif, rapport au public) qui sont autant de conditions d’existence de l’archive. Parmi les questions abordées par les artistes celles de la mémoire, de l’authenticité, des archives comme moyen d’appropriation du monde et comme objet poétique sont alors autant de points d’entrée possibles pour revisiter l’archivistique. Le dernier chapitre synthétise l’ensemble des renouvellements proposés au fil de la thèse de manière implicite ou explicite. Nous y envisageons une temporalité non chronologique où les archives sont un objet du passé qui, saisi par un présent dialectique singulier, sont tournées à la fois vers le passé et vers l’avenir. De nouvelles perspectives sont ouvertes pour l’archivistique à partir des caractéristiques assignées aux archives par les artistes. Finalement, c’est le cycle de vie des archives qui peut être revu en y incluant l’exploitation comme dimension essentielle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose une étude de la théorie de l’individualité biologique développée par Turner, des problèmes inhérents à celle-ci ainsi qu’une approche qui permet de surmonter les problèmes de la théorie de Turner tout en prenant en compte les aspects importants de cette dernière. Nous montrerons en premier lieu pourquoi, selon Turner, l’individualité est une question écologique et que l’individu ne peut être compris sans ses parties abiotiques si celles-ci jouent un rôle dans la fonctionnalité de l’individu. Par la suite, nous démontrerons que l’approche de Turner est sujette au problème du paradigme développé par Haber. Enfin, en s’inspirant de la théorie de l’individualité de Dupré et O’Malley et de leurs études sur les bactéries, nous forgerons une nouvelle théorie portée sur la fonctionnalité, qualifiée d’approche méréologique, qui surmonte les problèmes exposés tout en prenant en compte le rôle que les parties abiotiques jouent dans le fonctionnement de l’individu.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation des sciences infirmières