721 resultados para Approche spectrale


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un système multi-agents est composé de plusieurs agents autonomes qui interagissent entre eux dans un environnement commun. Ce mémoire vise à démontrer l’utilisation d’un système multi-agents pour le développement d’un jeu vidéo. Tout d’abord, une justification du choix des concepts d’intelligence artificielle choisie est exposée. Par la suite, une approche pratique est utilisée en effectuant le développement d’un jeu vidéo. Pour ce faire, le jeu fut développé à partir d’un jeu vidéo mono-agent existant et mo- difié en système multi-agents afin de bien mettre en valeur les avantages d’un système multi-agents dans un jeu vidéo. Le développement de ce jeu a aussi démontré l’applica- tion d’autres concepts en intelligence artificielle comme la recherche de chemins et les arbres de décisions. Le jeu développé pour ce mémoire viens appuyer les conclusions des différentes recherches démontrant que l’utilisation d’un système multi-agents per- met de réaliser un comportement plus réaliste pour les joueurs non humains et bien plus compétitifs pour le joueur humain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tant auprès des chercheurs que des praticiens, la socialisation organisationnelle semble représenter un sujet d’intérêt à l’heure actuelle (Fang, Duffy, & Shaw, 2011). Dans cette lignée, la présente thèse cherche à approfondir notre compréhension de la socialisation organisationnelle, afin d’en dresser un portrait plus complet et étayé, mais aussi d’y arrimer des pratiques porteuses pour les organisations et leurs employés. Plus précisément, les aspects relationnels inhérents au vécu des nouveaux employés, largement ignorés à ce jour dans la documentation (Ashforth, Sluss, & Harrison, 2007), sont examinés à partir de données recueillies à trois temps de mesure distincts auprès d’un échantillon de 224 nouveaux employés. Avec comme point de départ la théorie de l’échange social (Blau, 1964) et le concept de confiance affective (McAllister, 1995), le premier des deux articles qui composent la thèse démontre que, par rapport aux approches dites classiques (i.e., exprimant une vision cognitive de la socialisation organisationnelle), une approche relationnelle de la socialisation organisationnelle permet de mieux rendre compte du lien psychologique qui s’établit entre les nouveaux employés et l’organisation, alors que les approches cognitives classiques sont davantage explicatives de la performance des employés. Les deux approches semblent donc complémentaires pour expliquer l’adaptation des nouveaux employés. Le second article s’appuie sur la démonstration effectuée dans le premier article et cherche à approfondir davantage les aspects relationnels inhérents au vécu des nouveaux employés, de même que leur influence sur l’adaptation de ces derniers. À cette fin, la théorie de la conservation des ressources (Hobfoll, 1989) est considérée et l’engagement affectif (Meyer & Herscovitch, 2001) est mis de l’avant comme concept focal. Les résultats suggèrent que l’engagement affectif envers le supérieur compense pour un déclin de l’engagement affectif envers l’organisation, tel qu’il résulte d’un bris de la relation avec l’organisation. Les relations semblent donc, dans certaines circonstances, avoir une portée qui dépasse leurs protagonistes directs. La présente thèse démontre donc que les aspects relationnels inhérents au vécu des nouveaux employés ont une influence distincte, prépondérante et complexe sur leur adaptation en emploi. Ce faisant, elle s’insère dans un courant de recherche visant à remettre à l’avant-plan et mieux comprendre la sphère relationnelle dans les organisations (Ragins & Dutton, 2007). Les implications théoriques et pratiques qui en découlent seront discutées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Étude de cas / Case study

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire est essentiellement une revue de littérature critique, comparative et complémentariste de quelques-unes des grandes théories de la révolution. L’auteur cherche, à travers le cas particulier de la révolution, à mieux cerner certains enjeux cruciaux de changements sociaux. Il s’interroge, notamment, sur la nature et l’importance du projet révolutionnaire en relation avec la mobilisation et l’issue révolutionnaire. La majeure partie du mémoire est consacré à la constitution d’un portrait des théories dites « classique », celle de Marx, Moore, Gurr, Tilly, Johnson, Wallace, Brinton, puis celle, originale et méconnue, du religiologue Jean-Jacques Dubois. Après en avoir tiré les thématiques essentielles, l’auteur tente une comparaison critique et discute de la pertinence épistémique de chacun des concepts. Dans une perspective synthétique, il entreprend finalement d’en combler les lacunes en s’intéressant à leurs aspects complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle, sous la direction de M. Philippe Despoix (Université de Montréal) et de M. Michel Marie (Université Sorbonne Nouvelle-Paris 3)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte: Le Bénin est atteint par le double fardeau nutritionnel : dans le même pays, et parfois dans le même ménage, il y a des personnes malnutries et d’autres aux prises avec des maladies chroniques. Ces conditions, au moins pour partie, peuvent être prévenues si la population est sensibilisée à de bonnes habitudes alimentaires. Pour ce faire, les professionnels de la santé ont besoin d’outils comme un guide alimentaire (GA) pour faciliter l’apprentissage de bonnes pratiques alimentaires. Ce dernier nécessite plusieurs étapes à son élaboration, dont la définition des groupes alimentaires, la présentation visuelle et la quantification des portions d'aliments. Objectif : Ce travail a eu pour but de proposer et d’homologuer des portions quotidiennes d’aliments dans chaque groupe alimentaire pour différents groupes d’âge de Béninois. Méthode : Elle consiste à : 1) Caractériser la consommation alimentaire locale; 2) Optimiser le profil moyen de consommation alimentaire quotidienne à l’aide de la programmation linéaire (PL); 3) Traduire les résultats en termes de nombre et taille de portions d’aliments de chaque groupe à consommer quotidiennement; 4) Illustrer les recommandations au moyen d’exemples de menus journaliers; 5) Homologuer le prototype du GA avec des experts béninois. La PL a permis de déterminer les choix d’aliments et quantités optimales à recommander à partir des enquêtes transversales récentes et des recommandations nutritionnelles de l’OMS. Résultats : Les quantités et portions d'aliments recommandées à la consommation ont été déterminées. Les résultats ont été partagés avec les personnes-ressources en nutrition au Bénin. Le premier prototype du GA a été développé pour restitution subséquente aux autorités du Bénin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire constitue une tentative de circonscrire - par l’étude d’un corpus textuel principalement emprunté à l’œuvre vernaculaire (allemande) de Maître Eckhart de Hochheim (1260-1328) – le rôle joué par certains motifs conceptuels caractérisant la notion moderne de sujet-agent au sein de la pensée de ce philosophe, théologien et prédicateur. Plus précisément, il y est question de déterminer en quoi le « je » (ich) décrit en plusieurs lieux textuels de l’œuvre d’Eckhart présente les caractères d’autonomie et de transparence à soi qui sont l’apanage de la subjectivité telle que la conçoit majoritairement une certaine modernité postcartésienne. Notre argument, qui se déploie sur trois chapitres, adopte sur le corpus faisant l’objet de cette étude et la conceptualité qu’il déploie, trois perspectives différentes – lesquelles perspectives sont respectivement d’ordre ontologique (premier chapitre), existentiel ou éthique (second chapitre) et anthropologique (troisième chapitre). La première approche – ontologique – explicite le sens que donne Eckhart aux notions d’être, de néant, d’intellect et d’image, ainsi que la manière dont elles se définissent dialectiquement en rapport les unes avec les autres. Le second chapitre, dont l’approche est existentielle, expose les applications éthiques des concepts abordés au chapitre précédent, analysant la méthode de détachement prescrite par Eckhart pour parvenir à l’état de béatitude. Le troisième et dernier chapitre cherche, quant à lui, à définir de quelle manière l’homme se définit par rapport à l’union à laquelle l’invite Eckhart, et ce autant sur le plan spécifique que sur le plan individuel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comment concevoir la sécurité et le conflit violent d’aujourd’hui ? Cette étude traite de la pertinence de l’étude des questions environnementales au champ de la gouvernance de la sécurité dans le cadre de la consolidation de la paix. Ainsi, nous cherchons à décrire les liens entre les enjeux environnementaux, la sécurité et le conflit violent, à étudier le potentiel des projets environnementaux pour la gouvernance de la sécurité, de présenter les recommandations pour améliorer la durabilité de ces interventions, tout en considérant la question des écophilosophies. Nous avons opté pour des données de type qualitatif, soit sept entrevues semi-directives réalisées avec des professionnels du domaine des opérations de paix, quatre webémissions et neuf documents écrits. Toutes ont été traitées selon les directives de la théorie ancrée. Notre analyse démontre une interdépendance entre la détérioration environnementale, la sécurité et la dynamique des conflits armés. À l’instar de cette interaction, la « coopération environnementale » et la gestion des ressources naturelles serviraient à établir un dialogue entre les belligérants dans un objectif de bâtir la confiance, mais aussi à promouvoir le développement durable. La participation citoyenne constituerait un facteur incontournable pour développer la résilience des populations et des institutions face aux changements environnementaux et sociaux rapides et par conséquent favoriserait une sécurité humaine plus stable. Or, les réformes de gouvernance de la sécurité demandent une plus grande intégration de la population. Pour conclure, nous avons produit un modèle d’intégration des questions environnementales dans le but d’améliorer la gouvernance de la sécurité dans le cadre de consolidation de la paix en milieux postconflits. Sous forme de six énoncés pratiques, nous expliquons l’importance d’imbriquer les concepts de sécurité humaine et environnementale, d’exploiter les opportunités que présentent les situations d’interdépendances, de considérer davantage les interventions locales, d’adopter une approche participative, d’utiliser la coopération environnementale et de privilégier les approches stratégiques amenant à des solutions gagnantes pour tous.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour but de caractériser la conception moderniste du nationalisme chez la sociologue américaine Liah Greenfeld. Celle-ci fait une contribution significative à la littérature sur le nationalisme, notamment par son approche pluridisciplinaire que l'on peut diviser en trois axes principaux : philosophique, historique et psychologique. Le mémoire propose donc une synthèse de l'œuvre de l'auteure tout en accordant comme il se doit une place prépondérante à l'axe philosophique de sa pensée. On définira dans un premier temps la conception «mentaliste» et empiriste du monde que Greenfeld développe et qui est inspirée de Max Weber, en prenant le temps de distinguer celle-ci des autres conceptions canoniques (idéalisme, réalisme, structuralisme, etc.). Cela permettra d'établir sur des bases philosophiques et sociologiques solides la conception de la nation et du nationalisme de Greenfeld, tout en démontrant que le nationalisme est selon elle l'élément fondamental qui caractérise la modernité. On analysera ensuite les différents types de nationalismes mentionnés par la sociologue, en soulignant l'importance qu'elle accorde à la composante économique du nationalisme. On terminera en soulevant les enjeux philosophiques qui se trouvent au cœur de la description historiciste et psychologisante que fait Greenfeld pour analyser l'émergence, le déploiement et la perpétuation du nationalisme dans le monde à travers différentes nations modernes (principalement Angleterre, France, Russie, États-Unis, Allemagne). Le mémoire se termine en soulevant quelques critiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.