999 resultados para Algorithme de recherche


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude explore la transformation des critères normatifs qui donnent accès au statut de femmes respectables à travers le concept de nouveau sujet féminin discuté par Radner (1999), Gill (2008; 2012) et McRobbie (1993; 2009) où l’idée de recherche active de « sexiness » chez les femmes à l’époque contemporaine est centrale. Le post-féminisme, une formation discursive qui émerge dans les années 1980, est identifié comme étant à l’origine de ces transformations. Cette position identitaire permettrait aux femmes de résister aux stigmates attachés à celles qui se posent comme sujet sexuel actif plutôt que comme objet sexuel passif et conduirait ainsi à l’« empowerment » sexuel. Or, cette vision du nouveau sujet féminin est contestée puisqu’elle ne représenterait qu’une seule possibilité d’émancipation à travers le corps et deviendrait par sa force normative un nouveau régime disciplinaire du genre féminin. L’interprétation valable à donner au nouveau sujet féminin représente un débat polarisé dans les milieux féministes et ce mémoire cherche à y apporter des éléments de discussion par l’étude des motivations des femmes à s’inscrire à des cours de pole-fitness et des significations qu’elles donnent à leur pratique. Ce mémoire apporte des éléments à la compréhension de l’impact de cette recherche de « sexiness » sur la subjectivité des femmes à travers les concepts de pratiques disciplinaires et stratégies de résistance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour objet de recherche le Marché commun du Sud (MERCOSUR) et le Brésil. La problématique est de comprendre pourquoi les États membres du MERCOSUR ne sont pas, à ce jour, parvenus à la création d’un marché commun dans le Cône Sud. Pour ce faire, nous pensons qu’en plus des causes généralement admises dans la littérature (asymétries, divergences d’intérêts et obstacles au niveau économique), il faut davantage mettre l’accent sur l’augmentation de la puissance du Brésil et les stratégies de recherche de l’autonomie. Les hypothèses avancées sont les suivantes : (1) la stratégie de recherche de l’autonomie par la participation a favorisée la création ainsi que l’approfondissement du MERCOSUR durant ses premières années d’existence; (2) la montée en puissance du Brésil et la stratégie de recherche de l’autonomie par la diversification qui en découle ont réduit l’importance du MERCOSUR pour le Brésil et miné l’approfondissement de cette institution d’intégration économique. Pour ce faire, nous analyserons en parallèle les différentes stratégies de recherche de l’autonomie ainsi que l’évolution du MERCOSUR. Nous utiliserons le PIB comme principal indicateur économique afin de témoigner de la montée en puissance du Brésil entre 1990 et 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse de doctorat présente les résultats d'un relevé spectropolarimétrique visant la détection directe de champs magnétiques dans le vent d'étoiles Wolf-Rayet (WR). Les observations furent entièrement obtenues à partir du spectropolarimètre ESPaDOnS, installé sur le télescope de l'observatoire Canada-France-Hawaii. Ce projet débuta par l'observation d'un étoile très variable de type WN4 appelée EZ CMa = WR6 = HD 50896 et se poursuivit par l'observation de 11 autres étoiles WR de notre galaxie. La méthode analytique utilisée dans cette étude vise à examiner les spectres de polarisation circulaire (Stokes V) et à identifier, au travers des raies d'émission, les signatures spectrales engendrées par la présence de champs magnétiques de type split monopole dans les vents des étoiles observées. Afin de pallier à la présence de polarisation linéaire dans les données de polarisation circulaire, le cross-talk entre les spectres Stokes Q et U et le spectre Stokes V fut modélisé et éliminé avant de procéder à l'analyse magnétique. En somme, aucun champ magnétique n'est détecté de manière significative dans les 12 étoiles observées. Toutefois, une détection marginale est signalée pour les étoiles WR134, WR137 et WR138 puisque quelques-unes de leur raies spectrales semblent indiquer la présence d'une signature magnétique. Pour chacune de ces trois étoiles, la valeur la plus probable du champ magnétique présent dans le vent stellaire est respectivement de B ~ 200, 130 et 80 G. En ce qui concerne les autres étoiles pour lesquelles aucune détection magnétique ne fut obtenue, la limite supérieure moyenne de l'intensité du champ qui pourrait être présent dans les données, sans toutefois être détecté, est évaluée à 500 G. Finalement, les résultats de cette étude ne peuvent confirmer l'origine magnétique des régions d'interaction en co-rotation (CIR) observées chez plusieurs étoiles WR. En effet, aucun champ magnétique n'est détecté de façon convaincante chez les quatre étoiles pour lesquelles la présence de CIR est soupçonnée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le contexte actuel de la distribution des soins de santé se caractérise par la présence d’inégalités frappantes en termes d’accès aux médicaments ou autres technologies thérapeutiques (appareils ou tests de diagnostic) à l’échelle mondiale. Cette distribution dépend de plusieurs facteurs politiques, sociaux, économiques, scientifiques et éthiques. Parmi les facteurs importants, l’innovation dans les milieux biomédical et pharmaceutique participe activement à l’établissement et à l’exacerbation des inégalités en santé mondiale. Dans cette thèse, nous présentons une étude basée sur le cas des technologies issues de la pharmacogénomique. Il est proposé que ces technologies soient susceptibles d’avoir un impact positif sur la santé publique à l’échelle mondiale en révolutionnant le modèle de développement et de distribution du médicament. Nous avons réalisé une évaluation du potentiel qu’offre l’application de ces technologies dans les domaines de la recherche biomédicale et pharmaceutique pour les populations des pays à faible et à moyen revenu. Nous démontrons que les efforts en recherche dans le domaine de la pharmacogénomique sont essentiellement dirigés vers les maladies affectant les populations des pays à revenu élevé. Par cela, le développement de la recherche dans ce domaine réplique le modèle du ratio 90/10 des inégalités en santé mondiale, où 90 % des médicaments produits accommode seulement 10 % de la population mondiale – soit celle des pays à revenu élevé. Il appert que le potentiel d’utilisation des technologies issues de la pharmacogénomique pour les populations des pays à faible et à moyen revenu nécessite alors une redéfinition des rôles et des responsabilités des acteurs en santé mondiale (les gouvernements, les organisations gouvernementales et non gouvernementales internationales et les compagnies pharmaceutiques). Nous proposons que cette redéfinition des rôles et des responsabilités des différents acteurs passe par l’adoption d’un cadre réflexif basé sur les principes éthiques de la justice, de l’équité et de la solidarité dans le développement de la recherche et l’implantation des nouvelles technologies -omiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse cible l’étude d’une organisation sociotechnique pluraliste, le Réseau de centres d’excellence ArcticNet, établi depuis 2003 au sein de l’Université Laval et financé par le programme fédéral des Réseaux de centres d’excellence (RCE). Ce programme, effectif depuis 1988, est issu d’une initiative du ministère de l’Industrie Canada et des trois Conseils fédéraux de financement de la recherche scientifique (CRSNG, CRSH et IRSC). Par sa dimension interdisciplinaire et interinstitutionnelle, le RCE ArcticNet sollicite la mise en place de divers accommodements sur une thématique environnementale controversée, celle du développement de l’Arctique canadien côtier. Notre approche se concentre sur la description de ces collaborations pluralistes et l’analyse des stratégies de consensus mises en place par une organisation universitaire médiatrice. Si cette étude illustre le cas d’ArcticNet, elle questionne toutefois deux réalités d’ensemble: (1) D’un point de vue théorique, prépondérant dans cette thèse, les enjeux environnementaux et de développement durable s’inscrivent dans les nouvelles réalités de la production des connaissances portées par une coévolution entre science et société, contribuant à l’expansion des domaines de R&D ciblés; et, (2) D’un point de vue empirique illustratif, les éléments de formation et d’évolution d’un réseau sociotechnique intersectoriel et les stratégies des scientifiques dans la recherche et le développement de l’Arctique canadien côtier présentent un profil basé sur l’accommodement des parties prenantes. Cette recherche adhère au postulat épistémologique des théories des organisations sociotechniques pluralistes, plutôt qu’aux modèles théoriques de la société/économie de la connaissance. L’étude regroupe un total de 23 entrevues recueillies en 2008 et en 2010 auprès de l’administration, de membres scientifiques et de partenaires d’ArcticNet, suivant une logique de témoignage. Elle ouvre ainsi une nouvelle réflexion sur leur milieu de pratique de la science, plus particulièrement des sciences de l’environnement, vers lequel la société actuelle oriente la nouvelle production des connaissances, à travers les divers financements de la recherche et du développement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème dedentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.