1000 resultados para Modèle théorique
Resumo:
Essai critique de stage
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Deux paradigmes se côtoient dans le traitement de la dépendance au Québec. Tout d’abord, il y a le paradigme de l’abstinence avec un modèle d’intervention souvent basé sur les Alcooliques Anonymes. Avec ce modèle, l’alcoolisme (ou la toxicomanie) est défini comme une maladie. En ce qui a trait à la réduction des méfaits, cette dernière vise la réduction des effets néfastes de l’usage de drogues plutôt que l’élimination de leur usage (Brisson, 1997). Nous nous sommes intéressés à une intervention inscrite dans ce paradigme soit le programme de substitution à la méthadone. Cette étude avait comme but de connaître les perceptions de personnes inscrites à ce programme, comprendre comment est vécu le rétablissement à travers la participation au programme et connaître les perceptions de ces personnes en ce qui a trait aux conséquences de la dépendance. Un cadre théorique s’inscrivant dans la perspective de l’interactionnisme symbolique a été choisi. Plus précisément, les processus de transformations normatives de Maria Caiata Zufferey, la théorie de l’étiquetage d’Howard Becker et le concept de stigmate d’Erving Goffman ont été retenus. Ensuite, dix entrevues semi-dirigées auprès d’hommes et de femmes majeures inscrites à un programme de substitution à la méthadone ont été réalisées. En ce qui a trait au chapitre portant sur les résultats, il a mis en lumière différents rapports à la méthadone vécus par les participants. Pour ce faire, trois figures construites à l’aide de l’analyse typologique ont été développées. Il ressort que pour certaines personnes, la méthadone fut décrite comme un substitut nécessaire, pour d’autres, elle correspondait à une aide dont ils veulent se débarrasser et pour une minorité, elle suscitait de l’ambivalence. En définitive, bien que la substitution demeure le traitement de choix pour la dépendance aux opioïdes, il est difficile de parler de sortie du monde de la drogue à l’aide de la méthadone puisque ce traitement apparaît comme étant presque aussi stigmatisé que la dépendance à l’héroïne (Lauzon, 2011). À première vue, la méthadone permet de prendre une distance avec le monde de la drogue (l’argent facile, les vols, la prostitution) et permet de se reconstruire une existence sur la base de repères stables, mais à bien considérer les choses, elle confine les personnes interrogées dans une situation d’ambivalence puisqu’elle les rattache à une identité de toxicomane. Mots-clés : dépendance, programme de substitution à la méthadone, perception, participant, réduction des méfaits, stigmatisation.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
« Derniers instants », première partie de ce mémoire, est un roman dont la protagoniste, une octogénaire issue d’une famille aux valeurs traditionnelles, refuse de se conformer aux idéologies d’une société patriarcale, comme sa mère, sa grand-mère et toutes les femmes qui les ont précédées l’ont fait avant elle. C’est une démarche créative inspirée par la restitution de la part des femmes dans l’histoire, depuis l’avènement des études féministes. Un regard a posteriori, une relecture de l’expérience féminine. Dans la deuxième partie, « Modèle familial et filiations dans Fugueuses de Suzanne Jacob », je m’intéresse à la fonction que Jacob attribue à l’écrivain. En effet, pour l’auteure, chaque individu est un lecteur du monde. Le rapport dialogique qu’elle établit entre le texte littéraire et les « fictions dominantes » rend compte de sa démarche créative, c’est-à-dire l’écriture comme l’aboutissement d’une lecture singulière des évidences, de l’entendu, du ce-qui-va-de-soi.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
Au cours de la dernière décennie, le secteur manufacturier québécois a subi d’importantes transformations. La mondialisation ayant amené les entreprises à restructurer leurs activités, 96% des établissements manufacturiers québécois ont choisi d’avoir recours à la sous-traitance (Jalette, 2004). Or, nous savons que l’octroi de contrats en sous-traitance est un processus qui se révèle parfois décevant pour les entreprises. En raison de l’évolution de certains facteurs organisationnels internes ou externes qui contribue à changer le contexte au sein duquel les décisions de sous-traitance avaient été prises initialement (ex. : augmentation des coûts de main-d’œuvre et de transport, changements technologiques), il arrive que les entreprises renversent les décisions de sous-traitance par une décision d’internalisation (OCDE, 2013). Le concept d’internalisation réfère ici à l’action d’une entreprise de ramener vers un établissement des activités de production qui avaient été antérieurement transférées en dehors de celui-ci, et ce, que ce soit en raison d’une sous-traitance d’activités à une entreprise indépendante ou d’une délocalisation au sein d’un autre établissement de l’entreprise (Jalette & Chevance, 2008). La présente étude a pour objectif d’expliquer la décision managériale d’internalisation par le biais des dynamiques sociales inhérentes aux relations industrielles, en allant au-delà des seuls facteurs économiques. L’effet sur l’internalisation de quatre variables indépendantes liées aux relations industrielles est étudié, soit la capacité stratégique du syndicat local, la solidarité interne de l’acteur syndical local et sa solidarité externe, ainsi que le climat des relations patronales-syndicales. La typologie des positions syndicales de Jalette (2005), le modèle des ressources de pouvoir syndicales de Lévesque et Murray (2003) et les travaux de Dastmalchian (2008) traitant du climat des relations industrielles constituent le cadre théorique de cette recherche. La présente étude utilise des données recueillies dans le cadre d’une enquête par questionnaire réalisée en 2005 auprès de présidents de syndicats locaux affiliés à la CSD et à la FTQ qui œuvrent dans le secteur manufacturier québécois. L’étude révèle que 24% des syndicats locaux sondés ont vécu l’internalisation d’activités antérieurement sous-traitées dans les deux années précédentes au sondage. De plus, les résultats sont à l’effet que les chances d’internalisation d’activités augmentent lorsque plusieurs stratégies et actions visant l’internalisation sont adoptées par le syndicat local, lorsque la vie syndicale d’un syndicat local s’améliore et lorsque le temps de libération syndicale d’un syndicat local augmente. Toutefois, les chances d’internalisation d’activités diminuent lorsque le rapport de force d’un syndical local augmente. L’internalisation d’activités diminue également lorsque le climat des relations du travail se détériore. Bref, les résultats de cette recherche montrent que les syndicats n’ont pas qu’à subir la mondialisation et que, par leurs actions, ils sont à même d’en influencer le cours, notamment en favorisant l’internalisation d’activités antérieurement confiées en sous-traitance.
Resumo:
Le monde du travail connaît actuellement de grandes transformations. Le modèle nord-américain d’organisation syndicale ne semble plus permettre au mouvement syndical de répondre efficacement à ces transformations, favorisant le développement de plusieurs initiatives de renouveau syndical. Pour évaluer les impacts d’initiatives de renouveau syndical, nous avons développé un modèle basé sur le concept de zone syndicale (Haiven, 2003, 2006). Nous avons dû déterminer les facteurs définissant la zone syndicale, comme la littérature était muette à ce sujet. En utilisant d’abord la théorie des déterminants de la densité syndicale (Schnabel, 2003), nous avons intégré au modèle les éléments de la théorie des ressources du pouvoir syndical (Lévesque et Murray, 2010) pour considérer les facteurs internes aux syndicats qui influencent la zone syndicale. L’intégration de ces trois théories dans un modèle unifié constitue une innovation théorique significative. Le modèle a été appliqué à deux centres de travailleurs : le Vermont Workers Center et le Centre des Travailleurs de St-Rémi. Dans les deux cas, ces initiatives ont permis d’élargir la zone syndicale. Par contre, le Centre du Vermont applique les principes du syndicalisme communautaire, en cherchant à développer du leaderhsip chez ses membres (Cranford et Ladd, 2013), alors que celui de St-Rémi applique un syndicalisme de mobilisation, où le leadership s’exerce par les organisateurs syndicaux (Camfield, 2007). Cette différence et leurs différents mandats font que les impacts des deux cas étudiés diffèrent. D’autres études sont nécessaires pour améliorer le modèle proposé. Ce dernier demeure malgré tout un outil pour les chercheurs ou les syndicats qui veulent évaluer des initiatives ou des pratiques syndicales et permettre, à terme, d’augmenter l’influence du mouvement syndical sur le marché du travail et la société.
Resumo:
Cette recherche, par une approche deleuzienne – mais aussi inspirée des écrits de Guattari, Foucault, Bergson et Massumi –, vise à approfondir le bagage théorique associé au concept de résistance. En abordant les notions de néolibéralisme, de démocratie et de société de contrôle, une conceptualisation particulière du pouvoir est développée : non pas un biopouvoir – ayant force sur la vie – mais un ontopouvoir – ayant force de vie. À travers l’étude micropolitique du mouvement de contestation Occupy (2011), les concepts d’affect, d’événement, de préfiguration, de devenir, de structure et de consensus sont travaillés, et des possibilités résistantes sont cartographiées et théorisées. En somme, cette synthèse conceptuelle élabore une forme de résistance radicalement autre que celles préconisées par la démocratie (néo)libérale représentative ou la politique identitaire : une résistance intrinsèquement créative tournée vers ce qui n’existe pas encore.