992 resultados para motivated
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Thèse présentée en cotutelle en vue de l’obtention des grades de Philosophiae Doctor (Ph.D.) en Sciences des Religions de l’Université de Montréal et de Docteur en Sociologie de l’École Pratique des Hautes Études Paris-Sorbonne
Resumo:
Une étude récente a démontré qu’une rétroaction orientée vers le changement (ROC) qui est empathique, accompagnée de choix de solutions et de trucs, basée sur des objectifs clairs et atteignables, exempte d’énoncés portant sur la personne et donnée sur un ton respectueux, contribue à soutenir l’autonomie des athlètes (Carpentier & Mageau, 2013). À travers trois articles scientifiques, cette thèse vise à (1) démontrer qu’une telle ROC, offerte en situation réelle d’entrainement, soutient l’autonomie, (2) mieux comprendre ses impacts et (3) explorer ses déterminants. Alors que les études précédentes ont utilisé les perceptions des athlètes afin de définir une ROC soutenant l’autonomie et d’évaluer ses conséquences, l’article 1 utilise le codage de vidéos. La qualité et la quantité de ROC donnée par 53 entraineurs ont été codées et leurs 310 athlètes ont rapporté leurs perceptions d’autonomie. Les résultats soutiennent les résultats d’études passées en démontrant qu’une ROC caractérisée par les six dimensions proposées par Carpentier et Mageau (2013) favorise l’autonomie. À l’opposé, la quantité de ROC est négativement liée à l’autonomie. L’article 2 vise à mieux comprendre les impacts de la ROC en s’intéressant aux variations intra-individuelles. Quarante-neuf athlètes ont complété, immédiatement après 15 entrainements (N = 534), un questionnaire évaluant la ROC reçue au cours de l’entrainement et diverses conséquences situationnelles. Des analyses multiniveaux démontrent que la qualité de la ROC est positivement liée à la qualité de l’expérience de l’athlète. À l’opposé, la quantité de ROC est négativement liée à la motivation autonome et au besoin de compétence. Finalement, l’article 3 s’intéresse à la passion des entraineurs ainsi qu’à leur perception de la motivation de leurs athlètes en tant que déterminants de la qualité et de la quantité de ROC donnée. Au total, 280 athlètes et 48 entraineurs ont rempli un questionnaire. Les résultats démontrent que plus les entraineurs ont une passion obsessive, moins leur ROC soutient l’autonomie des athlètes. Aussi, plus les entraineurs ont une passion obsessive et plus ils perçoivent leurs athlètes comme étant motivés, plus ils donnent de la ROC. Cette thèse contribue à l’avancement des connaissances sur la ROC, à la théorie de l’autodétermination, et à la formation des entraineurs.
Resumo:
Depuis les quatre dernières décennies, des publications célèbres analysent l’histoire, l’art et l’architecture de la psychiatrie de la fin du dix-neuvième siècle afin de dénoncer les aspects négatifs de la science psychiatrique : voyeurisme sur la personne du fou, déshumanisation de l’asile, autoglorification du psychiatre, abus de pouvoir. C’est ce regard à sens unique que j’ai voulu déjouer dans cette thèse en consacrant ma recherche aux œuvres produites en amont de cette période. Leur analyse a permis de prendre conscience de l’autre versant de la science psychiatrique, celui qui est philanthropique, bienveillant et animé d’un réel espoir de guérison. Mon objectif a été de construire, par l’analyse de ce domaine iconographique inédit ou négligé, une nouvelle histoire de la naissance de la psychiatrie, celle de sa culture visuelle. Une histoire qui révèle ses idéaux du début du siècle et les écarts à ses propres aspirations par son besoin de légitimation et de professionnalisation. Ma thèse propose une enquête épistémologique de l’histoire de l’aliénisme français, par le biais du discours porté par les œuvres d’art commandées par ses fondateurs. Le premier chapitre est consacré aux premiers asiles conçus comme le prolongement du corps du psychiatre et ils sont analysés selon les valeurs de la nouvelle science. Je me suis appliquée à y démontrer que le concept même d’asile, agissant sur nos sensations et sur notre cognition, relève autant des théories architecturales des Lumières que des besoins spécifiques de l’aliénisme. Le deuxième chapitre identifie, pour la première fois, un ensemble de portraits de la première génération d’aliénistes et de leurs disciples. J’argumente que ce corpus voulait imposer l’image de l’aliéniste comme modèle de raison et établir sa profession. Pour ce faire, il s’éloigne des premières représentations des aliénistes, paternalistes, et philanthropiques. Le troisième chapitre analyse les représentations des aliénés produites pour les traités fondateurs de la psychiatrie publiés en France. Le vecteur de mon analyse et le grand défi pour l’art et la science viennent de l’éthique des premiers psychiatres : comment représenter la maladie mentale sans réduire le malade à un être essentiellement autre ? Une première phase de production accorde à l’aliéné autonomie et subjectivité. Mais la nécessité d’objectiver le malade pour répondre aux besoins scientifiques de l’aliénisme a, à nouveau, relégué l’aliéné à l’altérité. Le sujet du quatrième et dernier chapitre est le cycle décoratif de la chapelle de l’hospice de Charenton (1844-1846), principal asile parisien de l’époque. J’y interroge comment l’art religieux a pu avoir un rôle face à la psychiatrie, en empruntant à l’iconographie religieuse sa force et sa puissance pour manifester l’autorité de l’aliéniste jusque dans la chapelle de l’asile. Le dix-neuvième siècle a été porteur d’espoirs en la reconnaissance de la liberté des êtres et de l’égalité des droits entre les personnes. Ces espoirs ont pourtant été déçus et les œuvres de l’aliénisme montrent un nouvel aspect de ces promesses non tenues envers les groupes fragilisés de la société, promesses de reconnaissance de leur subjectivité, de leur autonomie et de leur dignité.
Resumo:
Cette recherche s’intéresse au phénomène qu’est l’allongement de la durée des conventions collectives. Avant juin 1994, la durée maximale d’une convention collective était fixée à trois ans. La venue de la mondialisation a chamboulé les entreprises qui, elles, pour s’adapter et survivre à cette nouvelle réalité et demeurer compétitives, ont dû procéder à des investissements majeurs, des restructurations, miser sur des relations de partenariat avec les syndicats, etc. (Boivin, 1998). Pour ce faire, elles devaient s’assurer d’obtenir une stabilité et une paix industrielle (Grant et Paquet, 1998). C’est à ce moment que nous avons vu l’apparition d’ententes qui visaient à prolonger la durée maximale des conventions collectives, fixées à trois ans, sans contrevenir aux différentes dispositions du Code du travail (L.R.Q. c.C-27). Ces « contrats sociaux » devaient compter différentes caractéristiques particulières. C’est le 10 mai 1994 que le législateur québécois a déplafonné la durée des conventions collectives (Mayer, 1999). Tel qu’établi, les transformations au niveau de l’environnement ont poussé les acteurs à revoir leurs façons de faire. Cela a mené à une déconflictualisation des relations du travail (Jalette, Bourque et Laroche, 2008). Les acteurs ont adopté des stratégies de négociation de plus en plus coopératives, ils ont eu un recours accru à la concertation, et ont développé une relation de partenariat (Maschino et coll., 2001). Nous observons en parallèle à une tendance à l’allongement de la durée des conventions collectives. Nous nous questionnons à savoir ce qui a principalement motivé autant les syndicats à négocier ce type d’entente et ainsi, renoncer à leur droit de grève, et aussi quels sont les avantages ou inconvénients pour les employeurs de négocier de telles ententes. De manière plus spécifique, notre question de recherche est la suivante : Quels sont les effets de l’allongement de la durée des conventions collectives sur les relations du travail locales en entreprise? Notre analyse vise à vérifier six propositions de recherche : 1- Les relations du travail sont transformées par la durée d’une convention collective de travail, laquelle est influencée par l’environnement. 2- L’allongement de la durée des conventions collectives de travail amène les parties à davantage recourir à des stratégies de négociation intégrative. 3- L’allongement de la durée des conventions collectives de travail contribue à diminuer le nombre de conflits de travail 4- L’allongement de la durée des conventions collectives de travail change la nature des manifestations du conflit sur le marché du travail. 5- L’allongement de la durée des conventions collectives transforme le contenu des conventions collectives de travail par l’intégration de clauses nouvelles. 6- L’allongement de la durée des CCT diminue le rapport de force du syndicat. Dans le but de répondre à ces différents questionnements, nous avons utilisé une méthodologie qualitative de recherche et plus précisément, l’étude de cas. Cette dernière fut conduite en trois étapes : la préparation, la collecte de données et l’interprétation (Merriam, 1998). Les données de notre étude ont été colligées durant l’été et l’automne 2010. Tout d’abord, nous avons effectué des entretiens semi structuré à l’aide d’une grille d’entrevue. Cette grille d’entrevue fut adaptée en fonction des acteurs rencontrés, et surtout de la partie qu’ils représentent. Nous avons interrogé les acteurs tant patronaux que syndicaux, c’est-à-dire : du côté patronal, nous avons rencontré les responsables des relations du travail oeuvrant au siège social ainsi que les conseillers en relations du travail en charge de négocier ou d’appliquer la convention collective des différents établissements couverts par l’étude. Du côté syndical, nous avons rencontré les conseillers syndicaux en charge également de négocier la convention collective et de veiller à son application. Au total, nous avons mené onze entretiens. En guise de comparaison, nous avons aussi procédé à une analyse de contenu de 139 conventions collectives du secteur de l’alimentation. Nous cherchions à savoir si les conventions collectives de longue durée avaient tendance à comporter majoritairement une plus grande présence de clauses en lien avec les 7 caractéristiques des « contrats sociaux » mentionnées par Mayer (1999). Ces caractéristiques sont les suivantes : transparence économique et de gestion, participation à la gestion, programme de qualité totale, formation, flexibilité dans l’organisation du travail, stabilité de l’emploi et mécanismes de gestion de l’entente. Mots clés : allongement, durée, conventions collectives, relations du travail, loi 116, déplafonnement des conventions collectives, NBI et concertation.
Resumo:
L’objectif général de cette thèse de doctorat est de mieux comprendre comment le public interprète les nouvelles scientifiques portant sur la génétique humaine, plus précisément les nouvelles portant sur la génétique des comportements et celles portant sur la génétique des groupes raciaux. L’ouvrage prend la forme d’une thèse par article. Le Chapitre 1 introduit le lecteur aux buts et aux pratiques de la vulgarisation scientifique, présente un sommaire de la recherche sur les effets des médias, résume les principaux travaux produits par le champ de la génopolitique, et définit la structure des croyances du public à l’égard de l’influence de la génétique sur les traits humains. Le Chapitre 2 présente les fondements de la méthode expérimentale, il en explique les atouts et il offre des exemples de différents types de devis expérimentaux utilisés en science politique. Toutes les recherches produites dans cette thèse reposent au moins en partie sur cette méthode. Le Chapitre 3 présente les résultats d’une expérience de sondage qui vise à mesurer l’effet de la lecture d’une nouvelle à propos de la recherche en génétique des comportements sur des participants. L’étude démontre que le public interprète la nouvelle avec maladresse et tend à généraliser l’influence de la génétique à d’autres traits humains qui n’y sont pas mentionnés. J’avance l’hypothèse qu’un raccourci psychologique amplement documenté puisse expliquer cette réaction : l’heuristique de l’ancrage et de l’ajustement. Le Chapitre 4 présente lui aussi les résultats d’une expérience de sondage. L’étude consiste à manipuler certaines informations du contenu d’une nouvelle sur la génopolitique de manière à vérifier si certains éléments sont particulièrement susceptibles de mener à la généralisation hâtive mise en évidence dans le Chapitre 3. Les analyses suggèrent que cette généralisation est amplifiée lorsque la nouvelle présente de hauts niveaux d’héritabilité tirés d’études de jumeaux, ainsi que lorsqu’elle présente des travaux de génétique des populations visant à étudier l’origine des différences géographiques. Ce chapitre présente des recommandations à l’égard des journalistes scientifiques. Le Chapitre 5 s’intéresse à un aspect différent de la génétique humaine : celui de la génétique des races. L’objectif de cette recherche est de comprendre comment le public réagit aux travaux qui invalident l’idée selon laquelle les humains sont divisés en différentes races génétiquement distinctes. Les analyses de données transversales ainsi que les résultats d’une expérience de sondage convergent et indiquent que les conservateurs et les libéraux réagissent de manière diamétralement opposée à cette information. D’un côté, les libéraux acceptent le constat scientifique et réduisent leur impression que la génétique explique en partie les inégalités sociales; de l’autre, les conservateurs rejettent l’argument avec une intensité si forte que le rôle qu’ils attribuent aux différences génétiques s’en voit bonifié. Ces résultats sont interprétés à partir de la théorie du raisonnement motivé. Enfin, le Chapitre 6 résume les principaux constats, met en évidence les contributions que ma thèse apporte à la science politique et à la communication scientifique, et présente quelques pistes pour la recherche future.
Resumo:
L’histoire des relations franco-japonaises est source de bien des surprises pour les historiens, ces deux pays n’ayant, à première vue, que peu de raisons de se rapprocher. La France du Second Empire est l’une des premières puissances à se rendre au Japon et elle démontre rapidement un vif intérêt pour le développement du Japon. Dès la signature des premiers traités en 1859, la présence française se développe pour atteindre son sommet quelques années plus tard. Malgré les changements de régime au Japon et en France, cette présence restera forte jusqu’au début des années 1880, avant de décliner. Qu’est-ce qui explique cet intérêt? Et, surtout, qu’est-ce qui explique le désintérêt de la France après les années 1880? Il n’y a que quelques auteurs qui ont tenté d’y trouver des réponses, et celles-ci sont, à notre point de vue, peu concluantes: soit la France agit pour faire grandir son prestige, soit elle agit en fonction de ses représentants. Nous tenterons dans le présent travail de cerner et, si possible, de trouver en utilisant une variété de sources françaises une autre cause plus convaincante comme explication de la position française au Japon. Serait-ce le commerce qui a motivé la France au Japon, notamment à cause de la crise du ver à soie? Serait-ce la religion, avec toute la question des persécutions des chrétiens? Ou encore, est-ce une raison plus globale liée à la colonisation de l’Indochine? Afin d’y répondre, nous avons étudié avec minutie les archives du gouvernement français ainsi que les données économiques de l’époque, afin de cerner l’importance qu’ont eue certaines raisons, telles la crise de la soie, les persécutions religieuses et la présence française en Indochine, dans les décisions du gouvernement français.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Full Text / Article complet
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.
Resumo:
Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).
Resumo:
Ce mémoire a pour objectif de comprendre l’expérience de travail des agents œuvrant en réinsertion sociale auprès de condamnés provinciaux en collectivité au Québec. Plus précisément, cette recherche souhaite saisir le rôle exercé par ces agents, dans un contexte où ils exercent un double mandat de sécurité publique et de réinsertion sociale. L’étude tente aussi de mettre en lumière leurs pratiques de travail, inscrites dans une logique de gestion efficace des risques. Enfin, ce mémoire vise à comprendre la place qu’occupe la réinsertion sociale dans le cadre de leur travail. Pour ce faire, l’approche qualitative a permis de mener quinze (15) entretiens auprès d’agents de probation et d’intervenants issus du secteur communautaire responsables de la surveillance de justiciables provinciaux en collectivité. Deux (2) thèmes principaux émergent de ces entrevues. D’une part, Le travail est décrit par les participants en regard du double rôle exercé, des responsabilités légales et cliniques qui leur incombent, et de l’intervention centrée sur le risque et la réinsertion sociale auprès des contrevenants. D’autre part, Le contexte de travail réfère au partenariat établi entre les intervenants, au recours aux outils actuariels, ainsi qu’aux instances modulant leurs pratiques de travail : les médias, la Commission québécoise des libérations conditionnelles et les Services correctionnels du Québec. Il ressort de nos analyses que la sécurité publique par la gestion efficace des risques se manifeste par une forme de rationalisation des pratiques de travail et par l’intégration d’un rôle de contrôle. Il appert cependant que ces deux (2) aspects sont motivés avant tout par le désir de venir en aide à la population contrevenante. Il résulte finalement de l’étude que la réinsertion sociale ne constitue qu’un objectif de l’intervention parmi d’autres. Les participants doivent jongler avec ces diverses finalités afin de s’ajuster à l’acteur principal de leur travail : le contrevenant.
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.
Resumo:
L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées.
Resumo:
Ce projet de recherche a été réalisé avec la collaboration de FPInnovations. Une part des travaux concernant le problème de récolte chilien a été effectuée à l'Instituto Sistemas Complejos de Ingeniería (ISCI) à Santiago (Chili).