997 resultados para Bayésien de modèles
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
Cette thèse doctorale poursuit l’objectif de mieux comprendre le rôle joué par la culture organisationnelle en tant que déterminant des problèmes de santé mentale dans la main-d’œuvre. Ceci, dans un contexte où les organisations font face à plusieurs défis importants pouvant affecter leur survie et pérennité, mais surtout face aux coûts directs et indirects reliés à ce type de problèmes qui ne cessent d’augmenter. Cette thèse fut également inspirée par les nombreuses limites constatées à la suite d’une revue de la littérature sur la santé mentale au travail, alors que les principaux modèles sur le stress professionnel (e.g. modèle demandes-contrôle de Karasek (1979), modèle demandes-contrôle-soutien de Karasek et Theorell (1990), le modèle du Déséquilibre Efforts-Récompenses de Siegrist (1996) et le modèle Demandes-Ressources de Demerouti et al., (2001)) et guidant la recherche sur le sujet, ne tiennent pas compte du contexte organisationnel élargi dans lequel se vit le travail. Un élément bien précis du contexte organisationnel est le cœur de cette thèse soit la culture organisationnelle. En effet, la culture organisationnelle joue-t-elle un rôle dans le développement et/ou l’aggravation de problèmes de santé mentale dans la main-d’œuvre? Si oui ce rôle existe, alors comment et sous quelles conditions la culture organisationnelle est-elle susceptible de protéger ou de fragiliser la santé mentale des individus? Dans le but de mieux comprendre le rôle joué par la culture organisationnelle en matière de santé mentale au travail, nous avons eu recours à un modèle théorique intégrateur exposant les relations entre la culture organisationnelle, les conditions de l’organisation du travail et la santé mentale. Cette articulation théorique est présentée sous forme d’article dans le cadre de cette thèse. De ce modèle découle deux grandes hypothèses. La première est à l’effet que les conditions de l’organisation du travail sont associées à la détresse psychologique et à l’épuisement professionnel une fois tenu en compte la culture organisationnelle. La seconde hypothèse induite par le modèle proposé, pose que les conditions de l’organisation du travail médiatisent la relation entre la culture organisationnelle et les problèmes de santé mentale au travail. Ces hypothèses de recherche furent testées à partir de données transversales obtenues dans le cadre du projet de recherche SALVEO de l’Équipe de Recherche sur le Travail et la Santé Mentale (ERTSM) de l’Université de Montréal. Les résultats obtenus sont présentés sous forme de deux articles, soumis pour publication, lesquels constituent les chapitres 5 et 6 de cette thèse. Dans l’ensemble, le modèle théorique proposé obtient un soutient empirique important et tend à démontrer que la culture organisationnelle joue indirectement sur la détresse psychologique de par son influence sur les conditions de l’organisation du travail. Pour l’épuisement professionnel, les résultats démontrent que la culture organisationnelle influence directement et indirectement les problèmes de santé mentale au travail. Les résultats corroborent l’importance de développer de nouveaux modèles théoriques pour mieux inclure des facteurs reliés à l’organisation et au contexte organisationnel plus large afin d’avoir un portrait complet de la problématique de la santé mentale au travail. Cette thèse conclue sur les implications de ces résultats pour la recherche, et pour les retombées pratiques pour la gestion des ressources humaines.
Resumo:
Le niveau de violence, tel que mesuré par le taux d’homicide, varie beaucoup d’un pays à l’autre. Dans certains pays, on note un taux de 0,5 par 100,000 habitants tandis que pour d’autres, ce taux se situe autour de 50 par 100,000 habitants. Parmi les facteurs évoqués dans la littérature scientifique pour expliquer cette variation, on retrouve des concepts tels que la pauvreté, les inégalités et d’autres facteurs sociaux, économiques ou démographiques. Or, il y a relativement peu d’études qui examinent le rôle éventuel de la qualité du système de justice sur l’incidence de la violence. La présente étude s’intéresse au rôle de la corruption policière sur les variations du taux d’homicide entre les pays du monde. La corruption se définit comme le fait d’agir contre son devoir. Dans le cadre de l’activité policière, la corruption peut prendre la forme d’abus du pouvoir discrétionnaire, de recours à des moyens illégaux ou d’acceptation de récompenses. Considérant que ces différentes formes de corruption policière ont pour principale conséquence de créer des inégalités, il ne fait peu de doute que ce que font les policiers influence le taux de criminalité d’un endroit donné. Cette étude tente donc de déterminer s’il existe un lien entre le niveau de corruption policière et le niveau de violence, tel que mesuré par le taux d’homicide pour 143 pays. Des analyses statistiques univariées et bivariées sont réalisées afin de déterminer les indicateurs pertinents à inclure dans les différents modèles de régression multiple. Les résultats de nos analyses indiquent qu’une relation relativement forte et significative est retrouvée entre la corruption policière et le taux d’homicide. De plus, les résultats montrent que les inégalités influencent la corruption policière et que ces deux phénomènes influencent à leur tour le taux d’homicide.
Resumo:
Contexte : Trois audits de l’AVC ont été menés en Catalogne en 2005, 2007 et 2010. Ces audits évaluent un nombre limité des recommandations à l’aide d’indicateurs. Le but de l’étude est de décrire le suivi des recommandations spécifiques aux soins infirmiers en 2010, d’analyser l’évolution du suivi en 2005, 2007 et 2010 et d’identifier des facteurs reliés à ce suivi. Méthode : Il s’agit d’une étude descriptive/corrélationnelle. Six indicateurs spécifiques aux soins infirmiers ont été mesurés. Les données ont été collectées à partir des dossiers médicaux des patients admis dans 46 hôpitaux publics. L’évolution du suivi a été analysée à l’aide des chi-carrés et des modèles de régression ont été utilisés afin d’identifier les facteurs reliés à ce suivi. Résultats : Au total 2190 cas ont été évalués. Trois des six indicateurs évalués montrent un suivi >70% : mobilisation précoce (78,6%), réalisation d’un ECG basal (97%) et réalisation d’une glycémie basale (97,7%). Le dépistage de la dysphagie améliore au cours des trois audits (p<0,001). L’évaluation de l’humeur, s’est détériorée par rapport à 2007 (p=0,002). Les analyses ajustées pour les caractéristiques et la gravidité des patients montrent un majeur suivi du dépistage de la dysphagie parmi les cas admis en neurologie (OR : 5,28, IC 95%, 1,35 à 20,6) et/ou dans les centres de plus de 300 admissions/année par AVC (OR : 4,31, IC 95%, 1,04 à 17,8) ainsi que de l’éducation au patient/famille quand le patient est admis en fin de semaine (OR : 1,62 IC 95%, 1,03 à 2,54). Discussion : L’évolution dans le suivi des recommandations montre que la qualité des soins infirmières aux personnes ayant subi un AVC s’améliore progressivement en Catalogne. Toutefois, une amélioration de certaines recommandations est possible. Ainsi, il s’avère nécessaire de renforcer et promouvoir des interventions plus ciblées et spécifiques.
Resumo:
L’encéphalopathie hépatique (EH) est un syndrome neuropsychiatrique découlant des complications de l'insuffisance hépatique. Les patients souffrant d'une insuffisance hépatique chronique (IHC) présentent fréquemment une EH minimale (EHM) caractérisée par des dysfonctions cognitives subtiles qui affectent leur qualité de vie. L'insuffisance hépatique entraîne une hyperammoniémie, le facteur central dans la pathogenèse de l'EH. Pourtant, les taux d'ammoniaque sérique ne sont pas corrélés avec la sévérité de l'EH lors d'une IHC, suggérant que d'autres facteurs y contribuent. L'oedème cérébral est une caractéristique neuropathologique décrite chez les patients souffrant d'une EHM et plusieurs facteurs dont le stress oxydatif, les altérations du métabolisme énergétique et l'augmentation de la glutamine cérébrale pourraient contribuer à la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC. Les mécanismes sous-jacents exacts ainsi que les relations entre ces facteurs et l'ammoniaque ne sont pas connus. Présentement, le seul traitement efficace de l'IHC est la transplantation hépatique, une option thérapeutique très limitée. Le but de cette thèse est de contribuer à l'avancement des connaissances sur les mécanismes sous-jacents liés au rôle du stress oxydatif, de la glutamine et du lactate dans la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC afin d'envisager de nouvelles options thérapeutiques. Les objectifs précis étaient: 1. Établir le rôle de l’ammoniaque et sa relation avec le stress oxydatif dans la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC. 2. Établir le rôle du stress oxydatif dans la pathogenèse de l'oedème cérébral, sa relation avec l'ammoniaque et l'effet du traitement avec des antioxydants. 3. Confirmer l'effet synergique entre l'ammoniaque et le stress oxydatif dans la pathogenèse de l'oedème cérébral. 4. Établir le rôle du lactate et de la glutamine dans la pathogenèse de l'oedème cérébral et leur relation avec l’ammoniaque. Pour atteindre ces objectifs, 2 modèles animaux d'EHM obtenus par microchirurgie chez le rat ont été utilisés: 1) la ligature de voie biliaire, un modèle d'IHC et 2) l'anastomose porto-cave, un modèle d'hyperammoniémie induite par la dérivation portosystémique. Nos résultats démontrent que l'ammoniaque et le stress oxydatif indépendamment n'induisent pas l'oedème cérébral lors d'une EHM. Pourtant, lorsque les 2 facteurs agissent ensemble ils présentent ii un effet synergique qui entraîne le développement de l'oedème cérébral, le stress oxydatif étant une première insulte, qui est suivie par l'hyperammoniémie comme deuxième insulte. En plus, le stress oxydatif a été mis en évidence seulement au niveau systémique, et non au niveau central dans notre modèle d'IHC en association avec l'oedème cérébral, suggérant que le stress oxydatif systémique est une conséquence de la dysfonction hépatique et que l'hyperammoniémie n’induit pas le stress oxydatif ni systémique ni central. Nous avons démontré qu’une augmentation du lactate cérébral est une conséquence directe de l'hyperammoniémie et joue un rôle important dans la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC, tandis qu’une augmentation de la glutamine au niveau cérébral n'est pas un facteur clé. La compréhension de ces mécanismes a entraîné la proposition de 3 nouvelles stratégies thérapeutiques potentielles pour l'EHM. Elles ciblent la diminution de l'ammoniaque sérique, la réduction du stress oxydatif et l'inhibition de la synthèse du lactate.
Resumo:
Le travail d’équipe et la collaboration interprofessionnelle aux soins intensifs sont essentiels pour prodiguer des soins de qualité aux patients et pour leur sécurité. Cependant, les multiples interactions que nécessite une collaboration dans un contexte de soins aigus sont susceptibles de causer des tensions, des conflits et un travail inefficace dans l’équipe. Les déterminants de cette collaboration en soins intensifs ne sont pas encore bien identifiés. L'objectif de cette recherche est d'identifier et d'évaluer l’importance relative des déterminants susceptibles d’influencer la collaboration interprofessionnelle dans une équipe de soins intensifs. Un questionnaire évaluant ces déterminants a été élaboré et rempli par des professionnels de la santé travaillant dans quatre unités de soins intensifs d’un hôpital universitaire de Montréal. Un total de 312 professionnels, dont 46 médecins, 187 infirmières et 62 inhalothérapeutes, ont rempli le questionnaire. Des modèles d'analyses de régression multiple par hiérarchisation ont permis de déterminer que la « clarté du travail et des processus » , la « confiance et le respect » , mais tout particulièrement la « participation aux décisions » sont des déterminants statistiquement significatifs pour prédire la collaboration dans une équipe de soins intensifs. Une analyse de sous-groupe suggère des différences entre les médecins et les infirmières sur la perception de ces déterminants. Ces résultats apportent de nouveaux éléments dans la compréhension de la pratique de la collaboration et du travail d’équipe dans une équipe de soins intensifs, en précisant mieux ses déterminants. Sur le plan pratique, cela implique qu'il faille : i) favoriser un développement de la compétence de « collaboration » des professionnels travaillant dans le milieu des soins intensifs ; ii) cibler l’apprentissage auprès de ces professionnels en tenant compte des déterminants de la collaboration identifiés dans la présente étude.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3
Resumo:
Si les principes d’utilisabilité guident la conception de solutions de design interactif pour s’assurer que celles-ci soient « utilisables », quels principes guident la conception d’objets interactifs pour s’assurer que l’expérience subjective de l’usager (UX) soit adéquate et mémorable? Que manque-t-il au cadre de l‘UX pour expliquer, comprendre, et anticiper en tant que designer une expérience mémorable (‘an experience’; Dewey, 1934)? La question centrale est issue d’une double problématique : (1) le cadre théorique de l’UX est incomplet, et (2) les processus et capacités des designers ne sont pas considérés et utilisés à leur pleine capacité en conception UX. Pour répondre à cette question, nous proposons de compléter les modèles de l’UX avec la notion d’expérience autotélique qui appartient principalement à deux cadres théoriques ayant bien cerné l’expérience subjective, soit l’expérience optimale (ou Flow) de Csikszentmihalyi (1988) et l’expérience esthétique selon Schaeffer (2001). L’autotélie est une dimension interne du Flow alors qu’elle couvre toute l’expérience esthétique. L’autotélie est une expérience d’éveil au moment même de l’interaction. Cette prise de conscience est accompagnée d’une imperceptible tension de vouloir faire durer ce moment pour faire durer le plaisir qu’il génère. Trois études exploratoires ont été faites, s’appuyant sur une analyse faite à partir d’un cadre théorique en trois parties : le Flow, les signes d’activité non verbale (les gestes physiques) et verbale (le discours) ont été évalués pour voir comment ceux-ci s’associent. Nos résultats tendent à prouver que les processus spatiaux jouent un rôle de premier plan dans l’expérience autotélique et par conséquent dans une UX optimale. De plus, ils suggèrent que les expériences pragmatique et autotélique sont ancrées dans un seul et même contenu, et que leur différence tient au type d’attention que le participant porte sur l’interaction, l’attention ordinaire ou de type autotélique. Ces résultats nous ont menés à proposer un modèle pour la conception UX. L’élément nouveau, resté jusqu’alors inaperçu, consiste à s’assurer que l’interface (au sens large) appelle une attitude réceptive à l’inattendu, pour qu’une information puisse déclencher les processus spatiaux, offrant une opportunité de passer de l’attention ordinaire à l’attention autotélique. Le nouveau modèle ouvre la porte à une meilleure valorisation des habiletés et processus du designer au sein de l’équipe multidisciplinaire en conception UX.
Resumo:
Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.
Resumo:
Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
La recherche des facteurs de longévité gagne en intérêt dans le contexte actuel du vieillissement de la population. De la littérature portant sur la longévité et la mortalité aux grands âges, un constat émerge : bien que les déterminants associés à la survie humaine soient multiples, l'environnement familial aurait un rôle déterminant sur la mortalité et sur l'atteinte des âges avancés. Dès lors, l'objectif de cette thèse est d'évaluer les déterminants de la survie exceptionnelle et d'examiner le rôle des aspects familiaux, en début de vie et à l'âge adulte, dans les différentiels de durée de vie. Plus spécifiquement, elle vise à : (1) examiner la similarité des âges au décès entre frères, soeurs et conjoints afin d'apprécier l'ampleur de la composante familiale de la longévité; (2) explorer, d'un point de vue intrafamilial, les conséquences à long terme sur la survie des variables non partagées issues de la petite enfance tels l'âge maternel à la reproduction, le rang de naissance et la saison de naissance; et (3) s'interroger sur le rôle protecteur ou délétère de l’environnement et du milieu familial d'origine dans l’enfance sur l'atteinte des grands âges et dans quelle mesure le statut socioéconomique parvient à médiatiser la relation. Cette analyse s'appuie sur le jumelage des recensements canadiens et des actes de décès de l’état civil québécois et emploie des données québécoises du 20e siècle issues de deux échantillons distincts : un échantillon aléatoire représentatif de la population provenant du recensement canadien de 1901 ainsi qu’un échantillon de frères et soeurs de centenaires québécois appartenant à la même cohorte. Les résultats, présentés sous forme d'articles scientifiques, ont montré, en outre, que les frères et soeurs de centenaires vivent plus longtemps que les individus appartenant aux mêmes cohortes de naissance, reflétant la contribution d'une robustesse commune, mais également celle de l'environnement partagé durant la petite enfance. Ces analyses ont également témoigné d'un avantage de survie des conjoints des centenaires, soulignant l'importance d'un même environnement à l'âge adulte (1er article). De plus, nos travaux ont mis de l'avant la contribution aux inégalités de longévité des variables biodémographiques issues de l'environnement non partagé telles que l'âge maternel à la reproduction, le rang de naissance et la saison de naissance, qui agissent et interagissent entre elles pour créer des vulnérabilités et influer sur l'atteinte des âges exceptionnels (2e article). Enfin, une approche longitudinale a permis de souligner la contribution du milieu social d'origine sur la longévité, alors que les individus issus d’un milieu socioéconomique défavorisé pour l'époque (milieu urbain, père ouvrier) vivent moins longtemps que ceux ayant vécu dans un environnement socioéconomique favorable (milieu rural, fermier), résultat d'une potentielle accumulation des avantages liée à la reproduction du statut social ou d'une programmation précoce des trajectoires de santé. L’influence est toutefois moindre pour les femmes et pour les frères de centenaires et s'exprime, dans ce cas, en partie par l'effet de la profession à l'âge adulte (3e article).
Resumo:
Latex a été utilisé pour la redaction de cette thèse.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.