661 resultados para Haut-Karabagh
Resumo:
La diversification des signaux aposématiques dans un cadre de mimétisme müllérien est un phénomène intrigant. Alors que la théorie relative à l'aposématisme et au mimétisme suggère l'évolution vers un signal aposématique unique, d'impressionnantes variations peuvent être observées entre les populations, et cela à petite échelle spatiale. Il a été supposé que la variation spatiale des pressions de sélection engendrées par différents prédateurs puisse être à l'origine de ce phénomène. Afin de tester cette hypothèse, nous avons étudié la transition entre deux systèmes géographiques caractérisés par des patrons aposématiques distincts chez des grenouilles mimétiques et toxiques du nord du Pérou (Dendrobatidae) en combinant les outils de génétique des populations aux outils écologiques. Dans chacun de ces systèmes, Ranitomeya imitator vit en sympatrie avec R. ventrimaculata ou R. variabilis. Il s'agit du principal exemple empirique suggérant que dans un cadre de mimétisme müllérien, il n'y a pas convergence des signaux aposématiques des deux espèces, mais plutôt convergence unidirectionnelle où R. imitator, étant polymorphe, imite des espèces monomorphes avec lesquelles elle est sympatrique. Premièrement, les résultats réfutent les prémisses qui suggèrent que R. imitator converge vers le signal aposématique d’une autre espèce. La haute similarité génétique entre les espèces modèles suggère qu'elles ont divergé plus récemment que les populations de R. imitator ou qu'elles sont encore connectées par du flux génique. Ces résultats indiquent que ces espèces ont été identifiées à tort comme des espèces différentes. De fait, l'identification de l'espèce imitatrice basée sur la variabilité phénotypique est invalidée dans ce système puisque R. imitator et R. variabilis/ventrimaculata démontrent la même variabilité. Deuxièmement, nos résultats démontrent que la prédation varie spatialement, autant en intensité qu'en direction, créant ainsi un paysage hétérogène de pressions de sélection. Ainsi, de fortes pressions de prédation stabilisatrice permettent le maintien de l'organisation géographique de différents signaux aposématiques et expliquent l'uniformité de ces signaux ainsi que les relations mimétiques. Par contre, le relâchement temporaire des pressions de prédation permet l'apparition de nouveaux phénotypes aposématiques via les processus évolutifs neutres, conduisant à un haut polymorphisme au niveau de ces populations. L'interaction de ces modes sélectifs nous a permis de démontrer pour la première fois comment la théorie évolutive de Wright (shifting balance theory) permet la diversification adaptative dans un système naturel. Pour conclure, cette étude a permis de mettre en évidence à quel point les systèmes de mimétisme müllérien peuvent être dynamiques. L'alternance spatiale entre les processus évolutifs neutres et la sélection naturelle permet l'émergence de nouveaux phénotypes aposématiques à une échelle locale, ainsi que l'apparition d'une organisation géographique des signaux d'avertissement et des relations de mimétisme müllérien.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Le fardeau vasculaire (présence de maladies vasculaires et/ou cérébrovasculaires) est associé à une augmentation des troubles cognitifs chez les personnes âgées, ainsi qu’à un plus haut risque de démence vasculaire (DV) et de démence de type Alzheimer (DTA). Un nombre restreint de travaux a porté sur l’impact du fardeau vasculaire sur la cognition des personnes avec trouble cognitif léger (TCL). Pourtant, les personnes avec TCL représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence. Cette thèse comprend trois articles de revue qui visent à exposer les connaissances entourant la santé vasculaire et la cognition des personnes âgées et trois articles empiriques (Chapitres 5, 6, 7). La première étude empirique traite de l’impact du fardeau vasculaire sur la cognition des personnes TCL et a comme objectif de spécifier quelles fonctions cognitives sont affectées par le fardeau vasculaire et dans quelle mesure le fardeau vasculaire influence l’hétérogénéité des TCL (Chapitre 5). Dans le cadre de la deuxième étude, nous avons examiné l’intégrité des processus stratégiques et non stratégiques de mémorisation des TCL avec et sans fardeau vasculaire, afin d’évaluer si ces processus diffèrent quantitativement et qualitativement entre ces deux groupes (Chapitre 6). Enfin, dans la troisième étude nous avons évalué les capacités d’association (binding) ainsi que la résistance à l’interférence des personnes TCL, les liens entre ces processus mnésiques et différents marqueurs cérébraux en plus des facteurs permettant de prédire l’évolution vers une démence (Chapitre 7). Les résultats présentés dans cette thèse appuient l’hypothèse selon laquelle le fardeau vasculaire influence le profil cognitif des TCL. Dans un premier temps, nous avons montré que le fardeau vasculaire est associé à une atteinte exécutive plus importante chez les TCL (Chapitre 5). De plus, nos résultats suggèrent que le fardeau vasculaire influence la classification clinique de ces derniers, puisque ceux dont le fardeau est élevé répondent davantage aux critères de TCL amnestique domaine multiple (trouble de mémoire plus au moins un autre déficit cognitif) tandis que ceux sans fardeau répondent davantage aux critères de TCL amnestique domaine unique (trouble isolé de la mémoire). Dans un deuxième temps, nous avons montré des différences dans la nature des processus mnésiques atteints chez les TCL avec et sans fardeau vasculaire (Chapitre 6). Alors que les premiers présentent une atteinte prédominante des processus stratégiques de mémorisation, les seconds présentent une atteinte des processus stratégiques et non stratégiques de mémorisation. Lorsque seuls les résultats des TCL ayant évolué vers une démence sont analysés, le patron d’atteinte est similaire puisque les TCL vasculaires sont quantitativement moins touchés que les TCL non-vasculaires au niveau des processus non-stratégiques de mémorisation. Enfin, tant les TCL qui progressent vers une démence que les TCL qui restent stables après un suivi de trois ans éprouvent tous des difficultés de mémoire associative et sont sensibles à l’interférence proactive (Chapitre 7). De plus, le fardeau vasculaire est associé à la sensibilité à l’interférence alors que le volume hippocampique est associé aux difficultés de mémoire associative. Enfin, nos résultats indiquent que les TCL qui éprouvent des difficultés de mémoire associative sont plus à risque d’évoluer vers une démence que les TCL ne présentant pas ces mêmes difficultés. De façon globale, les résultats de cette thèse révèlent que le fardeau vasculaire joue un rôle important dans l’hétérogénéité des TCL.
Prédiction de l'attrition en date de renouvellement en assurance automobile avec processus gaussiens
Resumo:
Le domaine de l’assurance automobile fonctionne par cycles présentant des phases de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale pour une compagnie d’assurance. Ce mémoire a pour but de construire un outil de simulation de l’allure du porte- feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus- siens univariés est développée. Cette procédure offre une performance supérieure à la régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche.
Resumo:
La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.
Resumo:
Les commotions cérébrales ont longtemps été considérées comme une blessure ne comportant que peu ou pas de conséquences. Cependant, la mise à la retraite forcée de plusieurs athlètes de haut niveau, liée au fait d'avoir subi des commotions cérébrales multiples, a porté cette question au premier plan de la culture scientifique et sportive. Malgré la sensibilisation croissante du public et la compréhension scientifique accrue des commotions cérébrales, il reste encore beaucoup d’inconnus au sujet de ces blessures. En effet, il est difficile de comprendre comment cette atteinte peut avoir des effets si profonds malgré le fait qu’elle n’entraîne apparemment pas de conséquences physiques apparentes lorsque les techniques traditionnelles d’imagerie cérébrale sont utilisées. Les techniques de neuroimagerie fonctionnelle ont cependant contribué à répondre aux nombreuses questions entourant les conséquences des commotions cérébrales ainsi qu'à accroître la compréhension générale de la physiopathologie de commotions cérébrales. Bien que les techniques de base telles que l'imagerie structurelle comme les scans TC et IRM soient incapables de détecter des changements structurels dans la grande majorité des cas (Ellemberg, Henry, Macciocchi, Guskiewicz, & Broglio, 2009; Johnston, Ptito, Chankowsky, & Chen, 2001), d'autres techniques plus précises et plus sensibles ont été en mesure de détecter avec succès des changements dans le cerveau commotionné. Des études d’IRM fonctionelle ont entre autres établi une solide relation entre les altérations fonctionnelles et les symptômes post-commotionels (Chen, Johnston, Collie, McCrory, & Ptito, 2007; Chen et al., 2004; Chen, Johnston, Petrides, & Ptito, 2008; Fazio, Lovell, Pardini, & Collins, 2007). Les mesures électrophysiologiques telles que les potentiels évoqués cognitifs (ERP) (Gaetz, Goodman, & Weinberg, 2000; Gaetz & Weinberg, 2000; Theriault, De Beaumont, Gosselin, Filipinni, & Lassonde, 2009; Theriault, De Beaumont, Tremblay, Lassonde, & Jolicoeur, 2010) et la stimulation magnétique transcrânienne ou SMT (De Beaumont, Brisson, Lassonde, & Jolicoeur, 2007; De Beaumont, Lassonde, Leclerc, & Theoret, 2007; De Beaumont et al., 2009) ont systématiquement démontré des altérations fonctionnelles chez les athlètes commotionnés. Cependant, très peu de recherches ont tenté d'explorer davantage certaines conséquences spécifiques des commotions cérébrales, entre autres sur les plans structural et métabolique. La première étude de cette thèse a évalué les changements structurels chez les athlètes commotionnés à l’aide de l'imagerie en tenseur de diffusion (DTI) qui mesure la diffusion de l'eau dans la matière blanche, permettant ainsi de visualiser des altérations des fibres nerveuses. Nous avons comparé les athlètes commotionnés à des athlètes de contrôle non-commotionnés quelques jours après la commotion et de nouveau six mois plus tard. Nos résultats indiquent un patron constant de diffusion accrue le long des voies cortico-spinales et dans la partie du corps calleux reliant les régions motrices. De plus, ces changements étaient encore présents six mois après la commotion, ce qui suggère que les effets de la commotion cérébrale persistent bien après la phase aiguë. Les deuxième et troisième études ont employé la spectroscopie par résonance magnétique afin d'étudier les changements neurométaboliques qui se produisent dans le cerveau commotionné. La première de ces études a évalué les changements neurométaboliques, les aspects neuropsychologiques, et la symptomatologie dans la phase aiguë post-commotion. Bien que les tests neuropsychologiques aient été incapables de démontrer des différences entre les athlètes commotionnés et non-commotionnés, des altérations neurométaboliques ont été notées dans le cortex préfrontal dorsolatéral ainsi que dans le cortex moteur primaire, lesquelles se sont avérées corréler avec les symptômes rapportés. La deuxième de ces études a comparé les changements neurométaboliques immédiatement après une commotion cérébrale et de nouveau six mois après l’atteinte. Les résultats ont démontré des altérations dans le cortex préfrontal dorsolatéral et moteur primaire dans la phase aiguë post-traumatique, mais seules les altérations du cortex moteur primaire ont persisté six mois après la commotion. Ces résultats indiquent que les commotions cérébrales peuvent affecter les propriétés physiques du cerveau, spécialement au niveau moteur. Il importe donc de mener davantage de recherches afin de mieux caractériser les effets moteurs des commotions cérébrales sur le plan fonctionnel.
Resumo:
L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
La régulation transcriptionnelle des gènes est cruciale pour permettre le bon fonctionnement des cellules. Afin que les cellules puissent accomplir leurs fonctions, les gènes doivent être exprimés adéquatement dans le bon type cellulaire et au stade de développement et de différenciation approprié. Un dérèglement dans l’expression de un ou plusieurs gènes peut entraîner de graves conséquences sur le destin de la cellule. Divers éléments en cis (ex : promoteurs et enhancers) et en trans (machinerie transcriptionnelle et facteurs de transcription) sont impliqués dans la régulation de la transcription. Les gènes du locus humain beta-globine (hub) sont exprimés dans les cellules érythroïdes et sont finenement régulés lors du développement et de la différenciation. Des mutations dans différentes régions du locus causent entre autres les beta-thalassémies. Nous avons utilisé ce modèle bien caractérisé afin d’étudier différents mécanismes de régulation favorisés par les facteurs de transcription qui sont exprimés dans les cellules érythroïdes. Nous nous sommes intéressés à l’importance de l’élément en cis HS2 du Locus control region. Cet élément possède plusieurs sites de liaison pour des facteurs de transcription impliqués dans la régulation des gènes du locus hub. Nos résultats montrent que HS2 possède un rôle dans l’organisation de la chromatine du locus qui peut être dissocié de son rôle d’enhancer. De plus, HS2 n’est pas essentiel pour l’expression à haut niveau du gène beta alors qu’il est important pour l’expression des gènes gamma. Ceci suggère que le recrutement des différents facteurs au site HS2 lors du développement influence différement les gènes du locus. Dans un deuxième temps, nous avons investigué l’importance de HS2 lors de la différenciation des cellules érythroïdes. Il avait été rapporté que l’absence de HS2 influence grandement la potentialisation de la chromatine du gène beta. La potentialisation dans les cellules progénitrices favorise l’activation transcriptionnelle du gène dans les cellules matures. Nous avons caractérisé le recrutement de différents facteurs de transcription au site HS2 et au promoteur beta dans les cellules progénitrices hématopoïétiques (CPH) ainsi que dans les cellules érythroïdes matures. Nos résultats montrent que le facteur EKLF est impliqué dans la potentialisation de la chromatine et favorise le recrutement des facteurs BRG1, p45 et CBP dans les CPH. L’expression de GATA-1 dans les cellules érythroïdes matures permet le recrutement de GATA-1 au locus hub dans ces cellules. Ces données suggèrent que la combinaison de EKLF et GATA-1 est requise pour permettre une activation maximale du gène beta dans les cellules érythroïdes matures. Un autre facteur impliqué dans la régulation du locus hub est Ikaros. Nous avons étudié son recrutement au locus hub et avons observé que Ikaros est impliqué dans la répression des gènes gamma. Nos résultats montrent aussi que GATA-1 est impliqué dans la répression de ces gènes et qu’il interagit avec Ikaros. Ensemble, Ikaros et GATA-1 favorisent la formation d’un complexe de répression aux promoteurs gamma. Cette étude nous a aussi permis d’observer que Ikaros et GATA-1 sont impliqués dans la répression du gène Gata2. De façon intéressante, nous avons caractérisé le mécanisme de répression du gène Hes1 (un gène cible de la voie Notch) lors de la différenciation érythroïde. Similairement à ce qui a été observé pour les gènes gamma, Hes1 est aussi réprimé par Ikaros et GATA-1. Ces résultats suggèrent donc que la combinaison de Ikaros et GATA-1 est associée à la répression de plusieurs de gènes dans les cellules érythroïdes. Globalement cette thèse rapporte de nouveaux mécanismes d’action de différents facteurs de transcription dans les cellules érythroïdes. Particulièrement, nos travaux ont permis de proposer un modèle pour la régulation des gènes du locus hub lors du développement et de la différenciation. De plus, nous rapportons pour la première fois l’importance de la collaboration entre les facteurs Ikaros et GATA-1 dans la régulation transcriptionnelle de gènes dans les cellules érythroïdes. Des mutations associées à certains des facteurs étudiés ont été rapportées dans des cas de beta-thalassémies ainsi que de leucémies. Nos travaux serviront donc à avoir une meilleure compréhension des mécanismes d’action de ces facteurs afin de potentiellement pouvoir les utiliser comme cibles thérapeutiques.
Resumo:
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.
Resumo:
Le Plan d’action en santé mentale institué en 2005 marque le début d’une période de changements profonds qui auront un impact significatif sur les équipes de première ligne qui assurent la plupart des services au Québec. Le changement se manifestera sur deux fronts distincts. En premier lieu, le passage de services historiquement ancrés dans un modèle biomédical vers des services centrés sur le rétablissement. En second lieu, l’adoption de processus administratifs s’inscrivant dans une philosophie de gestion axée sur les résultats qui ont pour objectif de mesurer et d’assurer l’efficacité des services. L'objectif de cette étude est d’explorer le statu du développement des pratiques axées sur le rétablissement au niveau des travailleurs sociaux de première ligne dans le contexte administratif mentionné ci-haut. Le travail de recherche qualitatif et exploratoire est construit sur l’analyse de 11 interviews semi structurés avec des travailleurs sociaux et des gestionnaires dans des équipes de première ligne en santé mentale. Les entretiens m’ont non seulement permis d’identifier et d’examiner des actions concrètes s’inscrivant dans l’effort d’implantation du Plan d’action mais aussi de sonder et d’explorer la signification qui est donnée au rétablissement par les travailleurs sociaux de première ligne. Les résultats indiquent que certains facteurs relatifs à l'organisation du travail tels que la flexibilité, l'autonomie, la réflexivité et l’interdisciplinarité peuvent favoriser une pratique orientée vers le rétablissement. Aussi, les résultats démontrent que le modèle du rétablissement et la profession du travail social partagent des valeurs fondamentales mais que la signification et l'expression du rétablissement ont été profondément influencés par les modèles organisationnels et obligations administratives en vigueur. Il appert que les travailleurs sociaux sont confrontés, dans leur pratique, à des contraintes qui dépassent leur mandat professionnel et, à certains égards, leur savoir-faire. En somme, les résultats obtenus indiquent que le passage avec succès vers la pratique de services basés sur le rétablissement est compromis par les exigences d’un modèle de gestion axé sur les résultats.
Resumo:
Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.
Resumo:
Contexte général La Côte d'Ivoire est un pays de l’Afrique de l’Ouest qui a décidé, depuis 2001, d'étendre la couverture des prestations de santé à toute sa population. En effet, cette réforme du système de santé avait pour but de fournir, à chaque ivoirien, une couverture médicale et pharmaceutique. Toutefois, la mise en œuvre de cette réforme était difficile car, contrairement aux pays développés, les pays en développement ont un secteur « informel » échappant à la législation du travail et occupant une place importante. En conséquence, il a été recommandé qu’il y ait deux caisses d'assurance santé, une pour le secteur formel (fonctionnaires) et l'autre pour le secteur informel. Ces caisses auraient légitimité en ce qui a trait aux décisions de remboursement de médicaments. D’ores-et-déjà, il existe une mutuelle de santé appelée la Mutuelle Générale des Fonctionnaires et Agents de l'État de Côte d'Ivoire (MUGEFCI), chargée de couvrir les frais médicaux et pharmaceutiques des fonctionnaires et agents de l’Etat. Celle-ci connaît, depuis quelques années, des contraintes budgétaires. De plus, le processus actuel de remboursement des médicaments, dans cette organisation, ne prend pas en considération les valeurs implicites liées aux critères d'inscription au formulaire. Pour toutes ces raisons, la MUGEFCI souhaite se doter d’une nouvelle liste de médicaments remboursables, qui comprendrait des médicaments sécuritaires avec un impact majeur sur la santé (service médical rendu), à un coût raisonnable. Dans le cadre de cette recherche, nous avons développé une méthode de sélection des médicaments pour des fins de remboursement, dans un contexte de pays à faibles revenus. Cette approche a ensuite été appliquée dans le cadre de l’élaboration d’une nouvelle liste de médicaments remboursables pour la MUGEFCI. Méthode La méthode de sélection des médicaments remboursables, développée dans le cadre de cette recherche, est basée sur l'Analyse de Décision Multicritère (ADM). Elle s’articule autour de quatre étapes: (1) l'identification et la pondération des critères pertinents d'inscription des médicaments au formulaire (combinant revue de la littérature et recherche qualitative, suivies par la réalisation d’une expérience de choix discrets); (2) la détermination d'un ensemble de traitements qui sont éligibles à un remboursement prioritaire; (3) l’attribution de scores aux traitements selon leurs performances sur les niveaux de variation de chaque critère, et (4) le classement des traitements par ordre de priorité de remboursement (classement des traitements selon un score global, obtenu après avoir additionné les scores pondérés des traitements). Après avoir défini la liste des médicaments remboursables en priorité, une analyse d’impact budgétaire a été réalisée. Celle-ci a été effectuée afin de déterminer le coût par patient lié à l'utilisation des médicaments figurant sur la liste, selon la perspective de la MUGEFCI. L’horizon temporel était de 1 an et l'analyse portait sur tous les traitements admissibles à un remboursement prioritaire par la MUGEFCI. En ce qui concerne la population cible, elle était composée de personnes assurées par la MUGEFCI et ayant un diagnostic positif de maladie prioritaire en 2008. Les coûts considérés incluaient ceux des consultations médicales, des tests de laboratoire et des médicaments. Le coût par patient, résultant de l'utilisation des médicaments figurant sur la liste, a ensuite été comparé à la part des dépenses par habitant (per capita) allouée à la santé en Côte d’Ivoire. Cette comparaison a été effectuée pour déterminer un seuil en deçà duquel la nouvelle liste des médicaments remboursables en priorité était abordable pour la MUGEFCI. Résultats Selon les résultats de l’expérience de choix discrets, réalisée auprès de professionnels de la santé en Côte d'Ivoire, le rapport coût-efficacité et la sévérité de la maladie sont les critères les plus importants pour le remboursement prioritaire des médicaments. Cela se traduit par une préférence générale pour les antipaludiques, les traitements pour l'asthme et les antibiotiques indiqués pour les infections urinaires. En outre, les résultats de l’analyse d’impact budgétaire suggèrent que le coût par patient lié à l'utilisation des médicaments figurant sur la liste varierait entre 40 et 160 dollars américains. Etant donné que la part des dépenses par habitant allouées à la santé en Côte d’Ivoire est de 66 dollars américains, l’on pourrait conclure que la nouvelle liste de médicaments remboursables serait abordable lorsque l'impact économique réel de l’utilisation des médicaments par patient est en deçà de ces 66 dollars américains. Au delà de ce seuil, la MUGEFCI devra sélectionner les médicaments remboursables en fonction de leur rang ainsi que le coût par patient associé à l’utilisation des médicaments. Plus précisément, cette sélection commencera à partir des traitements dans le haut de la liste de médicaments prioritaires et prendra fin lorsque les 66 dollars américains seront épuisés. Conclusion Cette étude fait la démonstration de ce qu’il est possible d'utiliser l’analyse de décision multicritère pour développer un formulaire pour les pays à faibles revenus, la Côte d’Ivoire en l’occurrence. L'application de cette méthode est un pas en avant vers la transparence dans l'élaboration des politiques de santé dans les pays en développement.
Resumo:
Ce mémoire porte sur le cèdre blanc (Thuja occidentalis) dans les contextes de colonisation et d’exploitation forestière de l’arrière-pays montréalais au XIXe siècle. Il vise, d’une part, à documenter les stratégies d’exploitation locale du cèdre blanc au XIXe siècle et l’évolution du paysage culturel domestique d’un établissement colonial depuis sa concession initiale. D’autre part, ce mémoire cherche à identifier les réseaux d’échanges du cèdre blanc acheminé à Montréal au XIXe siècle pour la construction des bâtiments et des infrastructures portuaires. En raison de la quasi-absence de documents historiques sur le sujet, il devient évident que seule l’application de la dendrochronologie et de la dendroprovenance permet d’atteindre ces objectifs. Nous vous présentons ici l’analyse détaillée de six sites ruraux situés dans les vallées de l’Outaouais et du haut Saint-Laurent. Les analyses dendrochronologiques effectuées permettent d’aborder l’établissement colonial d’une façon originale. La deuxième partie de ce mémoire se consacre aux analyses de dendroprovenance de sept sites montréalais préalablement étudiés par Poudret-Barré (2007) et le Groupe de recherche en dendrochronologie historique (GRDH). Pour ce faire, les sites ruraux discutés précédemment servent de point d’ancrage géographique afin de déterminer l’origine des pièces de cèdre blanc retrouvées à Montréal. L’étude du cèdre blanc et les résultats des analyses de dendrochronologie et de dendroprovenance réalisées dans le cadre de cette étude permettent d’aborder le patrimoine architectural et archéologique sous un angle nouveau. Venant compléter les données historiques disponibles, il ouvre la voie à de nouvelles recherches de ce genre.