16 resultados para new in ILL units

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il a été bien documenté que les différentes canalisations des unités de soins dentaires contiennent un épais biofilm. Ce biofilm est constitué entre autres de bactéries, mais aussi d’amibes. Certaines amibes ont un potentiel pathogène et peuvent causer des infections graves. Deux cas d’infections amibiennes et possiblement reliées aux unités dentaires ont retenu notre attention et sont à l’origine du présent projet. L’identification morphologique des amibes afin de déterminer si elles présentent un potentiel pathogène ou non est une tâche ardue, même pour les protozoologistes chevronnés. Nous avons donc utilisé la réaction de polymérase en chaîne (PCR) pour identifier les amibes. Des nouvelles amorces ont été élaborées pour détecter les amibes des genres Acanthamoeba ainsi que Naegleria. Des échantillons d’eau et de terre ont été prélevés dans l’environnement, et des échantillons d’eau et de biofilm ont été prélevés dans les unités dentaires. Une partie de chaque échantillon a été mise en culture selon une méthode améliorée pour une identification morphologique, et l’autre partie a été soumise à un PCR direct. Des Acanthamoebae et/ou des Naegleriae ont été détectées dans 100% des échantillons, mais les espèces varient d’un échantillon à l’autre. Des amibes à potentiel pathogènes sont détectables dans les unités dentaires ainsi que dans l’environnement, et celles-ci pourraient représenter un risque pour la santé de certains individus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Grâce à un grand nombre d’études biochimiques, génétiques et structurales effectuées dans les dernières années, des avancements considérables ont été réalisés et une nouvelle vision du processus par lequel la machinerie transcriptionnelle de l’ARN polymérase II (Pol II) décode l’information génétique a émergé. De nouveaux indices ont été apportés sur la diversité des mécanismes de régulation de la transcription, ainsi que sur le rôle des facteurs généraux de transcription (GTFs) dans cette diversification. Les travaux présentés dans cette thèse amènent de nouvelles connaissances sur le rôle des GTFs humains dans la régulation des différentes étapes de la transcription. Dans la première partie de la thèse, nous avons analysé la fonction de la Pol II et des GTFs humains, en examinant de façon systématique leur localisation génomique. Les patrons obtenus par immunoprécipitation de la chromatine (ChIP) des versions de GTFs portant une étiquette TAP (Tandem-Affinity Purification) indiquent de nouvelles fonctions in vivo pour certains composants de cette machinerie et pour des éléments structuraux de la Pol II. Nos résultats suggèrent que TFIIF et l’hétérodimère Rpb4–Rpb7 ont une fonction spécifique pendant l’étape d’élongation transcriptionnelle in vivo. De plus, notre étude amène une première image globale de la fonction des GTFs pendant la réaction transcriptionnelle dans des cellules mammifères vivantes. Deuxièmement, nous avons identifié une nouvelle fonction de TFIIS dans la régulation de CDK9, la sous-unité kinase du facteur P-TEFb (Positive Transcription Elongation Factor b). Nous avons identifié deux nouveaux partenaires d’interaction pour TFIIS, soit CDK9 et la E3 ubiquitine ligase UBR5. Nous montrons que UBR5 catalyse l’ubiquitination de CDK9 in vitro. De plus, la polyubiquitination de CDK9 dans des cellules humaines est dépendante de UBR5 et TFIIS. Nous montrons aussi que UBR5, CDK9 and TFIIS co-localisent le long du gène  fibrinogen (FBG) et que la surexpression de TFIIS augmente les niveaux d’occupation par CDK9 de régions spécifiques de ce gène, de façon dépendante de UBR5. Nous proposons que TFIIS a une nouvelle fonction dans la transition entre les étapes d’initiation et d’élongation transcriptionnelle, en régulant la stabilité des complexes CDK9-Pol II pendant les étapes précoces de la transcription.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nouveaux modèles cellulaires in vitro par transfert de milieu et par coculture ont été mis au point afin d’évaluer la capacité des HDL à éliminer l’excès de cholestérol des tissus périphériques et de le transporter vers le foie afin d’être excrété par le foie, un processus nommé le transport inverse du cholestérol (TIC). Le système cellulaire par transfert in vitro où des macrophages J774 sont gorgés de LDL acétylées et marqués au 3H-cholestérol a été préalablement établi afin de mesurer par scintillation l’efflux de cholestérol marqué vers le milieu de culture contenant des accepteurs de cholestérol. Ce milieu conditionné est transféré sur des cellules HepG2 afin d’étudier l’influx du cholestérol marqué. Ce dernier nous permet d’observer un transport de cholestérol de 25 % hors des J774 et un transport de 39 000 cpm dans les HepG2 en utilisant un milieu contenant 2 % de sérums humains mis en commun. Une stimulation des cellules J774 par l’AMPc augmente l’efflux et l’influx d’environ 45 %. Des tests de preuve de concept ont été effectués sur le système cellulaire par co-culture qui utilise des chambres de Boyden où les J774 sont localisées au fond d’un puits et les HepG2 dans un insert, et où le milieu est partagé entre les deux types cellulaires. On a déterminé qu’une confluence densité de 60 000 cellules/cm2 sur un insert constitué d’une membrane de polyester avec des pores de 3,0 μm, sans autre revêtement, permet d’observer un influx spécifique au sérum d’environ 6 000 cpm associés aux cellules HepG2, où 50 % des comptes radioactifs sont dans les cellules et l’autre moitié présente à la surface cellulaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We reconsider the following cost-sharing problem: agent i = 1,...,n demands a quantity xi of good i; the corresponding total cost C(x1,...,xn) must be shared among the n agents. The Aumann-Shapley prices (p1,...,pn) are given by the Shapley value of the game where each unit of each good is regarded as a distinct player. The Aumann-Shapley cost-sharing method assigns the cost share pixi to agent i. When goods come in indivisible units, we show that this method is characterized by the two standard axioms of Additivity and Dummy, and the property of No Merging or Splitting: agents never find it profitable to split or merge their demands.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La protéine Tau joue un rôle essentiel dans les neurones, notamment par ses interactions avec les éléments du cytosquelette. Des études récentes ont également montré que Tau était impliquée dans la motilité des organelles le long des microtubules axonaux. Dans ce mémoire de Maîtrise, nous avons démontré par recouvrement sur gel une nouvelle interaction in vitro pour Tau avec la petite GTPase Rab5, qui est impliquée dans l’endocytose précoce. De plus, nous avons montré que Tau et Rab5 immuno-précipitaient sur une même population de vésicules in vivo. La sur-expression de Tau dans des neurones primaires de l’hippocampe nous a permis de montrer que Tau et Rab5 avaient une distribution similaire dans l’axone des neurones, suggérant un rôle de Tau dans l’ancrage des endosomes précoces sur les microtubules. Par contre, à la différence de ce qui a pu être observé dans certaines études, la sur-expression de Tau n’a pas inhibé le transport axonal des endosomes précoces. Enfin, nous avons montré que Tau interagissait préférentiellement avec la Rab5 active liée au GTP et des résultats préliminaires nous laissent penser que Tau serait un effecteur ou une GAP pour Rab5. Dans les tauopathies, la Tau devient hyperphosphorylée, décroche des microtubules axonaux et forme des agrégats dans le corps cellulaire du neurone. Ces modifications biochimiques et de localisation de la protéine Tau pourraient être la source d’une perte d’interaction de la Tau avec Rab5 et être responsable de certaines atteintes neurologiques observées dans les tauopathies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le cancer épithélial de l’ovaire (EOC) est le plus mortel des cancers gynécologiques. Cette maladie complexe progresse rapidement de façon difficilement décelable aux stades précoces. De plus, malgré une chirurgie cytoréductive et des traitements de chimiothérapie le taux de survie des patientes diagnostiquées aux stades avancées demeurt faible. Dans le but d’étudier l’EOC dans un contexte ex vivo, l’utilisation de modèles cellulaires est indispensable. Les lignées cellulaires d’EOC sont un outil pratique pour la recherche cependant, la façon dont l'expression des gènes est affectée en culture par comparaison à la tumeur d'origine n'est pas encore bien élucidée. Notre objectif était donc de développer et de caractériser de nouveaux modèles de culture in vitro qui réflèteront plus fidèlement la maladie in vivo. Nous avons tout d’abord utiliser des lignées cellulaires disponibles au laboratoire afin de mettre au point un modèle 3D de culture in vitro d’EOC. Des sphéroïdes ont été générés à l’aide de la méthode des gouttelettes inversées, une méthode pionnière pour la culture des cellules tumorales. Nous avons ensuite procédé à une analyse des profils d’expression afin de comparer le modèle sphéroïde au modèle de culture en monocouche et le modèle xénogreffe in vivo. Ainsi, nous avons identifié des gènes stratifiant les modèles tridimensionnels, tant in vivo qu’in vitro, du modèle 2D monocouche. Parmi les meilleurs candidats, nous avons sélectionné S100A6 pour une caractérisation ultérieure. L’expression de ce gène fût modulée afin d’étudier l’impact de son inhibition sur les paramètres de croissance des sphéroïdes. L’inhibition de ce gène a comme effet de réduire la motilité cellulaire mais seulement au niveau du modèle sphéroïde. Finalement, toujours dans l’optique de développer des modèles d’EOC les plus représentatifs de la maladie in vivo, nous avons réussi à développer des lignées cellulaires uniques dérivées de patientes atteintes d’EOC du type séreux, soit le plus commun des EOC. Jusque là, très peu de lignées cellulaires provenant de ce type de cancer et de patientes n’ayant pas reçu de chimiothérapie ont été produites. De plus, nous avons pour la première fois caractérise des lignées d’EOC de type séreux provenant à la fois de l’ascite et de la tumeur solide de la même patiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La consommation des jeunes placés dans les centres jeunesse du Québec est bien documentée, mais leurs motivations à consommer, à changer ou à parler de leur consommation avec un intervenant demeurent inconnues. Par ailleurs, très peu de chercheurs se sont intéressés aux particularités du processus de changement à l’adolescence et encore moins à ce processus dans un contexte d’autorité. Pour ces raisons, la présente recherche donne la parole aux jeunes afin de mieux comprendre leur usage de substances psychoactives, leur désir éventuel de réduire ou d’arrêter leur consommation, leur ouverture à réfléchir ou à discuter de leur consommation et leur ouverture envers les interventions disponibles. Basés sur une collecte de données qualitatives composée de 27 entrevues avec les jeunes hébergés au Centre jeunesse de Montréal et de huit mois d’observations participantes dans les unités de vie, les résultats indiquent que la majorité des adolescents interviewés disent consommer diverses substances psychoactives pour lesquelles ils identifient différentes sources de motivation, autant à consommer qu’à changer leur consommation. De plus, ces sources de motivation identifiées sont plus ou moins associées au contexte d’autorité dans lequel les jeunes sont placés. Ainsi, si certains jeunes estiment que la possibilité de changement est facilitée par l’environnement contrôlé du Centre jeunesse, pour d’autres, les contraintes de ce milieu de vie ne semblent pas avoir d’impact sur leur motivation. Par ailleurs, les jeunes démontrent différents degrés d’ouverture envers les interventions disponibles et envers les éducateurs qui les côtoient. En général, les approches compréhensives et moins autoritaires semblent encourager un certain investissement de la relation entre jeunes et éducateurs et peuvent potentiellement faciliter l’établissement d’une relation d’aide et le changement de comportement. En utilisant le cadre théorique proposé, une combinaison du Modèle transthéortique du changement et de la Théorie de l’auto-détermination, il apparaît limité de considérer les jeunes en difficulté comme étant motivés ou non motivés à changer leur consommation. Les analyses démontrent que les perceptions de la nécessité ou des possibilités d’amorcer un processus de changement varient beaucoup d’un jeune à l’autre. Ainsi, l’approche choisie pour intervenir auprès des jeunes en difficulté devrait prendre en considération les nuances et la dynamique des motivations afin de mieux adapter les services offerts et de mieux comprendre les raisons associées au succès et à l’échec de certaines interventions et intervenants vis-à-vis de certains adolescents. En outre, afin de favoriser une perception positive du « placement » et pour que les jeunes le voient comme une « opportunité de changement », il apparaît important d’examiner la fréquence et l’intensité des interventions contraignantes appliquées dans les centres de réadaptation. Finalement, il importe de mentionner que les conclusions de cette étude exploratoire ne permettent d’établir des relations causales entre l’approche choisie par l’intervenant, la motivation à changer et l’ouverture des jeunes. Cependant, les données obtenues permettent d’analyser en profondeur les représentations que les jeunes ont des relations entre ces trois éléments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de la présente thèse était de caractériser le sommeil d’un groupe clinique d’enfants et d’adolescents ayant un trouble d’anxiété comme diagnostic primaire et le comparer à un groupe témoin. Dans un premier temps, nous avons vérifié si le profil de la fréquence cardiaque nocturne des enfants et des adolescents pouvait être regroupé selon le diagnostic. Pour ce faire, la fréquence cardiaque nocturne de 67 adolescents anxieux et 19 sujets non anxieux a été enregistrée à l’aide d’un équipement ambulatoire. Les résultats de cette étude montrent que le profil de la fréquence cardiaque nocturne chez les enfants anxieux varie selon le diagnostic. Alors que les adolescents non anxieux montrent un profil de la fréquence cardiaque nocturne plat, on retrouve les associations suivantes chez les adolescents ayant un trouble anxieux : a) un profil croissant de la fréquence cardiaque chez les adolescents ayant un trouble d’anxiété de séparation; b) un profil décroissant de la fréquence cardiaque chez les adolescents ayant un trouble d’anxiété généralisé; c) un profil en forme de U chez les adolescents ayant un trouble d’anxiété sociale. De plus, une association significative a été observée entre le diagnostic et la présence de fatigue matinale. L’association d’un profil de la fréquence cardiaque nocturne avec un diagnostic d’anxiété suggère la présence d’une dysrégulation de la modulation chronobiologique du système nerveux autonome. Étant donné que le profil de la fréquence cardiaque nocturne s’exprime différemment selon le diagnostic, qu’en est-il de l’architecture du sommeil? Dans un deuxième temps, nous avons enregistré le sommeil en laboratoire d’un groupe clinique de 19 jeunes ayant un trouble d’anxiété comme diagnostic primaire, avec comorbidités et médication et comparé à 19 jeunes non anxieux. Les résultats de cette étude ont montré que les participants du groupe anxieux ont une latence au sommeil plus longue, une latence au sommeil paradoxal plus longue et une durée d’éveil plus longue lorsque comparé au groupe témoin. L’évaluation subjective de la qualité du sommeil chez le groupe d’adolescents anxieux montre que leur auto-évaluation reflète les valeurs enregistrées en laboratoire. Nous avons également observé chez le groupe anxieux une fréquence cardiaque moyenne plus élevée et un index plus élevé d’apnée-hypopnée, bien que non pathologique. Nous avons également observé une association positive entre l’anxiété de trait et l’indice d’apnée-hypopnée et la latence au sommeil, ainsi qu’une association positive entre l’anxiété manifeste et la latence au sommeil paradoxal. Ces résultats suggèrent que le sommeil chez cette population est altéré, que des signes d’hypervigilance physiologique sont présents et qu'une association existe entre ces deux paramètres. Finalement, dans la troisième étude de cette thèse, nous avons analysé l’activité cardiaque pendant le sommeil en utilisant les paramètres temporels et fréquentiels de la variabilité cardiaque chez un groupe clinique de dix-sept enfants et adolescents ayant un trouble d’anxiété comme diagnostic primaire avec comorbidité et médication, et comparé à un groupe non anxieux. Les résultats ont montré que les participants du groupe anxieux, lorsque comparés au groupe non anxieux, présentent des intervalles interbattements plus courts, un indice temporel de la variabilité cardiaque représentant la branche parasympathique moindre, une activité des hautes fréquences normalisées moindre et un ratio basse fréquence sur haute fréquence augmenté. Plusieurs corrélations ont été observées entre les mesures cliniques de l’anxiété et les mesures de la variabilité cardiaque. Ces résultats viennent ajouter à la littérature actuelle un volet descriptif clinique à ce jour non documenté, soit l’impact de l’anxiété pathologique chez un groupe clinique d’enfants et d’adolescents sur le processus normal du sommeil et sur la régulation de la fréquence cardiaque. En résumé, les résultats de ces trois études ont permis de documenter chez un groupe clinique d’enfants et d’adolescents ayant de l’anxiété pathologique, la présence d’une altération circadienne du profil de la fréquence cardiaque, d’une architecture altérée du sommeil ainsi qu’une dysrégulation du système nerveux contrôlant l’activité cardiaque.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s’inscrit dans une lignée de recherches ayant pour thème les gangs de rue. L’objectif de cette recherche est de préciser comment les jeunes contrevenants perçoivent l’univers des gangs de rue et ses composantes, à savoir le gang lui-même, un membre de gang, les activités de gang, qu’elles soient délinquantes ou autres, que veut dire être un ancien membre de gang et comment se dessine la vie après le gang. Pour se démarquer des autres recherches, réalisées le plus souvent à partir d’entrevues individuelles, nous avons réalisé des groupes de discussion impliquant 13 jeunes contrevenants hébergés dans les unités de réadaptation du Centre jeunesse de Montréal-Institut universitaire. Ces participants, appartenant ou non à un gang de rue, ont partagé leurs représentations et leurs perceptions de l’univers des gangs et de ses composantes. À la lumière de l’analyse du contenu des entrevues de groupe, une communauté d’idées s’en dégage. Les jeunes partagent des représentations et perceptions semblables quant aux gangs de rue et ses composantes. Les gangs de rue sont, selon eux, un groupe de jeunes qui commettent des délits, avec violence ou non, et qui s’identifient à leur gang par l’entremise d’un chiffre, d’une couleur, d’un quartier... Pour repérer un membre de gang de rue, il faut faire partie de ce milieu. De l’avis des répondants, ils sont, bien souvent, sur-identifiés par les instances policières et les autres intervenants en raison des critères utilisés. Bien que les activités criminelles fassent partie intégrante de leur mode de vie, il ne faut pas négliger les activités positives et agréables qui font partie de leur quotidien. Pour quitter cet univers, il suffit d’en informer son gang. Aucune démarche spécifique ne doit être faite et les menaces de représailles s’actualisent rarement. Toutefois, les membres de gangs ennemis et les policiers continuent souvent à identifier comme membre actif ces jeunes qui tentent de s’en sortir et de se refaire une vie, compromettant ainsi leur réinsertion sociale, qui ne se fait par ailleurs pas sans embûches et obstacles. Les jeunes ont mentionné avoir besoin de ressources qui peuvent les supporter et les épauler à travers ce processus de changement. D’où l’importance de mettre à jour nos connaissances et faire un portrait plus actuel sur le sujet avec la possibilité de les partager avec les différents intervenants, concernés par la problématique, pour qu’ils puissent en tenir compte dans leurs interventions auprès de cette clientèle, ceci notamment dans les centres de réadaptation où le besoin de s’exprimer librement sur le sujet et d’être écouté a été nommé haut et fort par les jeunes interviewés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.