938 resultados para Chaîne de Markov cachée


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les diagrammes de transitions d'états ont été réalisés avec le logiciel Latex.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En opération depuis 2008, l’expérience ATLAS est la plus grande de toutes les expériences au LHC. Les détecteurs ATLAS- MPX (MPX) installés dans ATLAS sont basés sur le détecteur au silicium à pixels Medipix2 qui a été développé par la collaboration Medipix au CERN pour faire de l’imagerie en temps réel. Les détecteurs MPX peuvent être utilisés pour mesurer la luminosité. Ils ont été installés à seize différents endroits dans les zones expérimentale et technique d’ATLAS en 2008. Le réseau MPX a recueilli avec succès des données indépendamment de la chaîne d’enregistrement des données ATLAS de 2008 à 2013. Chaque détecteur MPX fournit des mesures de la luminosité intégrée du LHC. Ce mémoire décrit la méthode d’étalonnage de la luminosité absolue mesurée avec les détectors MPX et la performance des détecteurs MPX pour les données de luminosité en 2012. Une constante d’étalonnage de la luminosité a été déterminée. L’étalonnage est basé sur technique de van der Meer (vdM). Cette technique permet la mesure de la taille des deux faisceaux en recouvrement dans le plan vertical et horizontal au point d’interaction d’ATLAS (IP1). La détermination de la luminosité absolue nécessite la connaissance précise de l’intensité des faisceaux et du nombre de trains de particules. Les trois balayages d’étalonnage ont été analysés et les résultats obtenus par les détecteurs MPX ont été comparés aux autres détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. La luminosité obtenue à partir des balayages vdM a été comparée à la luminosité des collisions proton- proton avant et après les balayages vdM. Le réseau des détecteurs MPX donne des informations fiables pour la détermination de la luminosité de l’expérience ATLAS sur un large intervalle (luminosité de 5 × 10^29 cm−2 s−1 jusqu’à 7 × 10^33 cm−2 s−1 .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La demande croissante en carburants, ainsi que les changements climatiques dus au réchauffement planétaire poussent le monde entier à chercher des sources d’énergie capables de produire des combustibles alternatifs aux combustibles fossiles. Durant les dernières années, plusieurs sources potentielles ont été identifiées, les premières à être considérées sont les plantes oléagineuses comme source de biocarburant, cependant l’utilisation de végétaux ou d’huiles végétales ayant un lien avec l’alimentation humaine peut engendrer une hausse des prix des denrées alimentaires, sans oublier les questions éthiques qui s’imposent. De plus, l'usage des huiles non comestibles comme sources de biocarburants, comme l’huile de jatropha, de graines de tabac ou de jojoba, révèle un problème de manque de terre arable ce qui oblige à réduire les terres cultivables de l'industrie agricole et alimentaire au profit des cultures non comestibles. Dans ce contexte, l'utilisation de microorganismes aquatiques, tels que les microalgues comme substrats pour la production de biocarburant semble être une meilleure solution. Les microalgues sont faciles à cultiver et peuvent croitre avec peu ou pas d'entretien. Elles peuvent ainsi se développer dans des eaux douces, saumâtres ou salées de même que dans les terres non cultivables. Le rendement en lipide peut être largement supérieur aux autres sources de biocarburant potentiel, sans oublier qu’elles ne sont pas comestibles et sans aucun impact sur l'industrie alimentaire. De plus, la culture intensive de microalgues pour la production de biodiesel pourrait également jouer un rôle important dans l'atténuation des émissions de CO2. Dans le cache de ce travail, nous avons isolé et identifié morphologiquement des espèces de microalgues natives du Québec, pour ensuite examiner et mesurer leur potentiel de production de lipides (biodiesel). L’échantillonnage fut réalisé dans trois régions différentes du Québec: la région de Montréal, la gaspésie et le nord du Québec, et dans des eaux douces, saumâtres ou salées. Cent souches ont été isolées à partir de la région de Montréal, caractérisées et sélectionnées selon la teneur en lipides et leur élimination des nutriments dans les eaux usées à des températures différentes (10 ± 2°C et 22 ± 2°C). Les espèces ayant une production potentiellement élevée en lipides ont été sélectionnées. L’utilisation des eaux usées, comme milieu de culture, diminue le coût de production du biocarburant et sert en même temps d'outil pour le traitement des eaux usées. Nous avons comparé la biomasse et le rendement en lipides des souches cultivées dans une eau usée par apport à ceux dans un milieu synthétique, pour finalement identifié un certain nombre d'isolats ayant montré une bonne croissance à 10°C, voir une teneur élevée en lipides (allant de 20% à 45% du poids sec) ou une grande capacité d'élimination de nutriment (>97% d'élimination). De plus, nous avons caractérisé l'une des souches intéressantes ayant montré une production en lipides et une biomasse élevée, soit la microalgue Chlorella sp. PCH90. Isolée au Québec, sa phylogénie moléculaire a été établie et les études sur la production de lipides en fonction de la concentration initiale de nitrate, phosphate et chlorure de sodium ont été réalisées en utilisant de la méthodologie des surfaces de réponse. Dans les conditions appropriées, cette microalgue pourrait produire jusqu'à 36% de lipides et croitre à la fois dans un milieu synthétique et un milieu issu d'un flux secondaire de traitement des eaux usées, et cela à 22°C ou 10°C. Ainsi, on peut conclure que cette souche est prometteuse pour poursuivre le développement en tant que productrice potentielle de biocarburants dans des conditions climatiques locales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le 1,1'-bi-2-naphtol ou Binol, présentant une chiralité axiale, est un ligand très utilisé en catalyse asymétrique. Au cours des vingt dernières années, le Binol a servi de synthon à l’élaboration de très nombreux ligands permettant la catalyse asymétrique de tous types de réactions, allant de l’hydrogénation, à l’alkylation, en passant par diverses réactions péricycliques. Le grand intérêt pour ce ligand vient de sa versatilité et des nombreuses possibilités de fonctionnalisation qu’il offre, permettant d’altérer ses propriétés catalytiques à volonté, aussi bien en modifiant son caractère électronique, qu’en introduisant des facteurs stériques autour du site catalytique. Parallèlement aux développements de la catalyse par des dérivés de Binol, le domaine des liquides ioniques a connu un intérêt croissant ces dernières années. Les liquides ioniques, sels dont le point de fusion est inférieur à 100°C, cumulent de nombreuses qualités convoitées : faible pression de vapeur, stabilité thermique et chimique et fort pouvoir de solvatation. Dû à ces propriétés, les liquides ioniques ont principalement été étudiés dans l’optique de développer une gamme de solvants recyclables. Alors que les propriétés des liquides ioniques sont facilement modulables en fonction de l’anion et du cation choisi, le concept de liquide ionique à tâche spécifique va plus loin et propose d’introduire directement, sur le cation ou l’anion, un groupement conférant une propriété particulière. En suivant cette approche, plusieurs ligands ioniques ont été rapportés, par simple couplage d’un cation organique à un ligand déjà connu. Étonnamment, le Binol a fait l’objet de très peu de travaux pour l’élaboration de ligands ioniques. Dans cette thèse, nous proposons l’étude d’une famille de composés de type Binol-imidazolium dont les unités Binol et imidazolium sont séparées par un espaceur méthylène. Différents homologues ont été synthétisés en variant le nombre d’unités imidazolium et leur position sur le noyau Binol, la longueur de la chaîne alkyle portée par les unités imidazolium et la nature du contre-anion. Après une étude des propriétés thermiques de ces composés, l’utilisation des Binol-imidazoliums en tant que ligands dans une réaction asymétrique d’éthylation d’aldéhydes aromatique a été étudiée en milieu liquide ionique. La réaction a été conduite en solvant liquide ionique dans le but de recycler aussi bien le ligand Binol-imidazolium que le solvant, en fin de réaction. Cette étude nous a permis de démontrer que la sélectivité de ces ligands ioniques dépend grandement de leur structure. En effet, seuls les Binols fonctionnalisés en positions 6 et 6’ permettent une sélectivité de la réaction d’éthylation. Alors que les dérivés de Binol fonctionnalisés en positions 3 et 3’ ne permettent pas une catalyse énantiosélective, il a déjà été rapporté que ces composés avaient la capacité de complexer des anions. D’autre part, il a déjà été rapporté par notre groupe, que les composés comportant des unités imidazolium pouvaient permettre le transport d’anions à travers des bicouches lipidiques en fonction de leur amphiphilie. Ceci nous a amenés à la deuxième partie de cette thèse qui porte sur les propriétés ionophores des Binols fonctionnalisés en positions 3 et 3’ par des unités imidazoliums. Dans un premier temps, nous nous sommes intéressés à l’étude de la relation structure-activité et au mécanisme de transport de ces composés. Le transport d’anions étant un processus clé dans la biologie cellulaire, l’activité biologique des composés présentant une activité ionophore dans des systèmes modèles (liposomes) a été étudiée par la suite. L’activité antibactérienne des nos composés a été testée sur quatre souches de bactéries. Il s’est avéré que les composés Binol-imidazolium sont actifs uniquement sur les bactéries Gram positives. Finalement, la cytotoxicité des composés présentant une activité antibactérienne a été étudiée sur des cellules humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème dedentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire avait pour but de dresser un portrait clair et exhaustif des facteurs pré-crime recensés au sein d’un échantillon de 37 agresseurs sexuels de femmes. Cette démarche est intimement liée à l’étude des processus de passage à l’acte des agresseurs sexuels. Dans le cadre d’un programme de prévention de la récidive, les participants avaient à identifier divers événements de vie qui sont survenus au cours des deux années précédant le (ou les) délit(s) de référence et qui ont eu un fort impact émotionnel sur eux. Au total, 339 événements de vie ont été recensés. À chaque événement de vie correspond une chaîne comportementale, celle-ci étant composée de six volets : 1) les « situations spécifiques » constituant l’événement de vie; 2) les « cognitions » associées à cet événement de vie; 3) les « émotions » engendrées par ces cognitions; 4) les « fantaisies » déclenchées par ces émotions; 5) les « comportements » adoptés suite à ces fantaisies; et 6) les « conséquences » ayant résulté de ces comportements. Les données, initialement de nature qualitative, ont ensuite été opérationnalisées afin qu’elles puissent être analysées quantitativement. Nos résultats ont démontré que les conflits conjugaux et la consommation d’alcool et/ou de drogues représentaient les situations les plus fréquemment rapportées au cours de la phase pré-crime. Les cognitions les plus souvent recensées suite à l’événement de vie initial étaient le pessimisme et l’adoption d’une position de victime. L’hostilité, la dépression et l’anxiété constituaient les émotions les plus fréquemment engendrées par le volet cognitif. Les fantaisies les plus souvent déclenchées par le volet émotionnel étaient l’agression sexuelle et la violence physique (non sexuelle). La consommation d’alcool et/ou de drogues et le fait de ne pas exprimer ses émotions, son point de vue ou ses besoins représentaient les comportements les plus fréquemment adoptés suite aux fantaisies. Enfin, les conséquences les plus souvent recensées étaient l’accumulation de cognitions et/ou d’émotions négatives et la présence de fantaisies sexuelles déviantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le système de différenciation entre le « soi » et le « non-soi » des vertébrés permet la détection et le rejet de pathogènes et de cellules allogéniques. Il requiert la surveillance de petits peptides présentés à la surface cellulaire par les molécules du complexe majeur d’histocompatibilité de classe I (CMH I). Les molécules du CMH I sont des hétérodimères composés par une chaîne lourde encodée par des gènes du CMH et une chaîne légère encodée par le gène β2-microglobuline. L’ensemble des peptides est appelé l’immunopeptidome du CMH I. Nous avons utilisé des approches en biologie de systèmes pour définir la composition et l’origine cellulaire de l’immunopeptidome du CMH I présenté par des cellules B lymphoblastoïdes dérivés de deux pairs de fratries avec un CMH I identique. Nous avons découvert que l’immunopeptidome du CMH I est spécifique à l’individu et au type cellulaire, qu’il dérive préférentiellement de transcrits abondants, est enrichi en transcrits possédant d’éléments de reconnaissance par les petits ARNs, mais qu’il ne montre aucun biais ni vers les régions génétiques invariables ni vers les régions polymorphiques. Nous avons également développé une nouvelle méthode qui combine la spectrométrie de masse, le séquençage de nouvelle génération et la bioinformatique pour l’identification à grand échelle de peptides du CMH I, dont ceux résultants de polymorphismes nucléotidiques simples non-synonymes (PNS-ns), appelés antigènes mineurs d’histocompatibilité (AMHs), qui sont les cibles de réponses allo-immunitaires. La comparaison de l’origine génomique de l’immunopeptidome de soeurs avec un CMH I identique a révélé que 0,5% des PNS-ns étaient représentés dans l’immunopeptidome et que 0,3% des peptides du CMH I seraient immunogéniques envers une des deux soeurs. En résumé, nous avons découvert des nouveaux facteurs qui modèlent l’immunopeptidome du CMH I et nous présentons une nouvelle stratégie pour l’indentification de ces peptides, laquelle pourrait accélérer énormément le développement d’immunothérapies ciblant les AMHs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La consommation et la consommation problématique de substances psychoactives sont des phénomènes répandus à l’adolescence qui ont suscité beaucoup d’intérêt dans les pays occidentaux au cours des dernières décennies. La recherche a souligné la nécessité d’établir un modèle examinant les effets conjoints du groupe de pairs et de la famille sur ces phénomènes. Deux grandes lignées théoriques émergent de la littérature, soit les courants de la socialisation et de la sélection. De plus, de nombreuses études ont tenté d’expliquer la fréquente cooccurrence de ces phénomènes avec la symptomatologie dépressive, généralement associée à un pronostic plus lourd. Toutefois, la nature et le sens de cette association demeurent peu clairs. Une clarification des mécanismes en jeu est nécessaire afin de pouvoir mieux orienter les efforts de prévention et d’intervention. Le premier objectif de cette thèse est de contribuer à clarifier l’étiologie de la consommation problématique à l’adolescence, en examinant comment elle s’articule avec certains facteurs familiaux, comportementaux et affectifs, et avec l’association à des amis déviants et consommateurs, en testant conjointement deux modèles de médiation compétitifs. Le deuxième objectif est de clarifier l’association entre ces différentes dimensions et la symptomatologie dépressive, en testant l’effet modérateur des symptômes dépressifs dans la chaîne médiatrice proposée. Le troisième objectif est de spécifier les particularités pouvant exister entre les garçons et les filles en testant l’effet modérateur du sexe sur cette même chaîne médiatrice. Les données utilisées proviennent d’une cohorte de l’échantillon longitudinal de la Stratégie d’Intervention Agir Autrement (SIAA) comprenant plus de 3000 jeunes fréquentant des écoles de milieux majoritairement défavorisés du Québec, qui ont été suivis pendant leur secondaire (2003-2007). Lorsque testés séparément, le modèle de socialisation (Patterson) se reproduit dans notre échantillon, mais pas le modèle de sélection (Brown). Lorsque testés simultanément, les modèles structurels de régressions croisées suggèrent toutefois qu’aucun des liens postulés par les modèles ne semble se reproduire, au profit de liens médiateurs de stabilité, à l’exception d’un lien de médiation proposé par le modèle de Patterson chez les garçons. Les analyses de modération (multi-groupes) suggèrent que le sexe a bien un effet modérateur, le contrôle comportemental parental semblant particulièrement important dans l’étiologie des comportements problématiques des garçons, alors que les conflits familiaux semblent plus centraux pour les filles. Les analyses de modération suggèrent également un effet modérateur par les symptômes dépressifs, mais alors qu’il était attendu que ces symptômes exacerberaient les liens à l’étude, il apparaît qu’au contraire, aucun des liens ne se révèle significatif dans le groupe des dépressifs. Cette étude suggère donc que la symptomatologie dépressive et la consommation problématique se présentent conjointement dans un profil plus global de risque. À notre connaissance, cette thèse est la première à s’intéresser spécifiquement au rôle modérateur des symptômes dépressifs sur les liens existant entre les différentes dimensions à l’étude. Les résultats soulignent l’importance d’une intervention psychosociale précoce auprès des jeunes à risque et aux prises avec des symptômes dépressifs, en ciblant des aspects spécifiques pour les garçons et pour les filles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet ouvrage traite d’une méthodologie pour l’induction de centres stéréogènes au sein des motifs propionates par la chimie des radicaux et de son application à la synthèse totale du méthyl ester de la zincophorine. Cet ionophore, aux propriétés biologiques intéressantes, présente plusieurs défis synthétiques dont une séquence de type polypropionate anti, anti, anti, anti difficilement accessible ainsi qu’un tétrahydropyrane trans trisubstitué. Récemment, l’intérêt renouvelé pour ces composés polyéthers, en tant qu’agents anticancéreux, accentue l’importance de stratégies versatiles permettant l’accès à ces structures ainsi qu’à leurs analogues. Depuis quelques années, notre groupe s’intéresse à la synthèse d’unités propionates acycliques par une séquence réactionnelle contrôlée uniquement par le substrat. La première étape découle d’une aldolisation de Mukaiyama entre un aldéhyde alpha-chiral et un énoxysilane tétrasubstitué portant une liaison carbone-halogène, et où l’issue stéréochimique dépend de la nature monodentate ou bidentate de l’acide de Lewis employé. La seconde réaction-clé implique la formation d’un radical tertiaire, vicinal à un ester, pouvant être réduit diastéréosélectivement en présence d’hydrure d’étain. La première section décrit l’élaboration de motifs tétrahydropyranes trisubstitués et l’induction des centres stéréogènes vicinaux par une réduction radicalaire. Nous avons révélé que l’issue diastéréosélective de la réaction de cyclisation par une iodoéthérification était dictée par le groupement gamma-méthyle des esters alpha,beta-insaturés de départ. Nous avons ensuite démontré que les produits de la réaction radicalaire anti et syn pouvaient être obtenus sélectivement à partir d’un intermédiaire commun, respectivement en prenant appui sur l’effet exocyclique ou endocyclique lors de la réduction. Par une stratégie complémentaire, nous avons révélé que le précurseur radicalaire pouvait également être obtenu par une réaction de cycloéthérification en présence d’un énoxysilane tétrasubstitué. Une étude systématique des substituants du cycle a révélé que certaines relations stéréochimiques conduisaient à une perte de sélectivité au détriment du produit anti. La seconde section concerne l’étude DFT au niveau BHandHLYP/TZVP des intermédiaires radicalaires impliqués lors du transfert d’hydrogène. Par une étude de décomposition de l’énergie d’activation, nous avons été en mesure de rationaliser l’issue diastéréosélective de la réaction sur la base des énergies de distorsion (∆Ed‡) et d’interaction (∆Eint‡) requises pour accéder à la paire d’états de transition pro-anti et pro-syn. De plus, nous avons démontré qu’une analyse NBO permettait de relativiser l’impact des interactions stéréoélectroniques. Par la suite, l’évaluation des intermédiaires radicalaires borinates et aluminates nous a permis de révéler que l’encombrement stérique de la chaîne propionate était la cause principale de la formation sélective des produits anti ou syn lors d’une réduction en présence d’un acide de Lewis. La dernière section décrit l’élaboration de la séquence polypropionate de la zincophorine, et de ses isomères, à partir du fragment tétrahydropyrane substitué. Au cours de notre étude, nous avons identifié que le nombre de sites de chélation potentiels devait être limité à trois lors de l’aldolisation en condition Cram-chélate. De plus, nous avons démontré que les différents motifs acétates sont accessibles sélectivement par l’utilisation d’un énoxysilane encombré. Par ailleurs, nous avons révélé qu’une même séquence réactionnelle pouvait être employée pour la synthèse du fragment C17–C25 de son analogue naturel CP-78,545, et avons complété la plus récente synthèse totale du méthyl ester de la zincophorine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif de l’étude : Estimer l'association entre la position socioéconomique et l'utilisation des médicaments psychotropes dans cinq populations différentes chez les personnes âgées de 65-74 ans. Méthode : L'échantillon d'étude était composé de 1995 personnes avec des données issues de la première vague de collecte de 2012 faite par l’International Mobility in Aging Study (IMIAS). Il se composait de 401 participants de Saint- Hyacinthe (Québec), 398 de Kingston (Ontario), 394 personnes âgées de Tirana (Albanie), 400 de Manizales (Colombie) et 402 de Natal (Brésil). Tous les médicaments psychotropes consommés pendant les 15 derniers jours ont été identifiés au cours d'une visite à domicile et codés selon la classification ATC. Les médicaments psychotropes inclus étaient les anxiolytiques, sédatifs et hypnotiques (ASH), les antidépresseurs (ADP) et les analgésiques/antiépileptiques/antiParkinson (AEP). Les associations entre la prévalence de la consommation des médicaments psychotropes et l'éducation, le revenu et l’occupation ont été estimés avec des ratios de prévalence (RP) obtenus en ajustant une régression de Poisson et en utilisant le modèle comportemental de Andersen et Newman sur l'utilisation des services de santé et en contrôlant les besoins (les maladies chroniques et la dépression), les facteurs prédisposants (âge et sexe) ainsi que les facteurs facilitants (en utilisant le site d'étude en tant que mandataire des facteurs lié au système de santé et à l'environnement). Résultats : Les personnes âgées vivant dans les sites canadiens consommaient plus de médicaments psychotropes que celles vivant dans les sites à l'extérieur du Canada, elles consommaient moins d’ASH à Manizales et ne consommaient pas d’ADP en Albanie. Les inégalités socioéconomiques varient selon les sites. Dans les sites canadiens, le faible niveau socioéconomique était associée à une plus grande consommation de médicaments psychotropes : en particulier, les personnes à faible niveau d’instruction consommaient plus d’antidépresseurs et celles à faible revenu consommaient plus d’AEP. Dans les sites de recherche d'Amérique latine, les personnes âgées de niveau d’instruction et de revenu élevé consommaient plus antidépresseurs et celles avec des occupations manuelles consommaient plus d’analgésiques/antiépileptiques/antiParkinson. À Tirana (Albanie), il n'y avait pas de consommation de médicaments antidépresseurs, mais la consommation d’ASH était plus élevée chez les personnes à faible revenu. Les analyses multivariées du modèle final cache les différences entre les sites qui se sont révélées dans les analyses spécifiques au niveau du Canada, de l’Amérique Latine et d’Albanie. Conclusion : Il existe des inégalités socioéconomiques liées à la consommation des médicaments psychotropes chez les personnes âgées. Ces inégalités varient selon les sites. L'utilisation des médicaments psychotropes était plus fréquente chez les personnes les moins instruites et les plus pauvres au Canada alors que l'inverse était vrai dans les sites d'Amérique latine. L'Albanie était caractérisée par une absence de consommation d'antidépresseurs alors qu’il y avait une plus grande utilisation des anxiolytiques, sédatifs et hypnotiques dans les groupes à faible revenu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'épaule est souvent affectée par des troubles musculo-squelettiques. Toutefois, leur évaluation est limitée à des mesures qualitatives qui nuisent à la spécificité et justesse du diagnostic. L'analyse de mouvement tridimensionnel pourrait complémenter le traitement conventionnel à l'aide de mesures quantitatives fonctionnelles. L'interaction entre les articulations de l'épaule est estimée par le rythme scapulo-huméral, mais la variabilité prononcée qu'il affiche nuit à son utilisation clinique. Ainsi, l'objectif général de cette thèse était de réduire la variabilité de la mesure du rythme scapulo-huméral. L'effet de la méthode de calcul du rythme scapulo-huméral et des conditions d'exécution du mouvement (rotation axiale du bras, charge, vitesse, activité musculaire) ont été testées. La cinématique des articulations de l'épaule a été calculé par chaîne cinématique et filtre de Kalman étendu sur des sujets sains avec un système optoélectronique. La méthode usuelle de calcul du rythme scapulo-huméral extrait les angles d'élévation gléno-humérale et de rotation latérale scapulo-thoracique. Puisque ces angles ne sont pas co-planaires au thorax, leur somme ne correspond pas à l'angle d'élévation du bras. Une nouvelle approche de contribution articulaire incluant toutes les rotations de chaque articulation est proposée et comparée à la méthode usuelle. La méthode usuelle surestimait systématiquement la contribution gléno-humérale par rapport à la méthode proposée. Ce nouveau calcul du rythme scapulo-huméral permet une évaluation fonctionnelle dynamique de l'épaule et réduit la variabilité inter-sujets. La comparaison d'exercices de réadaptation du supra-épineux contrastant la rotation axiale du bras a été réalisée, ainsi que l'effet d'ajouter une charge externe. L'exercice «full-can» augmentait le rythme scapulo-huméral et la contribution gléno-humérale ce qui concorde avec la fonction du supra-épineux. Au contraire, l'exercice «empty-can» augmentait la contribution scapulo-thoracique ce qui est associé à une compensation pour éviter la contribution gléno-humérale. L'utilisation de charge externe lors de la réadaptation du supra-épineux semble justifiée par un rythme scapulo-huméral similaire et une élévation gléno-humérale supérieure. Le mouvement de l'épaule est souvent mesuré ou évalué en condition statique ou dynamique et passive ou active. Cependant, l'effet de ces conditions sur la coordination articulaire demeure incertain. La comparaison des ces conditions révélait des différences significatives qui montrent l'importance de considérer les conditions de mouvement pour l'acquisition ou la comparaison des données.