77 resultados para Applications for positions.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet, l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles. Ce patron utilise un reasoner basé sur les logiques de description (web sémantique) pour procéder à la classification des objets dans les hiérarchies. La création des objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron permet l’utilisation effective du raisonnement automatique dans un contexte d’applications d’entreprise. Les concepts requis pour la compréhension du patron et des outils sont présentés. Les conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des logiques de description dans le même contexte sont discutées.
Resumo:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
Resumo:
Cette thèse porte sur les représentations sociales de la pharmacogénomique (PGx) chez deux groupes d’acteurs centraux du développement et des applications en PGx au Québec. L’objectif est de comprendre comment les chercheurs en PGx et les étudiants en médecine se positionnent à l’égard des découvertes en PGx et de leurs éventuelles applications en pratique médicale. Cette étude a aussi pour objectifs de mieux comprendre comment il est possible d’anticiper l’arrivée de la PGx dans la pratique médicale par le contraste des représentations des chercheurs et des étudiants et de concevoir comment les informations circulent entre les deux groupes. Pour atteindre ces objectifs, l’utilisation du cadre théorique des représentations sociales, et plus particulièrement des représentations sociales dites professionnelles, est retenue. Une démarche multiméthodologique est déterminée pour cerner les représentations des deux groupes. En effet, une approche qualitative par entretiens semi-dirigés est réalisée dans un premier temps auprès des chercheurs et, ensuite, une enquête par questionnaire est effectuée auprès des étudiants en médecine. Les positionnements des deux groupes sont contrastés au sujet de trois concepts clés : les médicaments, la génomique et la PGx. Les principes organisateurs des représentations sociales des étudiants en médecine et des chercheurs, eu égard à ces trois concepts, permet de positionner le niveau des représentations sociales des étudiants en médecine vers leur professionnalisation dans un schéma proposé par Bataille (2000). Ainsi, les étudiants en médecine fournissent des représentations des médicaments assez près de celles des chercheurs. Leurs représentations des avancées en génomique sont beaucoup moins professionnalisées, tandis que l’on remarque une organisation restreinte pour ce qui est de leur représentation de la PGx. Le contexte de formation médicale est interrogé dans cette thèse puisqu’il laisse peu de place aux découvertes et aux recherches de pointe. Les chercheurs autant que les étudiants affirment que la solution pour améliorer leurs connaissances dans le domaine de la PGx est d’ajouter ces connaissances dans leur cadre de leur formation médicale.
Resumo:
L’auteur traite ici de la télémédecine, une sorte d’application des technologies de l’information et de la communication aux activités du secteur des soins de santé. Il fait d’abord état des nombreux produits et services qu’offre cette application, allant de la prise de rendez-vous chez le médecin grâce à l’informatique, aux vêtements dits intelligents et qui sont munis de capteurs permettant la délivrance à distance des médicaments directement au patient. Le nombre d’applications de la télémédecine étant quasi illimité, nombreuses deviennent les informations à gérer et qui se rapportent tant aux patients qu’au personnel soignant et qu’à leurs collaborateurs. Cela pose évidemment le problème de la confidentialité et de la sécurité se rapportant à de telles applications. C'est justement cette question qui sera traitée par l’auteur qui nous rappelle d’abord l’importance en Europe de l’encadrement juridique de la télémédecine afin d’assurer la protection des données médicales. Une telle protection a surtout été consacrée à travers des directives émanant de la Communauté européenne où la confidentialité et la sécurité des traitements de données ne sont qu’une partie des règles qui assurent la protection des données médicales.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
Les acides biliaires sont reconnus comme des tensioactifs d’origine biologique potentiellement applicables dans le domaine pharmaceutique. Leurs structures en font une plateforme idéale pour l’obtention de nouvelles architectures polymères. Des composés synthétisés par polymérisation anionique de dérivés d’oxirane comme l’oxyde d’éthylène, offre des dérivés amphiphiles pegylés démontrant des propriétés d’agrégation intéressantes en vue d’une amélioration de la biocompatibilité et de la capacité d’encapsulation médicamenteuse. Une large gamme d’acides biliaires pegylés (BA(EGn)x) a été préparée avec comme objectif premier leurs applications dans la formulation de principes actifs problématiques. Pour cela, une caractérisation rigoureuse du comportement de ces dérivés (modulation de la longueur (2 < n < 19) et du nombre de bras (2 < x < 4) de PEG) en solution a été réalisée. Dans le but d’améliorer la biodisponibilité de principes actifs lipophiles (cas de l’itraconazole), des nanoémulsions spontanées, composées de BA(EGn)x et d’acide oléique, ont été développées. L’évaluation in vitro, de la toxicité (cellulaire), et de la capacité de solubilisation des systèmes BA(EGn)x, ainsi que les paramètres pharmacocinétiques in vivo (chez le rat), suggèrent une livraison contrôlée par nos systèmes auto-assemblés lors de l’administration orale et intraveineuse. Aussi, la synthèse de copolymères en blocs en étoile à base d’acide cholique pegylés a été effectuée par polymérisation anionique par addition d’un second bloc au caractère hydrophobe de poly(éther d’allyle et de glycidyle) (CA(EGn-b-AGEm)4). Selon le ratio de blocs hydrophiles-hydrophobes CA(EGn-b-AGEm)4, des réponses thermiques en solution (LCST) ont été observées par un point de trouble (Cp) entre 8 oC et 37 oC. Un mécanisme de formation d’agrégats en plusieurs étapes est suggéré. La thiolation des allyles des PAGE permet une fonctionnalisation terminale à haute densité, comparable aux dendrimères. Les caractérisations physico-chimiques des CA(EGn-b-AGEm-NH2)4 et CA(EGn-b-AGEm-COOH)4 indiquent la formation de structures auto-assemblées en solution, sensibles à la température ou au pH. Cette fonctionnalisation élargie le domaine d’application des dérivés d’acides biliaires pegylés en étoile vers la transfection d’ADN, la livraison de siRNA thérapeutiques ou encore à une sélectivité de livraison médicamenteux (ex. sensibilité au pH, greffage ligands).
Resumo:
La culture de saules (Salix sp.) est une pratique courante en Europe et en Amérique du Nord pour produire de la biomasse végétale. Cependant, le développement d’outils moléculaires est très récent. De plus, la phylogénie des saules est incomplète. Il y a un manque d’information pour les programmes de sélection d'espèces indigènes et pour la compréhension de l’évolution du genre. Le genre Salix inclut 500 espèces réparties principalement dans les régions tempérées et boréo-arctique de l’hémisphère nord. Nous avons obtenu l’ensemble des espèces retrouvées naturellement en Amérique (121 indigènes et introduites). Dans un premier temps, nous avons développé de nouveaux outils moléculaires et méthodes : extraction d’ADN, marqueurs microsatellites et gènes nucléaires. Puis, nous avons séquencé deux gènes chloroplastiques (matK et rbcL) et la région ITS. Les analyses phylogénétiques ont été réalisées selon trois approches : parcimonie, maximum de vraisemblance et Bayésienne. L’arbre d’espèces obtenu a un fort support et divise le genre Salix en deux sous-genres, Salix et Vetrix. Seize espèces ont une position ambiguë. La diversité génétique du sous-genre Vetrix est plus faible. Une phylogénie moléculaire complète a été établie pour les espèces américaines. D’autres analyses et marqueurs sont nécessaires pour déterminer les relations phylogénétiques entre certaines espèces. Nous affirmons que le genre Salix est divisé en deux clades.
Resumo:
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.
Resumo:
Cette thèse est divisée en trois parties principales, ayant toutes trait à la régulation des émotions ou à l'efficacité des interventions issues de la troisième vague des thérapies cognitives comportementales, en particulier chez les personnes ayant des symptômes psychotiques. La thèse est composée d'un chapitre de livre rédigé en francais, de quatre articles rédigés en anglais (introduction, deux méta-analyses et une étude pilote) et d’une discussion générale rédigée en anglais. L'introduction, déjà publiée sous le format d’un chapitre de livre (et d’un article) constitue un examen exhaustif de la littérature portant sur la régulation des émotions dans la schizophrénie et dans les autres troubles psychotiques. Les individus présentant une schizophrénie présentent des dérégulations, indépendantes l’une de l’autre, dans les trois domaines distincts suivants: l’expression des émotions, le traitement des emotions, et l’expérience émotionnelle. Cette première partie de la thèse recommande fortement l'intégration des stratégies de régulation des émotions, notamment celles de la troisième vague des thérapies cognitives comportementales telles que la pleine conscience, l'acceptation et la compassion, dans le traitement des personnes souffrant de psychose. Dans la deuxième partie de la thèse, deux méta-analyses examinant l'efficacité des stratégies de la troisième vague des traitements cognitifs comportementaux dans la régulation des émotions sont présentées. La première méta-analyse vise à examiner l'efficacité de la thérapie basée sur la pleine conscience pour tous les troubles psychologiques ainsi que pour les conditions médicales. La deuxième méta-analyse porte plus spécifiquement sur l'efficacité des stratégies de la troisième vague pour la psychose. Les résultats des deux méta-analyses démontrent des tailles d'effet entre modérées et larges, avec un effet plus marqué sur les symptômes affectifs, notamment l'anxiété, la dépression et la détresse. En outre, les stratégies étudiées (la pleine conscience, l'acceptation et la compassion) sont des fortes modératrices positives de l'efficacité des traitements. Ces résultats suggèrent que ces stratégies sont efficaces dans la régulation des émotions, du moins lorsqu'elles sont mesurées au sein de grands bassins de participants, y compris les personnes souffrant de psychose. La troisième partie de la thèse implique le développement et la validation préliminaire d'une nouvelle intervention de groupe pour des individus en début de psychose à l'aide d'une combinaison de stratégies d'acceptation, de compassion et de la pleine conscience. Douze individus ont participé à cette étude pilote. Les résultats démontrent la faisabilité et l'acceptabilité du traitement. Des améliorations significatives dans la régulation des émotions et dans les symptômes affectifs sont observées, et sont potentiellement liées à l'intervention. Globalement, la thèse offre un soutien empirique du rôle de la régulation émotionnelle dans le traitement des personnes atteintes de troubles psychotiques. Plus de recherches sont nécessaires pour valider l'efficacité du nouveau traitement.
Resumo:
Dans cette thèse, je me suis interessé à l’identification partielle des effets de traitements dans différents modèles de choix discrets avec traitements endogènes. Les modèles d’effets de traitement ont pour but de mesurer l’impact de certaines interventions sur certaines variables d’intérêt. Le type de traitement et la variable d’intérêt peuvent être défini de manière générale afin de pouvoir être appliqué à plusieurs différents contextes. Il y a plusieurs exemples de traitement en économie du travail, de la santé, de l’éducation, ou en organisation industrielle telle que les programmes de formation à l’emploi, les techniques médicales, l’investissement en recherche et développement, ou l’appartenance à un syndicat. La décision d’être traité ou pas n’est généralement pas aléatoire mais est basée sur des choix et des préférences individuelles. Dans un tel contexte, mesurer l’effet du traitement devient problématique car il faut tenir compte du biais de sélection. Plusieurs versions paramétriques de ces modèles ont été largement étudiées dans la littérature, cependant dans les modèles à variation discrète, la paramétrisation est une source importante d’identification. Dans un tel contexte, il est donc difficile de savoir si les résultats empiriques obtenus sont guidés par les données ou par la paramétrisation imposée au modèle. Etant donné, que les formes paramétriques proposées pour ces types de modèles n’ont généralement pas de fondement économique, je propose dans cette thèse de regarder la version nonparamétrique de ces modèles. Ceci permettra donc de proposer des politiques économiques plus robustes. La principale difficulté dans l’identification nonparamétrique de fonctions structurelles, est le fait que la structure suggérée ne permet pas d’identifier un unique processus générateur des données et ceci peut être du soit à la présence d’équilibres multiples ou soit à des contraintes sur les observables. Dans de telles situations, les méthodes d’identifications traditionnelles deviennent inapplicable d’où le récent développement de la littérature sur l’identification dans les modèles incomplets. Cette littérature porte une attention particuliere à l’identification de l’ensemble des fonctions structurelles d’intérêt qui sont compatibles avec la vraie distribution des données, cet ensemble est appelé : l’ensemble identifié. Par conséquent, dans le premier chapitre de la thèse, je caractérise l’ensemble identifié pour les effets de traitements dans le modèle triangulaire binaire. Dans le second chapitre, je considère le modèle de Roy discret. Je caractérise l’ensemble identifié pour les effets de traitements dans un modèle de choix de secteur lorsque la variable d’intérêt est discrète. Les hypothèses de sélection du secteur comprennent le choix de sélection simple, étendu et généralisé de Roy. Dans le dernier chapitre, je considère un modèle à variable dépendante binaire avec plusieurs dimensions d’hétérogéneité, tels que les jeux d’entrées ou de participation. je caractérise l’ensemble identifié pour les fonctions de profits des firmes dans un jeux avec deux firmes et à information complète. Dans tout les chapitres, l’ensemble identifié des fonctions d’intérêt sont écrites sous formes de bornes et assez simple pour être estimées à partir des méthodes d’inférence existantes.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Résumé: Dans le but de préparer des complexes de Zr pour la catalyse homogène de la polymérisation des lactides et de l’hydroamination des olefines, l’elaboration et l’optimisation d’une méthode systématique et efficace de synthèse des ligands dikétimines ayant différents substituants alkyles (R) à la position N,N’ a été realisée. Des dikétimines (nacnacRH) symétriques ont été obtenus avec une pureté de plus de 95 % et un rendement de 65 % lorsque R = Me et des rendements allant de 80 à 95 % lorsque le groupe R = n-Pr, i-Pr, i-Bu, Bu, Cy et (+)-CH(Me)Ph. La synthèse des dikétimines ayant des substituants N-alkyls différents, dite asymétriques, donne toujours un mélange statistique de trois ligands: nacnacR,R’H, nacnacR,RH et nacnacR’,R’H qui n’ont pu être separés. Seuls les dikétimines asymétriques avec un substituant N-alkyl et un autre N-aryl (nacnacR,ArH) ont été obtenus avec des rendements plus élevés que celui du mélange statistique. Par la suite, la complexation de ces ligands bidentés au Zr, la caractérisation de ces complexes et l’investigation de la réactivité ont été étudiés. Les complexes de Zr de type (nacnacR)2ZrCl2 ont été obtenus par deux voies de synthèse principales: la première consiste à traiter le sel de lithium du ligand avec le ZrCl4. La seconde est la réaction du ligand avec les complexes neutres d’alkyl-zirconium(IV) par protonation de l'alkyle coordonné. En solution, les complexes obtenus de (nacnacR)2ZrX2 possèdent un comportement dynamique via un « Bailar-twist » et les paramètres d'activation de cette isomérisation ont été calculés. Le complexe octaèdrique (nacnacBn)2ZrCl2 n'est pas réactif dans la carbozirconation et son alkylation n'était pas possible par l’échange des chlorures avec les alkyles. L’analogue diméthylé (nacnacBn)2ZrMe2 peut être préparé par alkylation du ZrCl4 avant la complexation du ligand. On a également observé que ce dernier n’est pas réactif dans la carbozirconation. L‘analogue diéthoxyde (nacnacBn)2Zr(OEt)2 est obtenu par échange des diméthyles avec les éthoxydes. La polymérisation du lactide avec celui-ci en tant que précurseur est relativement lente et ne peut être effectuée que dans le monomère fondu. Par conséquent, pour résoudre les problèmes rencontrés avec les complexes de zirconium (dikétiminates non-pontés), un ligand dikétimines pontés par le diaminocyclohexane, (±)-C6H10(nacnacXylH)2, LH2, (Xyl = 2,6-diméthylphényle) a été préparé. La complexation de ce ligand tetradenté au metal a été réalisée par deux voies de synthèse; la première est la réaction du sel de lithium de ce ligand avec le ZrCl4(THF)2. La deuxième est la déprotonation du ligand neutre avec le Zr(NMe2)4 et l’élimination du diméthylamine. Des complexes du type: (±)-C6H10(nacnacXylH)2ZrX2 avec X = Cl, NMe2 ont été obtenus. Les ligands de chlorure sont dans ce cas facilement remplaçables par des éthoxydes ou des méthyles. On a observé l’activité la plus élevée jamais observée pour un complexe d’un métal du groupe 4 avec le complexe de (±)-C6H10(nacnacXylH)2Zr(OEt)2 dans la polymérisation de lactide. L'étude cinétique a montré que la loi de vitesse est du premier ordre en catalyseur et en monomère et la constante de vitesse est k = 14 (1) L mol-1 s-1. L'analyse des polymères a montré l’obtention de masses moléculaires faibles et l’abscence de stéréocontrôle. La réaction de (±)-C6H10(nacnacXylH)2ZrCl2 avec le triflate d’argent donne le (±)-C6H10(nacnacXylH)2Zr(OTf)2. Le complexe bis-triflate obtenu possède une activité catalytique elevée pour les additions du type aza-Michael. L’utilisation du R,R-C6H10(nacnacXylH)2Zr(OTf)2 énantiopur comme catalyseur, dans les additions du type aza-Michael asymétriques donne le produit desiré avec un excès énantiomérique de 19%.
Resumo:
Les diagrammes de transitions d'états ont été réalisés avec le logiciel Latex.
Resumo:
Cet article est une introduction à ce numéro spécial sur le thème ‘résilience et sociétés’. Concept largement utilisé dans de nombreuses disciplines scientifiques, la résilience est cependant très diversement comprise. Tandis que certains la considèrent comme une qualité, d’autres l’appréhendent comme un processus de mobilisation d’une force insoupçonnée pour surmonter un traumatisme. On remarque cependant que la dimension sociale est de plus en plus au centre de son analyse. Les écologistes se penchent sur les systèmes socioécologiques, les psychologues l’appréhendent sous l’angle psychosociale, la socio-économie en ausculte les implications sur les conditions de vie des populations et la cohésion sociale. Cet article interroge les articulations possibles entre ‘résiliences et sociétés’, tant du point de vue conceptuel que de certaines applications exploratoires.