79 resultados para Paramètre de pénalisation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les études d’imagerie par résonance magnétique fonctionnelle (IRMf) ont pour prémisse générale l’idée que le signal BOLD peut être utilisé comme un succédané direct de l’activation neurale. Les études portant sur le vieillissement cognitif souvent comparent directement l’amplitude et l’étendue du signal BOLD entre des groupes de personnes jeunes et âgés. Ces études comportent donc un a priori additionnel selon lequel la relation entre l’activité neurale et la réponse hémodynamique à laquelle cette activité donne lieu restent inchangée par le vieillissement. Cependant, le signal BOLD provient d’une combinaison ambiguë de changements de métabolisme oxydatif, de flux et de volume sanguin. De plus, certaines études ont démontré que plusieurs des facteurs influençant les propriétés du signal BOLD subissent des changements lors du vieillissement. L’acquisition d’information physiologiquement spécifique comme le flux sanguin cérébral et le métabolisme oxydatif permettrait de mieux comprendre les changements qui sous-tendent le contraste BOLD, ainsi que les altérations physiologiques et cognitives propres au vieillissement. Le travail présenté ici démontre l’application de nouvelles techniques permettant de mesurer le métabolisme oxydatif au repos, ainsi que pendant l’exécution d’une tâche. Ces techniques représentent des extensions de méthodes d’IRMf calibrée existantes. La première méthode présentée est une généralisation des modèles existants pour l’estimation du métabolisme oxydatif évoqué par une tâche, permettant de prendre en compte tant des changements arbitraires en flux sanguin que des changements en concentrations sanguine d’O2. Des améliorations en terme de robustesse et de précisions sont démontrées dans la matière grise et le cortex visuel lorsque cette méthode est combinée à une manipulation respiratoire incluant une composante d’hypercapnie et d’hyperoxie. Le seconde technique présentée ici est une extension de la première et utilise une combinaison de manipulations respiratoires incluant l’hypercapnie, l’hyperoxie et l’administration simultanée des deux afin d’obtenir des valeurs expérimentales de la fraction d’extraction d’oxygène et du métabolisme oxydatif au repos. Dans la deuxième partie de cette thèse, les changements vasculaires et métaboliques liés à l’âge sont explorés dans un groupe de jeunes et aînés, grâce au cadre conceptuel de l’IRMf calibrée, combiné à une manipulation respiratoire d’hypercapnie et une tâche modifiée de Stroop. Des changements de flux sanguin au repos, de réactivité vasculaire au CO2 et de paramètre de calibration M ont été identifiés chez les aînés. Les biais affectant les mesures de signal BOLD obtenues chez les participants âgés découlant de ces changements physiologiques sont de plus discutés. Finalement, la relation entre ces changements cérébraux et la performance dans la tâche de Stroop, la santé vasculaire centrale et la condition cardiovasculaire est explorée. Les résultats présentés ici sont en accord avec l’hypothèse selon laquelle une meilleure condition cardiovasculaire est associée à une meilleure fonction vasculaire centrale, contribuant ainsi à l’amélioration de la santé vasculaire cérébrale et cognitive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-dede la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire traite des propriétés du La2CuO4 dopé en trous, le premier supraconducteur à haute température critique ayant été découvert. Les différentes phases électroniques du cristal y seront présentées, ainsi que le diagramme de phases en dopage de ce matériau. Les trois structures dans lesquelles on peut retrouver ce cristal seront décrites en détail, et leurs liens présumés avec les phases électroniques seront présentés. Il s’en suivra une étude utilisant la théorie de la fonctionnelle de la densité combinée au modèle de Hubbard (DFT+U) des différentes phases structurales, en plus des phases antiferromagnétiques et paramagnétiques. L’effet de la corrélation électronique sur la structure cristalline sera également étudié par l’intermédiaire du paramètre de Hubbard. Le but sera de vérifier si la DFT+U reproduit bien le diagramme de phases expérimentales, et sous quelles conditions. Une étude des effets de l’inclinaison des octaèdres d’oxygène sur la structure électronique sera également présentée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail est axé vers la compréhension détaillée des propriétés de luminescence de composés de certains métaux lourds. La première partie de ce mémoire décrit la caractérisation spectroscopique d'un radical de type nitronyle nitroxyde, 2-(2-pyridinyl)-4,4,5,5-tétraméthyl-4,5-dihydro-1H-imidazolyl-1-oxyl-3-oxyde, abrégé (NIT2-Py), et de ses complexes avec les cations Tb(III), [Tb(hfac)3NIT2-Py], et Y(III), [Y(hfac)3NIT2-Py]. La variation de la température affecte les spectres de luminescence qui montrent de la structure vibronique résolue. Les maxima de ces transitions vibroniques se rapprochent au fur et à mesure que la température augmente. Ces variations des maxima en fonction de la température ne correspondent pas à des variations de fréquences vibrationnelles et sont de l'ordre de 200 cm-1 entre 80 K et 240 K. La variation de la température n'a pas d'influence significative sur la structure moléculaire, comme atteste la variation mineure des maxima des spectres Raman entre 80 K et 300 K. La comparaison des spectres expérimentaux à des spectres calculés montre que ces variations peuvent être reproduites par l'utilisation d'une combinaison de fréquences vibrationnelles. Le paramètre dont la variation est très significative est la résolution du spectre de luminescence, représentée par la largeur à mi-hauteur des transitions vibroniques qui forment le spectre de luminescence. La deuxième partie de ce mémoire décrit les propriétés de luminescence d'une série de complexes d’or(I). Elles sont comparées aux changements structuraux à pression et température variable. Les interactions aurophiles ont une grande influence sur la luminescence. La variation de la température et de la pression est une approche efficace pour varier la luminescence. Les effets observés dans les spectres d'émission de ces complexes dépendent des changements de structure induits par variation de la température et de la pression. Ces petites variations structurales mènent à des changements importants, à titre d'exemple à un déplacement du maximum de la bande de luminescence de 60 cm-1/ kbar vers les faibles énergies pour un des complexes de l'or(I) étudiés au cours de ce projet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse est composée d’un chapitre de préliminaires et de deux articles sur le sujet du déploiement de singularités d’équations différentielles ordinaires analytiques dans le plan complexe. L’article Analytic classification of families of linear differential systems unfolding a resonant irregular singularity traite le problème de l’équivalence analytique de familles paramétriques de systèmes linéaires en dimension 2 qui déploient une singularité résonante générique de rang de Poincaré 1 dont la matrice principale est composée d’un seul bloc de Jordan. La question: quand deux telles familles sontelles équivalentes au moyen d’un changement analytique de coordonnées au voisinage d’une singularité? est complètement résolue et l’espace des modules des classes d’équivalence analytiques est décrit en termes d’un ensemble d’invariants formels et d’un invariant analytique, obtenu à partir de la trace de la monodromie. Des déploiements universels sont donnés pour toutes ces singularités. Dans l’article Confluence of singularities of non-linear differential equations via Borel–Laplace transformations on cherche des solutions bornées de systèmes paramétriques des équations non-linéaires de la variété centre de dimension 1 d’une singularité col-noeud déployée dans une famille de champs vectoriels complexes. En général, un système d’ÉDO analytiques avec une singularité double possède une unique solution formelle divergente au voisinage de la singularité, à laquelle on peut associer des vraies solutions sur certains secteurs dans le plan complexe en utilisant les transformations de Borel–Laplace. L’article montre comment généraliser cette méthode et déployer les solutions sectorielles. On construit des solutions de systèmes paramétriques, avec deux singularités régulières déployant une singularité irrégulière double, qui sont bornées sur des domaines «spirals» attachés aux deux points singuliers, et qui, à la limite, convergent vers une paire de solutions sectorielles couvrant un voisinage de la singularité confluente. La méthode apporte une description unifiée pour toutes les valeurs du paramètre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte de la caractérisation des tissus mammaires, on peut se demander ce que l’examen d’un attribut en échographie quantitative (« quantitative ultrasound » - QUS) d’un milieu diffusant (tel un tissu biologique mou) pendant la propagation d’une onde de cisaillement ajoute à son pouvoir discriminant. Ce travail présente une étude du comportement variable temporel de trois paramètres statistiques (l’intensité moyenne, le paramètre de structure et le paramètre de regroupement des diffuseurs) d’un modèle général pour l’enveloppe écho de l’onde ultrasonore rétrodiffusée (c.-à-d., la K-distribution homodyne) sous la propagation des ondes de cisaillement. Des ondes de cisaillement transitoires ont été générés en utilisant la mèthode d’ imagerie de cisaillement supersonique ( «supersonic shear imaging » - SSI) dans trois fantômes in-vitro macroscopiquement homogènes imitant le sein avec des propriétés mécaniques différentes, et deux fantômes ex-vivo hétérogénes avec tumeurs de souris incluses dans un milieu environnant d’agargélatine. Une comparaison de l’étendue des trois paramètres de la K-distribution homodyne avec et sans propagation d’ondes de cisaillement a montré que les paramètres étaient significativement (p < 0,001) affectès par la propagation d’ondes de cisaillement dans les expériences in-vitro et ex-vivo. Les résultats ont également démontré que la plage dynamique des paramétres statistiques au cours de la propagation des ondes de cisaillement peut aider à discriminer (avec p < 0,001) les trois fantômes homogènes in-vitro les uns des autres, ainsi que les tumeurs de souris de leur milieu environnant dans les fantômes hétérogénes ex-vivo. De plus, un modéle de régression linéaire a été appliqué pour corréler la plage de l’intensité moyenne sous la propagation des ondes de cisaillement avec l’amplitude maximale de déplacement du « speckle » ultrasonore. La régression linéaire obtenue a été significative : fantômes in vitro : R2 = 0.98, p < 0,001 ; tumeurs ex-vivo : R2 = 0,56, p = 0,013 ; milieu environnant ex-vivo : R2 = 0,59, p = 0,009. En revanche, la régression linéaire n’a pas été aussi significative entre l’intensité moyenne sans propagation d’ondes de cisaillement et les propriétés mécaniques du milieu : fantômes in vitro : R2 = 0,07, p = 0,328, tumeurs ex-vivo : R2 = 0,55, p = 0,022 ; milieu environnant ex-vivo : R2 = 0,45, p = 0,047. Cette nouvelle approche peut fournir des informations supplémentaires à l’échographie quantitative statistique traditionnellement réalisée dans un cadre statique (c.-à-d., sans propagation d’ondes de cisaillement), par exemple, dans le contexte de l’imagerie ultrasonore en vue de la classification du cancer du sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers additionnels sont les données cristallographiques en format CIF. Voir le site de la Cambridge Crystallographic Data Centre pour un visualiseur: http://www.ccdc.cam.ac.uk