79 resultados para Paramètre de pénalisation
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
L’objectif de ce projet était de développer une formulation liquisolide (LS) de clozapine ayant des propriétés de dissolution améliorées et évaluer sa stabilité et ainsi que sa robustesse à la modification d’excipients. Le propylène glycol (PG), la cellulose microcrystalline (MCC) et le glycolate d’amidon sodique (SSG) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse et agent désintégrant pour la préparation de comprimés LS. Le dioxyde de silicium colloïdal (CSD), le silicate de calcium (CS) et l'aluminométasilicate de magnésium (MAMS) ont été choisis comme agents d’enrobage sec. La caractérisation complète des mélanges et des comprimés a été effectuée. Le taux de libération des comprimés LS était statistiquement supérieur à celui des comprimés réguliers. La surface spécifique des matériaux d’enrobage avait un effet sur les propriétés d’écoulement des mélanges et la taille des particules des matériaux d’enrobage a eu un effet sur la vitesse de dissolution. Le ratio support/enrobage du mélange de poudres (valeur de R) était un paramètre important pour les systèmes LS et devait être plus grand que 20 afin d’obtenir une meilleure libération du médicament. La formulation choisie a démontré une stabilité pour une période d’au moins 12 mois. La technique LS s’est avéré une approche efficace pour le développement de comprimés de clozapine ayant des propriétés de dissolution améliorées. Les comprimés oro-dispersibles (ODT) sont une formulation innovante qui permettent de surmonter les problèmes de déglutition et de fournir un début d'action plus rapide. Dans l’optique d’améliorer les propriétés de dissolution, un essai a été effectué pour étudier la technique LS dans la formulation des ODT de clozapine. Le PG, la MCC, le CSD et la crospovidone (CP) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse, agent d’enrobage sec et agent superdésintégrant pour la préparation de comprimés oro-dispersibles liquisolides (OD-LST). Le mannitol a été choisi comme agent de masse et agent édulcorant. La saccharine de sodium a été utilisée comme agent édulcorant. La caractérisation complète des comprimés a été effectuée. Le taux de libération des OD-LSTs était statisquement supérieur comparativement aux comprimés ODTs. La formulation choisie a démontré une stabilité pour une période d’au moins 6 mois. Il a été conclu que des ODT de clozapine peuvent être préparés avec succès en utilisant la technologie LS dans le but d’améliorer la désintégration et le taux de dissolution de la clozapine dans la cavité orale.
Resumo:
L’espace est un élément peu exploré en musique. Méconnu des compositeurs, il n’est généralement pas pensé comme paramètre musical « composable ». Pourtant si la musique peut être perçue comme une organisation et une succession d’éléments dans le temps, pourquoi ne pourrait-elle pas l’être aussi dans l’espace? Ce travail se veut en quelque sorte un pont entre la recherche et la pratique, qui se construit par la synthèse de l’information que j’ai pu trouver sur chacune des quatre méthodes de spatialisation abordées ici. Dans un premier temps, je traiterai de leur développement, leur fonctionnement et des possibilités d’intégration de ces méthodes dans le processus de composition musicale, notamment en discutant les outils disponibles. Dans un second temps, les pièces Minimale Sédation et Fondations, toutes deux composées en octophonie seront discutées. J’expliquerai leurs processus de composition à travers les intentions, les techniques d’écriture et les outils qui ont menés à leurs créations.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Chez le chien, les thromboses représentent une complication majeure de nombreuses conditions qui sont revues dans ce manuscrit. L’arsenal thérapeutique actuel présente certaines limites: des effets anticoagulants variables d’un patient à l’autre, des hémorragies et une administration par voie sous-cutanée pour l’héparine. Le rivaroxaban est un nouvel anticoagulant oral approuvé pour la prévention et le traitement des thromboses chez l’humain. C’est un inhibiteur direct du facteur Xa. La présente étude a pour objectif d’évaluer les effets hémostatiques du rivaroxaban chez des chiens en santé, en utilisant les tests de coagulation suivants: temps de prothrombine (PT), temps partiel de thromboplastine (aPTT), activité anti-facteur X, génération de thrombine (GT) et thromboélastographie (TEG®). Tout d’abord, l’effet anticoagulant du rivaroxaban a été évalué in vitro : le plasma citraté pauvre en plaquettes provenant de 20 Beagle en santé a été aliquoté et enrichi avec des solutions de rivaroxaban à des concentrations de 0 à 1000 mg/L d’anticoagulant. Une prolongation concentration-dépendante de tous les tests de coagulation a été notée. Les concentrations de 0.024 et 0.053 mg/L diminuent respectivement de 50% la vitesse de propagation de la GT et la densité optique de l’activité anti-facteur X. Ces derniers tests sont les plus sensibles et précis pour détecter l’effet anticoagulant du rivaroxaban. Ensuite, 24 Beagle en santé ont été répartis aléatoirement en 3 groupes (n=8). Chaque groupe a reçu par voie orale un placebo, ou 20 mg de rivaroxaban une ou deux fois à 8h d’intervalle. Quinze échantillons sanguins ont été prélevés pour chaque chien sur 30 heures. Pour tous les tests de coagulation excepté la TEG®, une différence significative a été notée dans les résultats entre les groupes traités et le groupe placebo (p<0.0001). La durée de l’effet anticoagulant du rivaroxaban était de 7.9-18.7h dans le groupe traité une fois; et de 17.5-26.8h dans le groupe traité deux fois. Le pic d’action de l’effet anticoagulant était d’environ 2h. Seul le paramètre R de la TEG® était significativement affecté dans les groupes traités. En conclusion, le rivaroxaban exerce un effet anticoagulant chez le chien à la dose de 2 mg/kg. Une administration biquotidienne semble appropriée pour un effet de 24h.
Resumo:
Malgré une vaste littérature concernant les propriétés structurelles, électroniques et ther- modynamiques du silicium amorphe (a-Si), la structure microscopique de ce semi-cond- ucteur covalent échappe jusqu’à ce jour à une description exacte. Plusieurs questions demeurent en suspens, concernant par exemple la façon dont le désordre est distribué à travers la matrice amorphe : uniformément ou au sein de petites régions hautement déformées ? D’autre part, comment ce matériau relaxe-t-il : par des changements homo- gènes augmentant l’ordre à moyenne portée, par l’annihilation de défauts ponctuels ou par une combinaison de ces phénomènes ? Le premier article présenté dans ce mémoire propose une caractérisation des défauts de coordination, en terme de leur arrangement spatial et de leurs énergies de formation. De plus, les corrélations spatiales entre les défauts structurels sont examinées en se ba- sant sur un paramètre qui quantifie la probabilité que deux sites défectueux partagent un lien. Les géométries typiques associées aux atomes sous et sur-coordonnés sont extraites du modèle et décrites en utilisant les distributions partielles d’angles tétraédriques. L’in- fluence de la relaxation induite par le recuit sur les défauts structurels est également analysée. Le second article porte un regard sur la relation entre l’ordre à moyenne portée et la relaxation thermique. De récentes mesures expérimentales montrent que le silicium amorphe préparé par bombardement ionique, lorsque soumis à un recuit, subit des chan- gements structuraux qui laissent une signature dans la fonction de distribution radiale, et cela jusqu’à des distances correspondant à la troisième couche de voisins.[1, 2] Il n’est pas clair si ces changements sont une répercussion d’une augmentation de l’ordre à courte portée, ou s’ils sont réellement la manifestation d’un ordonnement parmi les angles dièdres, et cette section s’appuie sur des simulations numériques d’implantation ionique et de recuit, afin de répondre à cette question. D’autre part, les corrélations entre les angles tétraédriques et dièdres sont analysées à partir du modèle de a-Si.
Resumo:
La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.
Resumo:
La densification de la ville est l’un des principaux objectifs de l’action publique pour bâtir des milieux de vie de qualité. Mais la densité est un concept polysémique et relatif : on constate un écart entre la densité telle qu’elle est préconisée en aménagement et celle vécue par les populations. Parallèlement, on observe l’exode des jeunes familles montréalaises vers les territoires périurbains de faible densité. Enfin, la littérature souligne une relation positive entre densité, mixité et pratique de la marche. Cette recherche explore les perceptions des parents de jeunes enfants à l’égard de leur environnement bâti, en particulier de sa densité, et en identifie les facteurs qui influencent positivement leur pratique de la marche. Après avoir caractérisé les formes urbaines de deux quartiers montréalais aux densités différentes, nous avons interrogé des parents de jeunes enfants sur leur expérience lors de 16 entrevues semi-dirigées et d’un groupe de discussion. Puis nous avons étudié la relation entre les variables personnelles des participants, leurs perceptions de la densité et leurs pratiques de la marche. Nos résultats mettent en évidence la quête d’un équilibre entre les avantages et inconvénients de la densité, dont les principales variables sont les formes urbaines, les services de proximité et la présence d’animation, la végétation étant un paramètre incontournable pour tous les parents. Caractéristiques clés d’une ville intense, ces paramètres corroborent la littérature existante à ce sujet, en mettant en évidence leur importance dans la création de milieux de vie plus denses pour les jeunes familles et leur influence positive sur la marche.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.
Resumo:
Dans le domaine des drogues actuellement illicites, deux courants politiques opposés s'affrontent: un mouvement en faveur de la répression fait face à ce que l'on nomme bien souvent l'anti-prohibitionnisme. Comment, à partir de la réalité actuelle, en arrive-t-on à prendre des positions tellement opposées? L'objectif de cet article consiste à analyser les valeurs dominantes qui sont à la base de chacun de ces discours. La méthode privilégiée pour atteindre cet objectif consiste en une recension des écrits scientifiques des 20 dernières années. Quatre bases de données furent consultées: NCJRS, Socio-file, Psyclitt, et Current Content. De cette interrogation, 200 textes furent retenus pour analyse. L'analyse des écrits scientifiques traitant des politiques répressives envers les drogues et de la position anti-prohibitionniste a permis de faire ressortir trois valeurs principales: la gestion optimale des ressources humaines et sociales, la promotion et la santé, et la liberté individuelle vs la protection de l'état. Ces valeurs ne sont pas mutuellement exclusives puisque certaines idées invoquées en vue de justifier la position défendue peuvent s'appliquer à l'une ou l'autre des valeurs identifiées, démontrant combien ceux-ci sont fortement inter-reliées. Enfin, mentionnons que l'ensemble de ces écrits sur le thème étudié présente des faiblesses majeures - elles sont discutées en conclusion.
Resumo:
L'obésité est une maladie associée à de nombreuses complications comme le diabète de type 2, l'hypertension et le cancer. De nos jours, les modifications au mode de vie, tels l’alimentation et le niveau d’activité physique, ne sont pas suffisants pour combattre les effets délétères de l'obésité. La pharmacothérapie est un traitement alternatif bien que les effets bénéfiques soient temporaires et ne peuvent être maintenus à long terme. Le besoin pour un traitement bénéfique à long terme sans effet secondaire n'est pas comblé. Mieux connu pour son rôle dans la régulation de la pression artérielle, le système rénine-angiotensine favorise l'entreposage du gras. Le récepteur à la prorénine et à la rénine est une composante du système rénine-angiotensine. Ainsi, le récepteur qui amplifie l'activation de celui-ci pourrait avoir un rôle clé dans le gain de masse grasse. Le but de ce projet de thèse est d'évaluer le rôle du récepteur à la prorénine et à la rénine dans le développement de l'obésité et de ses complications chez la souris et ce, en utilisant une combinaison de diète riche en gras et en hydrates de carbone et du handle region peptide, un bloqueur du récepteur à la prorénine à la rénine. Après une période de 10 semaines, nous avons constaté que l'expression et la protéine du récepteur à la prorénine et à la rénine augmentent spécifiquement dans le tissu adipeux sous-cutané et viscéral des souris obèses. Lorsqu'administré en concomitance avec une diète riche en gras et en hydrates de carbone, le handle region peptide favorise chez la souris des diminutions des gains des masses corporelles et adipeuses viscérales. Une diminution de l'expression de l'enzyme catalysant la dernière étape de la lipogenèse pourrait être responsable de la réduction de gras viscéral. Chez les mêmes animaux, l'expression de plusieurs adipokines est également diminuée dans le tissu adipeux suggérant une réduction de la résistance à l'insuline, de l'inflammation et de l'infiltration des macrophages localement dans le gras sous-cutané et viscéral. L'augmentation de l'expression d’un marqueur de l'adipogenèse dans le tissu adipeux sous-cutané pourrait suggérer un plus grand nombre d'adipocytes. Cela pourrait tamponner l'excès d'acides gras libres circulants puisque nous avons constaté une diminution de ce paramètre chez les souris ayant une diète riche en gras et en hydrates de carbone et traitées avec le peptide. Nous avons émis l'hypothèse qu'un cycle futile pourrait être activé dans le gras sous-cutané car nous avons observé une augmentation de l'expression de plusieurs enzymes impliquées dans la lipogenèse et dans la lipolyse. Le ''brunissement'' du tissu adipeux est la présence de cellules similaires aux adipocytes bruns dans le tissu adipeux qui sont caractérisés par une grande densité mitochondriale et la thermogenèse. L'augmentation de l'expression des marqueurs de ''brunissement'' et de biogenèse de mitochondrie dans le gras sous-cutané suggère que le ''brunissement'' pourrait également être activé dans ce dépôt de gras. La sensibilité à l'insuline chez ces animaux pourrait être améliorée telle que suggérée en circulation par la diminution de l'insuline, par le glucose qui change peu, par l'augmentation du ratio glucose sur insuline ainsi que par un changement potentiel dans la corrélation entre le poids corporel de la souris et les niveaux d’adiponectine circulante. Nos travaux suggèrent que le handle region peptide pourrait augmenter la capacité du tissu adipeux sous-cutané à métaboliser les lipides circulants avec l'activation potentielle d'un cycle futile et le ''brunissement''. Cela préviendrait le dépôt ectopique de lipides vers les compartiments viscéraux comme le suggère la réduction de masse adipeuse viscérale chez les souris ayant une diète riche en gras et en hydrates de carbone et traitées avec le peptide. Utilisant un modèle de souris, cette étude démontre le potentiel pharmacologique du handle region peptide comme un nouveau traitement pour prévenir l'obésité.