939 resultados para Instability, Natural convection, Non-uniform cooling, Pitchfork bifurcation, Triangular enclosure


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Consider a general equilibrium framework where the marginal cost of extraction from several deposits of an exhaustible resource is constant in terms of an inexhaustible perfect substitute and differs between deposits. the instantaneous rate of production form the inexhaustible resource is subject to a capacity constraint.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente étude examine une des difficultés que soulève l'exécution des contrats de vente mettant en relation des parties situées dans des pays différents. Ces contrats connaissent des problèmes bien particuliers. En effet, en donnant lieu à l'expédition des marchandises vendues, ces contrats obligent aussi le vendeur à transférer à l'acheteur les documents conformes représentatifs de celles-ci. La non-conformité des documents se distingue de la non-conformité des marchandises et constitue une source principale des litiges visant la résolution des contrats dans ce secteur commercial. La diversité des solutions susceptibles de s'y appliquer est devenue une réalité depuis que les droits internes doivent coexister avec les règles de la Convention de Vienne sur la vente internationale de marchandises. En principe, aucune difficulté ne se pose lorsqu'un droit interne est désigné comme étant le droit compétent: il suffirait d'appliquer les solutions de ce droit. Ainsi, par exemple, l'acheteur peut résoudre le contrat si les documents ne sont pas conformes aux stipulations contractuelles sur la base du concept de fundamental breach (en cas de vente non documentaire) ou sur la base de la stricte conformité (en cas de vente documentaire) que retiennent les droits anglo-américain; en revanche dans les systèmes de droit civil (où la distinction entre vente documentaire et vente non documentaire n'existe pas), pareille résolution du contrat basée sur le défaut de conformité des documents n'est possible qu'en présence d'un préjudice important ou d'un défaut majeur. Plusieurs justifications fondamentales sous-tendent la raison d'être des solutions retenues par les droits nationaux: quête de sécurité juridique et recherche de solution conforme aux besoins des opérateurs du commerce international. Néanmoins, il appert que de telles justifications sont également présentes dans la Convention de Vienne. De plus, cette Convention oblige le vendeur à transférer à l'acheteur les documents conformes de la vente. Cependant, elle le fait de manière indirecte sans pour autant préciser quels types de documents doivent faire l'objet du transfert. L'opportunité d'un tel transfert dépendra donc, sous réserves des dispositions impératives, de l'accord des parties et des usages commerciaux qui ont préséance sur les règles unifiées. Ce qui en fait parfois une question d'interprétation du contrat ou une question de comblement des lacunes de ce droit uniforme de la vente internationale. En ce sens, ce dernier droit diffère des droits nationaux qui sont plus clairs à cet égard. Quant aux conditions de la résolution du contrat pour non-conformité des documents, quel que soit le système national considéré, la solution qu'il consacre contraste avec celle prévue par la Convention de Vienne qui n'admet une telle sanction qu'en présence d'une contravention essentielle. Cette dualité entre droits nationaux et droit matériel uniforme nous met en face d'un constat bien évident: l'avènement de la Convention de Vienne sur la vente internationale de marchandises et la règle de la contravention essentielle qu'elle consacre, perturbent le paysage juridique jusqu'ici en vigueur dans chacun des États signataires. Ce qui justifie tout l'intérêt du sujet: la contravention essentielle par opposition à la règle de la stricte conformité et celle basée sur l'importance du préjudice prévues par les droits internes sont-elles des règles exclusives l'une de l'autre? La réponse est loin d'être certaine en dépit des convergences possibles dans le dénouement du contentieux de la résolution, même si par ailleurs il faut admettre qu'il s'agit de régimes juridiques bien différents. Tout en subordonnant la résolution du contrat à l'existence d'une contravention essentielle, lorsque la Convention de Vienne s'applique (DEUXIÈME PARTIE), la présente étude propose une interprétation de celle-ci en examinant son contenu ainsi que les différentes sources qui interfèrent dans sa mise en œuvre afin de démontrer que ce droit uniforme, malgré ses limites, régit les aspects documentaires de la vente internationale (PREMIÈRE PARTIE).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La thérapie génique représente l'un des défis de la médecine des prochaines décennies dont la réussite dépend de la capacité d'acheminer l'ADN thérapeutique jusqu'à sa cible. Des structures non virales ont été envisagées, dont le chitosane, polymère cationique qui se combine facilement à l’ADN. Une fois le complexe formé, l’ADN est protégé des nucléases qui le dégradent. Le premier objectif de l'étude est de synthétiser et ensuite évaluer différentes nanoparticules de chitosane et choisir la mieux adaptée pour une efficacité de transfection sélective in vitro dans les cellules carcinomes épidermoïdes (KB). Le deuxième objectif de l'étude est d'examiner in vivo les effets protecteurs du gène de l'IL-1Ra (bloqueur naturel de la cytokine inflammatoire, l’Interleukine-1β) complexé aux nanoparticules de chitosane sélectionnées dans un modèle d'arthrite induite par un adjuvant (AIA) chez le rat. Les nanoparticules varient par le poids moléculaire du chitosane (5, 25 et 50 kDa), et la présence ou l’absence de l’acide folique (FA). Des mesures macroscopiques de l’inflammation seront évaluées ainsi que des mesures de concentrations de l’Interleukine-1β, Prostaglandine E2 et IL-1Ra humaine secrétés dans le sérum. Les nanoparticules Chitosane-ADN en présence de l’acide folique et avec du chitosane de poids moléculaire de 25 kDa, permettent une meilleure transfection in vitro. Les effets protecteurs des nanoparticules contenant le gène thérapeutique étaient évidents suite à la détection de l’IL-1Ra dans le sérum, la baisse d'expressions des facteurs inflammatoires, l’Interleukine-1 et la Prostaglandine-E2 ainsi que la diminution macroscopique de l’inflammation. Le but de cette étude est de développer notre méthode de thérapie génique non virale pour des applications cliniques pour traiter l’arthrite rhumatoïde et d’autres maladies humaines.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous avons démontré l’utilité du groupement protecteur tert-butylsulfonyle (N-Bus) pour la chimie des acides aminés et des peptides. Celui-ci est préparé en deux étapes, impliquant la réaction d’une amine avec le chlorure de tert-butylsulfinyle, suivie par l’oxydation par du m-CPBA, pour obtenir les tert-butylsulfonamides correspondants avec d’excellents rendements. Le groupement N-Bus peut être clivé par traitement avec 0.1 N TfOH/DCM/anisole à 0oC en 10h pour régénérer le sel d’ammonium. Une variété d’acides aminés N-Bus protégés ainsi que d’autres aminoacides peuvent alors être utilisés pour préparer divers dipeptides et tripeptides. A l’exception du groupe N-Fmoc, les conditions de déprotection du groupe N-Bus clivent également les groupements N-Boc, N-Cbz et O-Bn. Une déprotection sélective et orthogonale des groupes N-Boc, N-Cbz, N-Fmoc et O-Bn est également possible en présence du groupe protecteur N-Bus. Le nouvel acide aminé non-naturel (3R, 2R) 3–méthyl-D-leucine (β-Me-Leu) et son régioisomère 2-méthyle ont été synthétisés par ouverture d’une N-Ts aziridine en présence d’un excès de LiMe2Cu. Chacun des régioisomères du mélange (1:1,2) a été converti en la méthylleucine correspondante, puis couplé à l’acide D-phényllactique puis au motif 2-carboxyperhydroindole 4-amidinobenzamide en présence de DEPBT. Des élaborations ultérieures ont conduit à des analogues peptidiques non-naturels d’aeruginosines telles que la chlorodysinosine A. Les deux analogues ont ensuite été évalués pour leur activité inhibitrice de la thrombine et la trypsine. La présumée aeruginosine 3-sulfate 205B et son anomère β ont été synthétisés avec succès à partir de 5 sous-unités : la 3-chloroleucine, l’acide D-phényllactique, le D-xylose, le 2-carboxy-6-hydroxyoctahydroindole et l’agmatine. La comparaison des données RMN 1H et 13C reportées avec celles obtenues avec l’aeruginosine synthétique 205B révèle une différence majeure pour la position du groupe présumé 3'-sulfate sur l’unité D-xylopyranosyle. Nous avons alors synthétisés les dérivés méthyl-α-D-xylopyranosides avec un groupement sulfate à chacune des positions hydroxyles, afin de démontrer sans ambiguïté la présence du sulfate en position C-4' par comparaison des données spectroscopiques RMN 1H et 13C. La structure de l’aeruginosine 205B a alors été révisée. Une des étapes-clés de cette synthèse consiste en la formation du glycoside avec le groupe hydroxyle en C-6 orienté en axial sur la sous-unité Choi. Le 2-thiopyridylcarbonate s’est avéré une méthode efficace pour l’activation anomérique. Le traitement par AgOTf et la tétraméthylurée en solution dans un mélange éther-DCM permet d’obtenir l’anomère α désiré, qui peut alors être aisément séparé de l’anomère β par chromatographie

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La prolifération, la différenciation ainsi que les fonctions des cellules du système immunitaire sont contrôlées en partie par les cytokines. Lors de l’infection par le VIH-1, les défauts observés dans les fonctions, la maintenance, ainsi que la consistance des cellules du système immunitaire sont en large partie attribués à une production altérée des cytokines et à un manque d’efficacité au niveau de leurs effets biologiques. Durant ces études, nous nous sommes intéréssés à la régulation et aux fonctions de deux cytokines qui sont l’IL-18 et l’IL-21. Nous avons observé une corrélation inversée significative entre les concentrations sériques d’IL-18 et le nombre des cellules NK chez les patients infectés par le VIH-1. Nos expériences in vitro ont démontré que cette cytokine induit l’apoptose des cellules NK primaires et que cette mort peut être inhibée par des anticorps neutralisants spécifiques pour FasL et TNF-α. Cette mort cellulaire est due à l’expression de FasL sur les cellules NK et à la production de TNF-α par ces cellules. L’IL-18 augmente aussi la susceptibilité à la mort des cellules NK par un stimulus pro-apoptotique, en diminuant l’expression de la protéine anti-apoptotique Bcl-XL. Nous démontrons aussi que, contrairement à l’IL-18, les niveaux d’IL-18BP sont plus faibles dans les sérum de patients infectés. Ceci résulte sur une production non coordonnée de ces deux facteurs, aboutissant à des niveaux élevés d’IL-18 libre et biologiquement active chez les patients infectés. L’infection de macrophages in vitro induit la production d’IL-18 et réduit celle d’IL-18BP. De plus, l’IL-10 et le TGF-β, dont les concentrations sont élevées chez les patients infectés, réduisent la production d’IL-18BP par les macrophages in vitro. Finalement, nous démontrons que l’IL-18 augmente la réplication du VIH-1 dans les lymphocytes T CD4+ infectés. Les niveaux élevés d’IL-18 libres et biologiquement actives chez les patients infectés contribuent donc à l’immuno-pathogénèse induite par le VIH-1 en perturbant l’homéostasie des cellules NK ainsi qu’en augmentant la réplication du virus chez les patients. Ces études suggèrent donc la neutralisation des effets néfastes de l’IL-18 en utilisant son inhibiteur naturel soit de l’IL-18BP exogène. Ceci permettrait de moduler l’activité de l’IL-18 in vivo à des niveaux souhaitables. L’IL-21 joue un rôle clef dans le contrôle des infections virales chroniques. Lors de ces études, nous avons déterminé la dynamique de la production d’IL-21 lors de l’infection par le VIH-1 et sa conséquence sur la survie des cellules T CD4+ et la fréquence des cellules T CD8+ spécifiques au VIH-1. Nous avons démontré que sa production est compromise tôt au cours de l’infection et que les concentrations d’IL-21 corrèlent avec le compte de cellules T CD4+ chez les personnes infectées. Nos études ont démontré que le traitement antirétroviral restaure partiellement la production d’IL-21. De plus, l’infection par le VIH-1 de cellules T CD4+ humaines inhibe sa production en réduisant l’expression du facteur de transcription c-Maf. Nous avons aussi démontré que la fréquence des cellules T CD4+ spécifiques au VIH-1 qui produisent de l’IL-21 est réduite chez les patients virémiques. Selon nos résultats, l’IL-21 empêche l’apoptose spontanée des cellules T CD4+ de patients infectés et l’absence d’IL-21 réduit la fréquence des cellules T CD8+ spécifiques au VIH-1 chez ces patients. Nos résultats démontrent que l'IL-21R est exprimé de façon égale sur tous les sous-types de cellules NK chez les donneurs sains et chez les patients infectés. L’IL-21 active les protéines STAT-3, MAPK et Akt afin d'augmenter les fonctions effectrices des cellules NK. L'activation de STAT-3 joue un rôle clef dans ces fonctions avec ou sans un traitement avec de l'IL-21. L'IL-21 augmente l'expression des protéines anti-apoptotiques Bcl-2 et Bcl-XL, augmente la viabilité des cellules NK, mais ne possède aucun effet sur leur prolifération. Nous démontrons de plus que l'IL-21 augmente l'ADCC, les fonctions sécrétrices et cytotoxiques ainsi que la viabilité des cellules NK provenant de patients chroniquement infectés par le VIH-1. De plus, cette cytokine semble présenter ces effets sans augmenter en contrepartie la réplication du VIH-1. Elle permet donc d'inhiber la réplication virale lors de co-cultures autologues de cellules NK avec des cellules T CD4+ infectées d'une manière dépendante à l'expression de perforine et à l'utilisation de la protéine LFA-1. Les niveaux d’IL-21 pourraient donc servir de marqueurs biologiques pour accompagner les informations sur le taux de cellules T CD4+ circulantes en nous donnant des informations sur l’état de fonctionnalité de ce compartiment cellulaire. De plus, ces résultats suggèrent l’utilisation de cette cytokine en tant qu’agent immunothérapeutique pour restaurer les niveaux normaux d’IL-21 et augmenter la réponse antivirale chez les patients infectés par le VIH-1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’application des métaux de transition à la fonctionnalisation directe a ouvert la voie à une nouvelle classe de réactions pour la formation de liens carbone-carbone. De par l'omniprésence des liaisons C–H, l’introduction de nouvelles fonctionnalités chimiques par voie directe et pré-activation minimale s’impose comme une stratégie de synthèse très attrayante. Ainsi, il est envisageable de préparer de manière rapide et efficace des supports complexes menant à des molécules complexes, qui pourraient être utiles dans divers domaines de la chimie. L'objectif principal de la présente thèse vise la fonctionnalisation directe des arènes hétérocycliques et non hétérocycliques et, plus précisément, les techniques d’arylation. Dans un premier temps, nous allons aborder le thème de l’arylation directe tout en mettant l’accent sur les pyridines (Chapitre 1). Ces molécules sont à la base d'une multitude de composés biologiquement actifs et jouent un rôle important dans le domaine des sciences des matériaux, de l’agrochimie et de la synthèse des produits naturels. Dans un deuxième temps, nous discuterons de nos travaux sur l’arylation directe catalysé par un complex de palladium sur des ylures de N-iminopyridinium en soulignant la dérivatisation du sel de pyridinium après une phénylation sp2 (Chapitre 2). L’étude de ce procédé nous a permis de mettre en lumière plusieurs découvertes importantes, que nous expliquerons en détails une à une : l’arylation benzylique directe lorsque des ylures N-iminopyridinium substituées avec un groupement alkyl à la position 2 sont utilisés comme partenaires dans la réaction; les allylations Tsuji-Trost catalysée par un complex de palladium; et l’alkylation directe et sans métal via une catalyse par transfert de phase. Plusieurs défis restent à relever pour le développement de procédés directs utilisant des métaux de transition peu coûteux, d’autant plus que la synthèse par transformation directe des pyridines 2-alcényles, lesquelles sont pertinentes sur le plan pharmacologique, n’a pas encore été rapportée à ce jour. Avec cette problématique en tête, nous avons réussi à mettre au point une alcénylation directe catalysé par un complex de cuivre sur des ylures de N-iminopyridinium. Nous discuterons également d’une nouvelle méthode pour la préparation des iodures de vinyle utilisés dans les couplages. Ces réactions sont non seulement remarquablement chimiosélectives, mais sont aussi applicables à plusieurs substrats (Chapitre 3). En optimisant ce procédé direct, nous avons découvert une façon unique de synthétiser les pyrazolo[1,5-a]pyridines 2-substituées (Chapitre 4). Le mécanisme global met en jeu une séquence tandem de fonctionnalisation-cyclisation directe et un procédé direct en cascade, qui n’avais jamais été rapporté. Cela simplifie ansi la synthèse autrement compliquée de ces substrats en y apportant une solution à un problème de longue date. Dans les deux derniers chapitres, nous examinerons en détail les techniques d’arylation directe qui n'impliquent pas les partenaires de couplage hétérocycliques. Entre autres, au Chapitre 5, nous soulignerons notre découverte d’un umpolung dirigé et catalysé par un complexe de palladium du benzène et de quelques autres dérivés arènes. Il s’agit là du premier cas de fonctionnalisation directe dans laquelle le groupe directeur se trouve sur le partenaire halogène et il s’ajoute à la courte liste d’exemples connus dans la littérature rapportant une arylation directe du benzène. Finalement, au Chapitre 6, nous passerons en revue une nouvelle arylation directe catalysée au fer, qui se veut un procédé peu coûteux, durable et présentant une économie d’atomes. Nous discutons des substrats possibles ainsi des études mécanistiques réalisés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré les progrès de la médecine moderne et l’avancement des connaissances, le soulagement de la douleur demeure un domaine peu étudié et peu compris. Les enfants avec un diagnostic de paralysie cérébrale et une incapacité de communiquer verbalement font partie des populations vulnérables à risque de ne pas être compris. Il est maintenant prouvé que ces enfants peuvent ressentir des douleurs provenant de diverses sources. Le but de cette étude exploratoire de type qualitative est de tenter de déterminer les enjeux éthiques qui sont rencontrés par les intervenants d’un milieu d’hébergement, lorsque l’on veut évaluer et soulager la douleur chez cette population d’enfants. L’information a été recueillie à partir d’entrevues semi-structurées avec des familles, des gardiens et des intervenants. Les données ont ensuite été comparées à ce qui est retrouvé dans la littérature. Selon les parents et les gardiens, l’ensemble du personnel régulier du milieu d’hébergement et répit démontre une plus grande compréhension des besoins de leur enfant que les intervenants qu’ils ont rencontrés dans le milieu de soins aigus. Les intervenants évaluent les comportements observés sur une base subjective ce qui entraîne une prise en charge inégale. Ils expriment également que la principale difficulté de travailler auprès de ces enfants est l’incertitude d’avoir bien interprété le comportement et d’avoir posé le bon geste. En conclusion, malgré les recherches et la possibilité d’utiliser des outils validés, la pratique clinique ne répond pas au standard de pratique auquel ces enfants ont droit dans tous les milieux où ils reçoivent des soins.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

On étudie l'évolution du prix d'une ressource naturelle non renouvelable dans le cas où cette ressource est durable, c'est-à-dire qu'une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non renouvelable détenu en terre, qui ne procure aucun service productif; un stock de ressource détenu hors terre, qui procure un flux de services productifs; un stock d'un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d'une obligation dont le rendement est donn e. Les productivités du secteur de production du bien composite et du secteur de l'extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l'on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d'Hotelling élémentaire et qu'aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au cours des dernières décennies, l’intérêt pour la gazéification de biomasses a considérablement augmenté, notamment en raison de la grande efficacité de recouvrement énergétique de ce procédé par rapport aux autres procédés de génération de bioénergies. Les composants majoritaires du gaz de synthèse, le monoxyde de carbone (CO) et l’hydrogène (H2) peuvent entre autres servir de substrats à divers microorganismes qui peuvent produire une variété de molécules chimiques d’intérêts, ou encore produire des biocarburants, particulièrement le méthane. Il est donc important d'étudier les consortiums méthanogènes naturels qui, en syntrophie, serait en mesure de convertir le gaz de synthèse en carburants utiles. Cette étude évalue principalement le potentiel de méthanisation du CO par un consortium microbien issu d’un réacteur de type UASB, ainsi que les voies métaboliques impliquées dans cette conversion en conditions mésophiles. Des tests d’activité ont donc été réalisés avec la boue anaérobie du réacteur sous différentes pressions partielles de CO variant de 0.1 à 1,65 atm (0.09 à 1.31 mmol CO/L), en présence ou absence de certains inhibiteurs métaboliques spécifiques. Dès le départ, la boue non acclimatée au CO présente une activité carboxidotrophique relativement intéressante et permet une croissance sur le CO. Les tests effectués avec de l’acide 2- bromoethanesulfonique (BES) ou avec de la vancomycine démontrent que le CO est majoritairement consommé par les bactéries acétogènes avant d’être converti en méthane par les méthanogènes acétotrophes. De plus, un plus grand potentiel de méthanisation a pu être atteint sous une atmosphère constituée uniquement de CO en acclimatant auparavant la boue. Cette adaptation est caractérisée par un changement dans la population microbienne désormais dominée par les méthanogènes hydrogénotrophes. Ceci suggère un potentiel de production à large échelle de biométhane à partir du gaz de synthèse avec l’aide de biofilms anaérobies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les vies de millions de personnes sont dévastées par des désastres naturels à travers le monde. Les écrits scientifiques relatifs aux efforts humanitaires dans ces contextes ciblent les travailleurs humanitaires sans toutefois les différencier quant à leur appartenance disciplinaire ou à l’organisation qui les emploie. Les connaissances liées à la pratique des infirmières dans le contexte d’urgence humanitaire sont limitées, malgré qu’elles jouent un rôle vital auprès des populations touchées. Cette ethnographie focalisée, guidée par la théorie du caring bureaucratique de Ray (1989) répond à la question de recherche: Comment des infirmières ayant participé à une mission humanitaire d’urgence suite au séisme à Haïti en janvier 2010 au sein de l’organisation Médecins Sans Frontières décrivent-elles leur pratique dans les contextes légal, politique, économique, éducationnel, socioculturel, physique et technologique de cette expérience? Des entrevues semi-structurées en profondeur de 90 minutes ont été menées auprès de quatre participantes qui ont également échangé à propos de photographies prises durant leurs missions. Les participantes ont discuté de leur préparation, de leurs objectifs, des rôles qu’elles assumaient, ainsi que des défis rencontrés au retour de leurs missions. Des facteurs inhérents à l’infirmière et à l’organisation ont émergé comme importants pour l’articulation et la délimitation de leur pratique. Cette étude révèle également que des facteurs contextuels importants, soit l’équipe, le temps, l’environnement physique, la médiatisation, la sécurité, ainsi que les conditions de travail et les contextes sociopolitique et culturel avaient une influence sur la pratique. Les participantes, selon leur évaluation de ces contextes et des besoins immédiats, devaient constamment ajuster leur pratique. Cette recherche permet une meilleure compréhension de la pratique d’infirmières dans un contexte d’urgence humanitaire de laquelle découlent des implications pour la pratique, la formation et la recherche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper introduces and examines the logicist construction of Peano Arithmetic that can be performed into Leśniewski’s logical calculus of names called Ontology. Against neo-Fregeans, it is argued that a logicist program cannot be based on implicit definitions of the mathematical concepts. Using only explicit definitions, the construction to be presented here constitutes a real reduction of arithmetic to Leśniewski’s logic with the addition of an axiom of infinity. I argue however that such a program is not reductionist, for it only provides what I will call a picture of arithmetic, that is to say a specific interpretation of arithmetic in which purely logical entities play the role of natural numbers. The reduction does not show that arithmetic is simply a part of logic. The process is not of ontological significance, for numbers are not shown to be logical entities. This neo-logicist program nevertheless shows the existence of a purely analytical route to the knowledge of arithmetical laws.