986 resultados para Procédure commerciale -- Dictionnaires


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le brossage des dents, la mastication des aliments et toutes autres activités orales quotidiennes peuvent provoquer une bactériémie transitoire. Cette bactériémie transitoire a le potentiel de causer une endocardite infectieuse en présence de certains facteurs de risque. Les cardiopathies congénitales chez les enfants font partie de ces facteurs de risque. Le contrôle de la plaque dentaire et une bonne santé buccodentaire permettent de réduire le risque d’endocardite infectieuse. Les objectifs du présent projet de recherche visent à évaluer les connaissances des parents d’enfants atteints de cardiopathies congénitales sur l’endocardite infectieuse et son lien avec la santé buccodentaire et de connaître les habitudes d’hygiène orale personnelles et professionnelles adoptées par les enfants atteints de cardiopathies congénitales. Le projet de recherche vise également à évaluer l’efficacité de deux méthodes d’enseignement d’hygiène orale chez les enfants atteints de cardiopathies congénitales. La procédure expérimentale implique que tous les parents ou gardiens légaux d’enfants atteints de cardiopathies congénitales, âgés entre 6 et 12 ans qui visitent le service de cardiologie du CHU Sainte-Justine sont sollicités à participer au projet de recherche. Un formulaire d’information et de consentement ainsi qu’un questionnaire sont remis aux parents. Le questionnaire vise à évaluer la connaissance des parents d’enfants atteints de cardiopathies congénitales sur ce qu’est l’endocardite infectieuse et son lien avec la santé buccodentaire ainsi que de connaître les habitudes d’hygiène orale personnelles et professionnelles des enfants atteints de cardiopathies congénitales. L’examen clinique nécessaire au projet de recherche implique le prélèvement d’un indice de plaque Quigley & Hein, Turesky modifié avant et après que l’enfant participant au projet de recherche ait appliqué les instructions d’hygiène orale reçues. L’enfant est assigné à l’une des deux méthodes d’instructions d’hygiène orale avec l’aide d’une table de randomisation. La méthode d’instructions d’hygiène orale du groupe 1 correspond à des instructions transmises par le cardiologue tandis que la méthode d’instructions d’hygiène orale du groupe 2 correspond aux instructions transmises par l’intermédiaire d’un document audio visuel. Des analyses chi-carré et des tests de T pairé ainsi que des analyses de variance univariée (one-way ANOVA) et des analyses de corrélation de Pearson entre le questionnaire et les données cliniques ont été effectuées pour analyser les données recueillies. Les résultats démontrent que les parents d’enfants « à risque élevé » d’effet adverse d’une endocardite infectieuse ne connaissent pas davantage le risque d’endocardite infectieuse d’origine buccodentaire que les parents d’enfants « de moindre risque » (p=0,104). Les résultats démontrent toutefois que les parents d’enfants atteints de cardiopathies congénitales qui connaissent le risque d’endocardite infectieuse et son lien avec la santé buccodentaire adhèrent à des comportements dans le but de maintenir une bonne santé buccodentaire chez leur enfant. Les résultats qui proviennent de l’examen clinique démontrent que l’application des instructions d’hygiène orale faites par le cardiologue et par l’intermédiaire d’un document audio visuel permettent d’observer une différence statistiquement significative (p=0,000) au niveau du contrôle de la plaque dans chacun de ces groupes. Toutefois, aucune différence statistiquement significative (p=0,668) n’a pu être démontrée entre les deux méthodes d’instructions d’hygiène orale. Les parents qui connaissent le lien entre la santé buccodentaire et le risque d’endocardite infectieuse pour leur enfant atteint de cardiopathie congénitale adoptent un comportement pour optimiser la santé buccodentaire de leur enfant. Les instructions d’hygiène orale par l’intermédiaire d’un document audio visuel sont équivalentes aux instructions d’hygiène orale prodiguées par le cardiologue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire décrit la synthèse, la caractérisation spectroscopique et l’étude de la réactivité catalytique d’une nouvelle série de complexes pinceurs de Ni(II) formés à partir du ligand POCOPPh (P,C,P-2,6-{Ph2PO}2C6H4), très peu étudié dans le cas du nickel. Les études décrites dans ce mémoire examinent l’effet des substituants des phosphines sur les propriétés spectroscopiques et électrochimiques ainsi que les activités catalytiques. La synthèse du ligand a été améliorée par rapport à la procédure connue dans la littérature en diminuant le temps de réaction à 30 min et la température jusqu'à température ambiante. Les composés pinceur (P,C,P-2,6-{Ph2PO}2C6H3)NiX ont été obtenus avec des rendements variant entre 60% et 88%. Le premier complexe a été synthétisé en faisant réagir le précurseur NiBr2(NCCH3)x avec le ligand POCOPPh pour donner (POCOPPh)NiBr. Ce dernier réagit par la suite avec les sels d’argent et de potassium pour donner 4 nouveaux complexes soient : (POCOPPh)NiCN, (POCOPPh)NiOTf, (POCOPPh)NiOAc et (POCOPPh)NiONO2 (OTf = triflate et OAc = acetate). Vu la réactivité limitée du dérivé bromure, le dérivé (POCOPPh)NiOTf a été utilisé pour la préparation du composé (POCOPPh)NiCCPh. Le dérivé Ni-OTf a été utilisé également pour la synthèse des complexes (POCOPPh)NiR qui ont été détectés par RMN. Ces complexes (POCOPPh)NiR ont montré une stabilité trop faible et donnent des nouveaux complexes de type (POCOPPh)NiX en échangeant l’halogène avec le Mg ou de type (POCOPPh)NiOH en s’hydrolysant. Les espèces cationiques [(POCOPPh)NiNCR][OTf] (R= Me, CHCH2, CHCHMe, C(Me)CH2, NCCH2CH2N(Ph)H) ont été obtenues facilement et avec des bon rendements à partir du (POCOPPh)NiOTf. Tous les composés obtenus ont été caractérisés par la spectroscopie RMN (1H, 13C{1H}, 31P{1H}, 19F{1H}), la spectroscopie IR et la spectroscopie UV-vis. L’analyse élémentaire et l’analyse par la diffraction des rayons X, dont le but est de résoudre la structure à l’état solide, ont été utilisées pour la plupart des complexes. Des études de voltampérométrie cyclique ont été menées pour déterminer la densité électronique des centres métalliques et l’effet des phosphines sur cette propriété électrochimique. Dans le but de déterminer l’effet des substituants des phosphines sur l’activité catalytique des complexes, nous avons évalué les réactivités catalytiques des deux complexes (POCOPPh)NiOTf et (POCOPi-Pr)NiOTf dans la réaction d’hydroamination des oléfines activés et plus spécifiquement l’acrylonitrile. Après optimisation des conditions expérimentales, on a constaté que la réactivité des deux composés sont similaires mais une grande différence apparaît après l’ajout des additifs. En effet, le complexe (POCOPi-Pr)NiOTf donne une bonne activité catalytique en présence de la triéthylamine, tandis que cette activité diminue considérablement en présence d’eau, contrairement au complexe (POCOPPh)NiOTf qui est plus actif en présence d’eau. Dans le cas du complexe (POCOPPh)NiOTf, on a pu montrer que la base se coordonne au nickel dans le produit formé après la réaction d’hydroamination, ce qui diminue l’activité de ce complexe dans certains cas. Également on a exploré la réaction de l’addition du lien O-H sur l’acrylonitrile, et étonnamment le complexe (POCOPPh)NiOTf est beaucoup plus actif que son homologue (POCOPi-Pr)NiOTf dans le cas des alcools aromatiques. Par contre, les alcools aliphatiques restent un défi majeur pour ce genre de complexe. Le mécanisme de cette réaction qui a été proposé montre que l’alcoolyse passe par les deux intermédiaires (POCOPPh)NiOAr et [(POCOPPh)NiOAr][HOAr] mais l’isolation de ces intermédiaires observés par RMN semble être difficile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les dernières années, les marchés financiers ont été marqués par une volonté des investisseurs, dont les fonds d’investissement privés, de privatiser des sociétés publiques. Plusieurs fermetures de capital se sont matérialisées par des acquisitions par voie d’emprunt (aussi connues sous le nom « leverage buy-out »), en raison notamment des taux d’intérêt peu élevés, d’un crédit plus accessible et d’un certain resserrement de la réglementation applicable aux sociétés publiques. S’inscrivant dans ce contexte, le présent mémoire de maîtrise s’intéresse particulièrement à l’impact des jugements rendus dans le cadre du litige relatif à l’offre d’acquisition par voie d’emprunt de BCE inc. sur les conceptions traditionnelles des devoirs des administrateurs. Dans cette affaire, les détenteurs de débentures de la filiale à part entière de BCE inc., Bell Canada, se sont vigoureusement opposés à cette acquisition. Cette transaction, d’une envergure sans précédent dans l’histoire du Canada, a été scrutée jusqu’à la plus haute instance décisionnelle au pays quant à son caractère raisonnable et équitable et à son effet potentiellement oppressif envers les détenteurs de débentures. Cette étude abordera d’abord l’évolution de la jurisprudence du Delaware sur les devoirs des administrateurs, dans le contexte d’un changement de contrôle, juridiction phare en droit des sociétés aux États-Unis et source d’inspiration marquée en droit canadien. Ensuite, nous nous attarderons sur la position du droit canadien et sur un arrêt marquant rendu par la Cour suprême du Canada, dans l’affaire Peoples. Sur cette toile de fond, cette analyse sera complétée par un examen des motifs des décisions rendues par les trois instances judiciaires dans l’affaire BCE et une réflexion sur l’impact de ces décisions sur le droit des sociétés au Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a pour but de vérifier l’association entre l’insécurité alimentaire et les apports nutritionnels des Premières Nations vivant sur les réserves de la Colombie-Britannique, ainsi que la présence d’interactions de la nourriture traditionnelle dans la relation entre l’insécurité alimentaire et les apports nutritionnels. Un rappel de 24h et le questionnaire sur l’insécurité alimentaire du HFSSM adapté par Santé Canada provenant de la First Nations Food, Nutrition and Environment Study (FNFNES) ont servi pour les analyses statistiques chez 493 femmes et 356 hommes dans 21 communautés de Premières Nations de la Colombie-Britannique. Aucune association entre l’insécurité alimentaire et les apports nutritionnels totaux n’a été observée dans notre échantillon. Par contre, la nourriture traditionnelle interagissait dans la relation entre l’insécurité alimentaire et les apports nutritionnels pour plusieurs nutriments chez les hommes et chez les femmes. Chez les femmes, la qualité nutritionnelle pourrait jouer un rôle important dans la relation entre l’insécurité alimentaire et les apports nutritionnels. Chez les hommes, des différences dans les comportements alimentaires pourraient être associées au manque de nourriture traditionnelle chez ceux ayant manifesté une insécurité alimentaire grave. Enfin, les interactions de la nourriture traditionnelle dans la relation entre l’insécurité alimentaire et les apports nutritionnels laissent croire que les hommes et les femmes souffrant peu ou pas d’insécurité alimentaire ajoutent ce type d’alimentation à leurs apports quotidiens. À l’inverse, ceux et celles qui souffrent d’insécurité alimentaire grave utiliseraient la nourriture traditionnelle pour remplacer la nourriture commerciale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Livre Roisin est l'un des rares coutumiers français du XIIIe siècle. Il contient les coutumes de la ville de Lille, mises par écrit en 1267, puis recopiées et enrichies en 1297, en 1349 et enfin de façon continue jusqu'au XVIe siècle. Une dernière copie officielle fut faite en 1618-1619. L'analyse approfondie du plus ancien manuscrit du Livre Roisin qui nous soit parvenu, celui de 1349, révèle les secrets de son élaboration. Les nombreuses chartes, actes, arrêts et bans joints au coutumier à proprement parler durant plus de deux siècles donnent une vue d'ensemble des lois qui régissaient les Lillois du Moyen Âge. Au passage, les producteurs du recueil, les clercs de ville, ont laissé des traces de leur travail, de telle sorte qu'il est possible de dresser l'inventaire de leurs responsabilités et comprendre l'importance de ces officiers tant dans la perspective des institutions municipales médiévales que dans celle de l'historien, pour qui ils font partie de la chaîne de transmission des textes. De leur côté, les récepteurs, tout aussi discrets mais présents, se manifestent dans le détail de la procédure judiciaire que contient le document. L'utilisation qu'ils en ont faite, tantôt pratique, tantôt mémorielle surgit. Il en ressort que le recueil fût à la fois un aide-mémoire et un outil de défense de l'identité urbaine et même picarde. Enfin, le Livre Roisin est un outil privilégié pour l'étude de l'histoire de la ville, puisque sa rédaction et chacune de ses copies sont ancrées dans des événements politiques aux conséquences majeures pour la ville de Lille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le domaine de l’assurance automobile fonctionne par cycles présentant des phases de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale pour une compagnie d’assurance. Ce mémoire a pour but de construire un outil de simulation de l’allure du porte- feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus- siens univariés est développée. Cette procédure offre une performance supérieure à la régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Organisation mondiale de la santé animale (OIE) est l’institution internationale responsable de la mise en place des mesures sanitaires associées aux échanges commerciaux d’animaux vivants. Le zonage est une méthode de contrôle recommandée par l’OIE pour certaines maladies infectieuses, dont l’influenza aviaire. Les éclosions d’influenza aviaire été extrêmement coûteuses pour l’industrie avicole partout dans le monde. Afin d’évaluer la possibilité d’user de cette approche en Ontario, les données sur les sites de production avicole ont été fournies par les fédérations d’éleveurs de volailles ce cette province. L’information portant sur les industries associées à la production avicole, soit les meuneries, les abattoirs, les couvoirs, et les usines de classification d’œufs, a été obtenue par l’entremise de plusieurs sources, dont des représentants de l’industrie avicole. Des diagrammes de flux a été crée afin de comprendre les interactions entre les sites de production et les industries associées à ceux-ci. Ces industries constituaient les éléments de bas nécessaires au zonage. Cette analyse a permis de créer une base de données portant sur intrants et extrants de production pour chaque site d’élevage avicole, ainsi que pour les sites de production des industries associées à l’aviculture. À l’aide du logiciel ArcGIS, cette information a été fusionnée à des données géospatiales de Statistique Canada de l’Ontario et du Québec. La base de données résultante a permis de réaliser les essais de zonage. Soixante-douze essais ont été réalisés. Quatre ont été retenus car celles minimisaient de façon similaire les pertes de production de l’industrie. Ces essais montrent que la méthode utilisée pour l’étude du zonage peut démontrer les déficits et les surplus de production de l’industrie avicole commerciale en Ontario. Ceux-ci pourront servir de point de départ lors des discussions des intervenants de l’industrie avicole, étant donné que la coopération et la communication sont essentielles au succès du zonage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail collectif de Pédauque a mis en évidence les trois dimensions du document : la forme, le texte ou contenu et la relation (« Vu », « Lu » et « Su »), cet article montre comment ces approches se déclinent dans un raisonnement économique et permettent d’éclairer les principaux modèles de valorisation commerciale.