15 resultados para Cut-off operation
em Université de Montréal, Canada
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Introduction : L’effet biologique variable de l’aspirine a été attribué à un état de résistance pharmacologique. L’incidence de cette « résistance » varie selon la population ou la technologie étudiée. Méthodes : Nous avons déterminé la performance de 5 techniques évaluant l’effet de l’aspirine chez des sujets sains, non fumeurs et ne prenant aucune médication pouvant interférer avec la fonction plaquettaire. Des spécimens de sang et d’urine ont été obtenus avant et après 8-10 jours de prise de 80 mg d’aspirine. Résultats: Chez 45 sujets de 19-59 ans, la sensibilité (SE), la spécificité (SP), et la valeur optimale de coupure (CO) pour détecter l’effet de l’aspirine sont : agrégométrie par transmission optique induite avec 1,6 mM d’acide arachidonique (ATO-AA) - SE 100%, SP 95,9%, CO 20%; ATO-ADP 10 μM - SE 84,4%, SP 77,7%, CO 70%; VerifyNow® Aspirin - SE 100%, SP 95,6%, CO 550 ARU; agrégation en tube - SE 82,2%, SP 86,7%, CO 55%; TEG® - SE 82,9%, SP 75,8%, CO 90%; et le dosage de 11-dehydrothromboxane B2 urinaire - SE 62,2%, SP 82,2%, CO 60 pg/ml. Conclusions: La résistance à l’aspirine chez les sujets sains définie par ATO-AA et VerifyNow® Aspirin est rare. Puisque les autres techniques étudiées discriminent de façon sous optimale l’effet de l’aspirine, leur utilité dans la définition de la résistance pharmacologique à l’aspirine semble marginale. Ces résultats suggèrent qu’une proportion de la variabilité de l’incidence rapportée de “résistance à l’aspirine” est artefactuelle et reliée aux limitations technologiques de certaines analyses.
Resumo:
Aujourd’hui, la satisfaction des utilisateurs des services de santé est reconnue comme une mesure de la qualité des soins. Au Québec, le congé précoce en obstétrique constitue la norme pour les mères ayant donné naissance à un bébé en santé. Selon la littérature, cette pratique n’entraîne pas de répercussions négatives pour la santé des mères et de leur nouveau-né à condition qu’un suivi adéquat soit assuré. D’autre part, bien qu’il semble que la diminution de la durée du séjour hospitalier soit appréciée par les mères, peu de données sont disponibles relativement aux caractéristiques menant à l’appréciation du suivi postnatal. Objectifs : Cette étude s’intéresse principalement à la première visite à domicile effectuée par une infirmière suite au congé précoce en obstétrique. Dans un premier temps, elle vise à tracer un portrait des mères en fonction du délai de la première visite à domicile et, dans un second temps, à connaître les facteurs associés à l’appréciation, par les mères, du délai de cette visite. Méthode : Les données de cette étude ont été recueillies au Québec, entre janvier 2002 et janvier 2003, lors d’une enquête téléphonique effectuée auprès de mères de bébés nés en santé, un mois suivant leur accouchement vaginal sans complication (n=1548). Pour nos analyses, nous avons retranché les mères ayant eu une durée de séjour de plus de 60 heures, une grossesse de moins de 37semaines et un bébé pesant moins de 2500 g à la naissance. Notre échantillon se compose donc de 1351 mères. Résultats : 86,2 % des mères ont reçu une offre de visite à domicile. La majorité (80.2 %) des mères ont reçu la visite dans les trois premiers jours suivant leur retour à la maison, dont près du tiers (28,1 %), dans les 24 premières heures. Comparativement aux mères visitées au deuxième ou troisième jour suivant le congé, celles visitées dans les 24 premières heures ont jugé la durée de séjour hospitalier trop courte (p=0,018) et reçu un appel de l’infirmière qui a duré plus longtemps (p=0, 009). De plus, au moment du congé, elles perçoivent leur bébé en moins bonne santé (p=0,029). Elles ont aussi accouché d’un bébé plus petit (p=0,052) qui a tendance à avoir présenté des signes d’ictères pendant le séjour hospitalier (p=0,100). D’autre part, la majorité des mères (86,4 %) disent que le délai de la première visite à domicile est adéquat alors que 11,6 % le jugent trop court et 2,3 % trop long. Pour les mères visitées au premier jour, l’analyse multivariée révèle que certaines caractéristiques et certains besoins sont associés à la perception que le délai de la visite est trop court : une seule visite postnatale, un revenu familial de plus de 40 000 $, la perception que la durée de séjour est trop longue et le fait de ne pas allaiter. Pour les mères qui reçoivent la visite au deuxième et troisième jour, ce sont, seulement, le fait d’avoir été au rendez-vous médical et le fait d’avoir reçu une seule visite qui sont associés à la perception que le délai de la visite est trop court. Pour conclure, au Québec, le programme de suivi postnatal universel semble en mesure d’offrir une visite à domicile dans les délais prescrits à une majorité de mères. Les résultats de cette étude suggèrent que le délai de la première visite à domicile n’est pas optimal pour toutes les mères et permettent d’envisager que certaines mères auraient souhaité recevoir une seconde visite plus tardivement au cours de la période postnatale. D’autres recherches devront être effectuées afin de parfaire nos connaissances relativement au moment idéal pour réaliser les interventions postnatales.Mots clefs : Satisfaction, appréciation des utilisateurs, qualité des soins, programme universel, suivi postnatal, congé précoce en obstétrique, visite à domicile, délai de la visite, provision des services.
Resumo:
Trajectoires développementales de l’IMC durant l’enfance: Une étude longitudinale sur 8 ans. Introduction : L’obésité infantile, origine de nombreux problèmes de santé, représente un grand défi en santé publique. Récemment, l’importance d’étudier l’évolution du surpoids durant l’enfance ainsi que les facteurs de risques précoces pour l’obésité a été reconnue. Les trajectoires développementales d’indice de masse corporelle (IMC) chez les jeunes représentent une approche innovatrice qui nous permet de mieux comprendre cette problématique importante. Objectifs: 1) Identifier des trajectoires développementales distinctes de groupes d’enfants selon leur IMC durant l’enfance, et 2) Explorer les facteurs de risques précoces qui prédisent l’appartenance de l’enfant à la trajectoire d’IMC le plus élevé Hypothèses: 1) On s’attend à retrouver un groupe d’enfants qui suit une trajectoire d’IMC élevée durant l’enfance. 2) On s’attend à ce que certaines caractéristiques de la mère (ex : tabac pendant la grossesse et IMC élevé), soient associées à l’appartenance de l’enfant au groupe ayant la trajectoire «IMC élevé ». Méthodes: Estimation des trajectoires développementales d’IMC d’enfants, dans un échantillon populationnel (n=1957) au Québec (ELDEQ). Les IMC ont été calculés à partir de données fournies par les mères des enfants et recueillis chaque année sur une durée de 8 ans. Des données propres à l’enfant sa mère, ainsi que socioéconomiques, ont étés recueillies. Une régression logistique multinomiale a été utilisée pour distinguer les enfants avec un IMC élevé des autres enfants, selon les facteurs de risques précoces. Les programmes PROC TRAJ (extension de SAS), SPSS (version 16), et SAS (version 9.1.3) ont été utilisés pour ces analyses. Résultats: Trois trajectoires d’IMC ont étés identifiées : IMC « bas-stable » (54,5%), IMC « modéré » (41,0%) et IMC « élevé et en hausse » (4,5%). Le groupe « élevé et en hausse » incluait des enfants pour qui l’IMC à 8 ans dépassait la valeur limite pour l’obésité. Les analyses de régression logistique ont révélé que deux facteurs de risques maternels étaient significativement associés avec la trajectoire “en hausse” par rapport aux deux autres groupes : le tabac durant la grossesse et le surpoids maternel. Conclusions: Des risques d’obésité infantile peuvent êtres identifiés dès la grossesse. Des études d’intervention sont requises pour identifier la possibilité de réduire le risque d’obésité chez l’enfant en ciblant le tabac et le surpoids maternelle durant la grossesse. Mots clés: Indice de masse corporelle (IMC), obésité infantile, trajectoires développementales de groupe, facteurs de risque précoce, étude populationnelle, tabac pendant la grossesse, obésité maternelle.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
Les polymorphonucléaires neutrophiles (PMNs) représentent une arme primordiale dans la défense contre divers agents pathogènes; notamment les bactéries, les champignons, les cellules tumorales de même que les cellules infectées par des virus. Cependant, certaines pathologies reliées à l’inflammation chronique soulèvent l’implication des neutrophiles notamment dans l’arthrite rhumatoïde. La réponse inflammatoire persistante générée par l’activation et la survie des neutrophiles engendre une destruction des tissus environnants suite à la sécrétion non contrôlée de leurs produits cytotoxiques. Même si l’activation chronique des neutrophiles est néfaste dans plusieurs pathologies, elle pourrait s’avérer un bon outil en cas de neutropénie, comme c’est souvent le cas les patients ayant reçu des traitements de chimiothérapie. Ce projet fait suite aux travaux doctoraux de Lagraoui (1999). Il vise à identifier le(s) facteur(s) du liquide synovial qui augmente la survie des neutrophiles ainsi que le mécanisme d’action impliqué dans ce processus. Similairement au facteur semi-pur isolés par Lagraoui (1999), le milieu conditionné concentré (MCC) augmente la survie des PMNs de 75% (39% ± 9.5 vs 68% ± 2.5, p<0.01). Suivant le séquençage du MCC parallèlement au facteur semi-pur actif, deux protéines ont été identifiées à la fois dans le MCC et dans le facteur semi-pur soient : l’albumine et la fétuine. Notre projet vise donc à comparer les effets de l’albumine et de la fétuine à ceux du GM-CSF dans l’optique d’une thérapie alternative au GM-CSF en tant qu’adjuvant de chimiothérapie. La présence d’albumine, de fétuine ou de GM-CSF chez les PMNs incubés 24 heures avec la Mutamycin® induit une diminution du nombre de cellules en apoptose par rapport à la Mutamycin® (Ctrl : 43% ± 10; A : 74% ± 3; F : (82% ± 6 et GM : 74% ± 7; p<0.01). L’effet de l’albumine dépend de la voie de la kinase PI3 mais également celle la kinase ERK, alors que celle de la fétuine dépend de la kinase PI3. Similairement l’EPO, l’albumine et la fétuine supporte la différentiation des HSCs en précurseurs érythrocytaires de type BFU-E. Dans un modèle murin de chiomioprotection, l’albumine augmente la concentration cellulaire rapport au groupe contrôle des leukocytes de la rate (66 ±8 x106c/ml vs 81 ±16 x106c/ml) et du sang (3.6 ±0.4 x106c/ml vs 5.7 ±2.3 x106c/ml). Donc, in vitro, l’albumine et la fétuine sont comparables au GM-CSF au niveau fonctionalité et mécansimes d’action. Cependant, vu leur manque de spécificité, l’application thérapeutique en tant qu’adjuvant de chiomiothérapie de l’albumine et la fétuine est peu prometteuse. Par contre, les maladies dégénératives et les évènements ischémiques pourraient s’avérer de bonnes cibles thérapeutiques, principalement pour l’albumine.
Resumo:
Plusieurs études ont examiné la sensibilité aux antimicrobiens chez les bactéries d’organismes provenant de produits issus de l’aquaculture ou de leur environnement. Aucune information n’est cependant disponible concernant la résistance aux antimicrobiens dans les bactéries de la flore de poissons ou de fruits de mer vendus au détail au Canada. C’est particulièrement vrai en ce qui a trait aux bactéries des genres Aeromonas et Vibrio, dont certaines espèces sont des agents pathogènes zoonotiques connus. Au cours de cette étude, la sensibilité aux antimicrobiens d’isolats d’Aeromonas spp. et de Vibrio spp. provenant de poissons et de crevettes domestiques et importés a été mesurée à l’aide de techniques de micro dilution en bouillon et/ou de diffusion sur disque. Les classes d’antimicrobiens examinés comprenaient les tétracyclines (TET), les inhibiteurs de la voie des folates (sulfadiméthoxine-triméthoprime, SXT), le florfenicol (FLO), et les quinolones (acide nalidixique / enrofloxacine, NA/ENO). Des valeurs seuils épidémiologiques pour Aeromonas et Vibrio ont été établies en utilisant la méthode d’interprétation normalisée des données de résistance provenant de diffusion sur disque. La recherche de gènes de résistance associés au profil de résistance des isolats a été effectuée en utilisant des PCRs et des puces ADN. Le nombre d’isolats résistants aux divers antimicrobiens parmi les 201 isolats d’Aeromonas et les 185 isolats de Vibrio étaient respectivement les suivants: TET (n=24 et 10), FLO (n=1 et 0), SXT (n=2 et 8), NA (n=7 et 5) et ENO (n= 5 et 0). Diverses associations de gènes tet(A), tet(B), tet(E), floR, sul1, sul2, et intI1 ont été détectées, les gènes tet(E), intI1, sul2 et tet(B) étant les plus communs. Les espèces d’Aeromonas et de Vibrio isolées de poissons au détail et de fruits de mer peuvent héberger une variété de gènes de résistance, bien que peu fréquemment. Le risque que représente ces gènes de résistance reste à évaluer en considérant le potentiel infectieux des bactéries, l’utilisation des ces agents antimicrobiens pour le traitement des maladies en aquaculture et en médecine humaine et leur rôle en tant que réservoir de la résistance antimicrobienne.
Resumo:
Le facteur le plus important de pronostic de l'asthme professionnel (AP) est la durée des symptômes avant le retrait de lʼexposition à lʼagent causant lʼAP. La qualité de vie réduite, la détresse psychologique et les maladies psychiatriques sont des conditions souvent associées à l'AP. Notre objectif était d'identifier les facteurs, incluant le statut socioéconomique, qui ont une influence sur lʼintervalle de temps nécessaire pour présenter une requête à une agence médicolégale à la suite de lʼapparition de symptômes dʼasthme et de confirmer qu'un tel délai est associé à un moins bon pronostic respiratoire et à des coûts directs plus élevés. En outre, nous avons examiné la relation entre les variables cliniques et socio-économiques dʼune part et leur influence sur les facteurs psychologiques et économiques dʼautre part chez des travailleurs atteints d'AP. Ensuite, nous avons voulu évaluer si les individus souffrant de détresse psychologique (DP) et de morbidité psychiatrique pourraient être identifiés en utilisant un instrument mesurant la qualité de vie (QV). Lʼétude a été effectuée auprès dʼindividus ayant déposé des demandes d'indemnisation pourʼAP auprès du Commission de la sécurité et de la santé du travail du Québec (CSST). Les données ont été recueillies au moment de la réévaluation, soit environ deux ans et demi après le diagnostic. Outre la collecte des marqueurs cliniques de l'asthme, les individus ont été soumis à une évaluation générale de leur histoire sociodémographique et médicale, à une brève entrevue psychiatrique (évaluation des soins primaires des troubles mentaux, PRIME-MD) et à un ensemble de questionnaires, incluant le Questionnaire sur la qualité de vie - AQLQ(S), le Questionnaire respiratoire de St. George (SGRQ) et le Psychiatric Symptom Index (PSI).Soixante personnes ont été incluses dans l'étude. Etre plus âgé, avoir un revenu supérieur à 30 000$ CA etêtre atteint dʼAP dû à un allergène de haut poids moléculaire ont une association positive avec le nombre dʼannées dʼexposition avec symptômes avant le retrait. Au cours de la période de suivi, le nombre dʼannées dʼexposition avec symptômes était plus grand chez les individus ayant une hyperréactivité bronchique persistante. Par ailleurs, la présence de symptômes au poste de travail pendant moins d'un an est associée à une réduction des coûts directs. Les paramètres de QV et de DP avaient des corrélations modérées avec les marqueurs cliniques de lʼAP. Les plus fortes associations avec ces variables ont pu être observées dans les cas de la sévérité de l'asthme, des statuts dʼemploi et matrimonial, du revenu et de la durée de la période de travail avec l'employeur. Un seuil de 5,1 au niveau de la sous-échelle de la fonction émotionnelle de lʼAQLQ(S) sʼest avéré avoir la meilleure valeur discriminante pour distinguer les individus avec ou sans détresse psychiatrique cliniquement significative selon le PSI. Nous avons été en mesure d'identifier les variables socio-économiques associées à un intervalle plus long dʼexposition professionnelle en présence de symptômes dʼasthme. De même, une plus longue période d'exposition a été associée à un moins bon pronostic de la maladie et à des coûts de compensation plus élevés. Ces résultats s'avèrent utiles pour la surveillance de lʼAP qui pourrait cibler ces sous-groupes d'individus. La QV et la PS sont fréquemment réduites chez les individus atteints d'AP qui perçoivent une compensation. Elles sont associées à des marqueurs cliniques de lʼasthme et à des facteurs socio-économiques. En outre, nos résultats suggèrent que le questionnaire de lʼAQLQ(S) peut être utilisé pour identifier les individus avec un niveau de détresse psychologique potentiellement significatif.
Resumo:
OBJECTIF: Évaluer le rôle de l’endostatine, un nouveau marqueur anti-angiogénique, pour prédire le risque de prééclampsie (PE). METHODES: Il s’agit d’une étude cas témoins nichée dans deux cohortes prospectives. Les échantillons sanguins étaient collectés entre 11 et 17 semaines puis entre 18 et 26 semaines d’aménorrhée. L’hypertension gestationnelle était définie par une tension artérielle supérieure ou égale à 140/90mmHg à 2 reprises. Les cas de prééclampsie étaient définis par une hypertension gestationnelle associée à une protéinurie supérieure ou égale à 0.3 g /24h après 20 semaines de grossesse. La concentration d’endostatine était mesurée par une technique d’ELISA. Les résultats étaient exprimés en multiples de la médiane (MoM) et ajustés pour l’âge maternel, l’âge gestationnel, l’ethnie, et la cohorte d’origine. Une régression logistique était utilisée pour calculer des odds ratios (OR) ajustés et prédire le risque de PE. RESULTATS: Au total nous avons étudié 77 PE et 150 témoins chez des grossesses uniques. Parmi les PE 21 étaient de survenue précoce, avec un diagnostic avant 34 semaines et 41 étaient des PE sévères. Les cas avaient un IMC plus élevé que les témoins et étaient plus souvent Africaines. Les taux médians d’endostatine étaient significativement plus élevés chez les PE que chez les témoins au 1er trimestre (94.2 versus 90.7 ng/ml, p=0.004) et 2ème trimestre (105.8 versus 99.3 ng/ml p=0.002). Le taux d’endostatine entre 18 et 26 semaines était même plus élevé chez les patientes qui développaient une PE précoce. Lorsque l’endostatine était supérieure au 75èmepercentile (exprimée en MoM), le OR ajusté était de 1.33 95IC [0.68-2.58] à 11-17 semaines et 1.77 [0.94-3.34] à 18-26 semaines. L’OR ajusté pour les PE précoces était 3.51 [1.18-10.43] entre 11-17 semaines et 2.17 [0.67-7.06] entre 18-26 semaines. CONCLUSIONS: Un taux élevé d’endostatine dès le 1er trimestre est associé à une augmentation du risque de PE et surtout d’un risque de prééclampsie précoce. Toutefois l’endostatine seule a une trop faible valeur prédictive pour avoir une utilité clinique.
Les navires vikings : conception géométrique et architecture traditionnelle au Moyen Âge scandinave.
Resumo:
Selon l’image reçue des Vikings, ce peuple incarne l'esprit d’une immense solidarité primitive ayant su résister rudement au joug du christianisme et à la domination du Latin en Europe occidentale. Cette image n’est pas sans ses contradictions et, s’il est vrai que l’écriture était encore inconnue en Scandinavie durant les premiers siècles de l’expansion viking, on sait maintenant que le commerce et la colonisation, autant que les célèbres raids, motivèrent l’irruption des peuples scandinaves sur la scène médiévale. Quant aux navires de ces marchands, colonisateurs, pêcheurs et guerriers, ils apparaissent, un peu à l’image des Vikings eux-mêmes, sur le grand tableau de l’histoire nautique sous l’enseigne d’une originalité et d’une technicité sans parallèle. Comment les Vikings construisaient-ils leurs navires, en leur donnant une symétrie, un équilibre et une finesse si achevés? Les premiers ethnologues qui se sont intéressés à cette question ont privilégié les idées issues d'une tradition acquise par des générations de constructeurs, et d'astuces simples pour équilibrer tribord et bâbord. Puis, ils se sont rapidement tournés vers les techniques inhérentes à la construction à clin : utilisation de planches fendues et non sciées et de rivets abondants témoignant d’une sidérurgie acquise depuis peu. Le problème que présentent ces navires, est que leur construction artisanale demeure conforme à l’image reçue des Vikings, mais que leur conception architecturale, réalisée selon des connaissances théoriques très exactes, brise la notion d’une Scandinavie médiévale illettrée et coupée des grands centres du savoir. Ce travail s’intéresse précisément à la conception architecturale des navires scandinaves du VIIIe au XIe siècle pour montrer comment ils s’insèrent dans un haut savoir européen dès leur apparition. Il explore ensuite les liens qui unissent ce savoir théorique aux aspects véritablement originaux des navires vikings, en l’occurrence leur construction à clin et leur homogénéité sur une grande région à travers plus de cinq siècles. Au terme de cette recherche, l'analyse réalisée sur le maître-couple de trois épaves vikings, une épave antique et une épave scandinave pré-viking, a permis de mettre en évidence plusieurs indices de l'utilisation du système de conception géométrique apparaissant pour la première fois dans les traités d'architecture navale de la Renaissance, et ce, sur chacune de ces épaves. Les résultats obtenus démontrent qu'il est possible d'employer un système transversal de conception pour des navires vraisemblablement construits bordé premier et assemblés à clin.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Contexte: Le diabète de type 2 est un problème de santé publique important. La pratique régulière de l’activité physique contribue à la prévention de cette maladie chronique. Toutefois, peu de recherches portent sur l’association entre l’activité physique de transport, notamment la marche utilitaire, et le diabète. Objectif : L’objectif de cette étude est d’examiner l’association entre la présence d’un diagnostic de diabète de type 2 et les pratiques de marche utilitaire dans un échantillon transversal. Méthode : Cette étude est une analyse secondaire de données provenant d’un projet de recherche sur l’implantation d’un système de vélos libre-service. 7012 adultes ont été recrutés par téléphone au printemps 2009, à l’automne 2009 et à l’automne 2010. La marche utilitaire a été mesurée en utilisant des questions adaptées du International Physical Activity Questionnaire (IPAQ). L’association entre la marche utilitaire et le diabète auto-rapporté a été examinée au moyen d’analyses de régression logistique multivariées. L’influence des variables socio- démographiques, du niveau d’activité physique autre et de l’indice de masse corporelle a été contrôlée. Des analyses de sensibilité ont aussi été faites, utilisant un seuil différent pour le temps de marche utilitaire. Résultats : Dans le modèle final, la marche utilitaire est associée à une prévalence du diabète plus faible (RC=0,721; IC 95% : 0,547-0,950). Conclusion: La pratique de la marche utilitaire est associée à une prévalence plus faible de diabète auto-rapporté. La promotion de ce type d’activité physique aurait sa place dans la prévention du diabète dans une perspective de santé publique.
Resumo:
This study aimed to describe patterns of major depression (MDD) in a cohort of untreated illicit opiate users recruited from 5 Canadian urban centres, identify sociodemographic characteristics of opiate users that predict MDD, and determine whether opiate users suffering from depression exhibit different drug use patterns than do participants without depression. Baseline data were collected from 679 untreated opiate users in Vancouver, Edmonton, Toronto, Montreal, and Quebec City. Using the Composite International Diagnostic Interview Short Form for Major Depression, we assessed sociodemographics, drug use, health status, health service use, and depression. We examined depression rates across study sites; logistic regression analyses predicted MDD from demographic information and city. Chi-square analyses were used to compare injection drug use and cocaine or crack use among participants with and without depression. Almost one-half (49.3%) of the sample met the cut-off score for MDD. Being female, white, and living outside Vancouver independently predicted MDD. Opiate users suffering from depression were more likely than users without depression to share injection equipment and paraphernalia and were also more likely to use cocaine (Ps < 0.05). Comorbid depression is common among untreated opiate users across Canada; targeted interventions are needed for this population.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
La multiplication dans le corps de Galois à 2^m éléments (i.e. GF(2^m)) est une opérations très importante pour les applications de la théorie des correcteurs et de la cryptographie. Dans ce mémoire, nous nous intéressons aux réalisations parallèles de multiplicateurs dans GF(2^m) lorsque ce dernier est généré par des trinômes irréductibles. Notre point de départ est le multiplicateur de Montgomery qui calcule A(x)B(x)x^(-u) efficacement, étant donné A(x), B(x) in GF(2^m) pour u choisi judicieusement. Nous étudions ensuite l'algorithme diviser pour régner PCHS qui permet de partitionner les multiplicandes d'un produit dans GF(2^m) lorsque m est impair. Nous l'appliquons pour la partitionnement de A(x) et de B(x) dans la multiplication de Montgomery A(x)B(x)x^(-u) pour GF(2^m) même si m est pair. Basé sur cette nouvelle approche, nous construisons un multiplicateur dans GF(2^m) généré par des trinôme irréductibles. Une nouvelle astuce de réutilisation des résultats intermédiaires nous permet d'éliminer plusieurs portes XOR redondantes. Les complexités de temps (i.e. le délais) et d'espace (i.e. le nombre de portes logiques) du nouveau multiplicateur sont ensuite analysées: 1. Le nouveau multiplicateur demande environ 25% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito lorsque GF(2^m) est généré par des trinômes irréductible et m est suffisamment grand. Le nombre de portes du nouveau multiplicateur est presque identique à celui du multiplicateur de Karatsuba proposé par Elia. 2. Le délai de calcul du nouveau multiplicateur excède celui des meilleurs multiplicateurs d'au plus deux évaluations de portes XOR. 3. Nous determinons le délai et le nombre de portes logiques du nouveau multiplicateur sur les deux corps de Galois recommandés par le National Institute of Standards and Technology (NIST). Nous montrons que notre multiplicateurs contient 15% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito au coût d'un délai d'au plus une porte XOR supplémentaire. De plus, notre multiplicateur a un délai d'une porte XOR moindre que celui du multiplicateur d'Elia au coût d'une augmentation de moins de 1% du nombre total de portes logiques.