107 resultados para coût de la schizophrénie
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LLM en droit"
Resumo:
L’exercice d’allocation de ressources en santé, relevant du Ministère de la santé, se voit fortement influencé autant par les besoins variés de la population que par les exigences des intervenants en santé. Quel rôle ces différents intérêts peuvent-ils jouer dans l’intégration de nouvelles technologies dans la distribution des soins de santé ? La pharmacogénomique, branche émergente de la pharmacologie intégrant les données issues du projet génome humain au processus de développement du médicament, est perçue comme une technologie qui permettrait de personnaliser la médecine. Son intégration aux processus de développement ou de prescription de médicaments promet de minimiser l’apparition d’effets secondaires néfastes découlant de la prise de médicaments. Serait-il alors judicieux pour le gouvernement du Québec, considérant la conjoncture actuelle d’allocation de ressources, d’investir dans la pharmacogénomique en tant que nouvel outil de développement du médicament ou nouveau mode pronostic de médication pour sa population ? Nous aborderons cette question à l’aide de critères de sélection dictés par Caulfield et ses collaborateurs (2001)[1] pour évaluer la pertinence de l’investissement public dans la mise sur pied d’un test génétique, soit l’acceptabilité, l’utilité, la non-malfaisance et la présence d’un bénéfice clair – à coût raisonnable – pour la population. La génomique avoisinant la génétique, ces facteurs s’avèrent applicables dans notre discussion.
Resumo:
La recherche de sources d’énergie fiables ayant un faible coût environnemental est en plein essor. L’hydrogène, étant un transporteur d’énergie propre et simple, pourrait servir comme moyen de transport de l’énergie de l’avenir. Une solution idéale pour les besoins énergétiques implique une production renouvelable de l’hydrogène. Parmi les possibilités pour un tel processus, la production biologique de l’hydrogène, aussi appelée biohydrogène, est une excellente alternative. L’hydrogène est le produit de plusieurs voies métaboliques bactériennes mais le rendement de la conversion de substrat en hydrogène est généralement faible, empêchant ainsi le développement d’un processus pratique de production d’hydrogène. Par exemple, lorsque l’hydrogène est produit par la nitrogénase sous des conditions de photofermentation, chaque molécule d’hydrogène constituée requiert 4 ATP, ce qui rend le processus inefficace. Les bactéries photosynthétiques non sulfureuses ont la capacité de croître sous différentes conditions. Selon des études génomiques, Rhodospirillum rubrum et Rhodopseudomonas palustris possèdent une hydrogénase FeFe qui leur permettrait de produire de l’hydrogène par fermentation anaérobie de manière très efficace. Il existe cependant très peu d’information sur la régulation de la synthèse de cette hydrogénase ainsi que sur les voies de fermentation dont elle fait partie. Une surexpression de cette enzyme permettrait potentiellement d’améliorer le rendement de production d’hydrogène. Cette étude vise à en apprendre davantage sur cette enzyme en tentant la surexpression de cette dernière dans les conditions favorisant la production d’hydrogène. L’utilisation de résidus organiques comme substrat pour la production d’hydrogène sera aussi étudiée.
Resumo:
Contexte : Une tentative de suicide antérieure et les troubles mentaux constituent d’importants facteurs de risque de suicide. Les services de santé ont un rôle important à jouer en matière de prévention. Objectif : Analyser les patrons de recours aux services à des fins de santé mentale avant et après une hospitalisation pour tentative de suicide chez les résidents montréalais qui ont reçu un diagnostic de schizophrénie ou de dépression. Méthode : Les données proviennent de la banque médico administrative jumelée de l’Agence de Montréal. Les caractéristiques des patients et les taux de contacts avec les services trois mois avant et après l’hospitalisation index furent comparées. L’échantillon représentatif compte 525 Montréalais hospitalisés à la suite d’une tentative de suicide (avr. 2003-déc. 2004) qui ont reçu un diagnostic de schizophrénie ou de dépression. Résultats : Le recours aux services a augmenté de manière significative suivant l’hospitalisation index. Les patients déjà en contact avec les services et les hommes avec comorbidité en termes d’abus de substances semblent en contact avec les services au cours des trois mois suivant leur hospitalisation contrairement aux femmes avec comorbidité. Le profil « urgence » de recours aux services semble prédire une absence de recours aux services. Conclusions : Les services de santé répondent aux tentatives de suicide, particulièrement chez les hommes avec troubles d’abus de substances. Cependant, des interventions sont requises en vue d’améliorer la coordination des services, principalement pour les personnes qui se présentent l’urgence, les femmes avec troubles d’abus de substances et les patients en marge du système avant leur hospitalisation.
Resumo:
Aujourd’hui, nous savons qu’environ 75 à 80% des impacts environnementaux des produits sont déterminés lors de la conception. Le rôle du designer industriel est donc crucial pour arriver à une forme de développement plus viable. Cette recherche tente de cibler les champs de connaissances qui devraient faire partie de la formation des professionnels du développement de produits pour y intégrer les aspects environnementaux. Après une recension de la littérature en design industriel, en pédagogie et en environnement, l’étude de terrain a été conduite en deux temps. Selon des critères prédéfinis, des programmes universitaires « spécialisés » en environnement/développement durable, au Québec, ainsi que des formations en éco-conception, offerts en France, ont été analysés. L’étude de terrain a été complétée par un entretien en profondeur semi-dirigé avec un consultant, qui aide des entreprises québécoises à intégrer l’environnement en développement de produits. L’analyse des informations recueillies met en évidence la nécessité de transformer rapidement les formations universitaires en conception de produits. Le nouveau cursus de design industriel devrait; 1. Intégrer les connaissances relatives aux impacts environnementaux; 2. Encourager le travail en équipes multidisciplinaires pour enrichir la collecte d’informations relative aux projets de développement; 3. Établir une collaboration étroite entre les établissements d’enseignement et les industries, ce qui est essentiel à la compréhension des enjeux de développement de produits et services (culture de l’entreprise, coût, délais, logistique, réglementation, etc.).
Resumo:
L'absentéisme parmi le personnel soignant prend de plus en plus d'ampleur dans les institutions sanitaires publiques au Cameroun. Il représente à l'heure actuelle l'une des principales causes de l'effondrement du système de soins de santé. Ce phénomène se doit d'être réduit à des proportions raisonnables; cependant, les informations nationales sur les niveaux d’absentéisme parmi ce personnel, les coûts associés, ainsi que sur les facteurs qui le déterminent restent encore très faibles. Cette recherche avait pour objectifs de mesurer le niveau d’absentéisme parmi les prestataires de soins de santé des hôpitaux publics du Cameroun ; de déterminer l’influence des caractéristiques personnelles et des facteurs occupationnels sur le comportement d’absence parmi ces professionnels ; et d’évaluer les répercussions économiques de l’absentéisme en termes de coûts associés à la perte de productivité pour les employeurs. Elle portait sur du personnel soignant, notamment les médecins, les infirmiers et les aides-soignants exerçant dans les formations sanitaires publiques (hôpitaux) du Cameroun au mois d’octobre 2008. L’absentéisme était mesuré par le nombre d’heures et d’épisodes (fréquence) d’absences et concernait les retards et les absences de trois jours consécutifs et moins. Les facteurs personnels et occupationnels étudiés étaient l’âge, le sexe, le statut civil, les responsabilités familiales (nombre d’enfants), le niveau d’éducation, l’unité de soins, le type d’emploi, le régime d’emploi, l’horaire de travail, le temps supplémentaire, l’ancienneté dans l’hôpital, la taille de l’hôpital et le revenu de l’employé. Les données ont été recueillies dans 15 formations sanitaires publiques réparties dans six régions du Cameroun, sur la période allant du 1er au 31 octobre 2008, à partir des documents officiels émanant du gouvernement et des hôpitaux. Les analyses statistiques comportaient des analyses descriptives, des analyses bivariées et des analyses multivariées. Le taux de participation moyen des employés a été de 50,7%. Sur les 516 personnes qui composaient l’échantillon, 93,4% avaient eu au moins une absence au travail au mois d’octobre 2008. Le taux d’absentéisme global était de 7,2%, et variait entre 2% et 37% dans les hôpitaux. Chaque participant avait en moyenne 12 épisodes d’absences pendant cette période et la durée moyenne d’absences par participant était d’environ 13 heures et 21 minutes. La durée de l’horaire de travail, le fait de travailler dans un hôpital régional, de travailler selon un horaire fixe, d’être un personnel PPTE et de ne pas effectuer du temps supplémentaire, sont associés significativement à une plus grande fréquence des absences. La durée de l’horaire de travail, le fait d’être médecin, de travailler dans un service d’accueil et des urgences, de travailler selon un horaire fixe et d’être une femme, ont un lien significativement positif avec la durée des absences. Cet absentéisme a absorbé environ 8% de la masse salariale d’octobre 2008. On estime à environ 4 088 568 dollars US courants (2008), les dépenses consacrées par le secteur public de la santé du Cameroun à cet absentéisme en 2008, ce qui représentait approximativement 2,1% des dépenses publiques de santé. La réduction de l’absentéisme de courte durée parmi les professionnels de la santé du secteur public au Cameroun passe par l’amélioration du style de gestion des hôpitaux et l’approfondissement des recherches sur le comportement d’absence parmi ces professionnels.
Resumo:
L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes de médecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.
Resumo:
Ce mémoire porte sur le traité de Venise de 1201, passé entre les barons de la Quatrième Croisade et la république de Venise, pour l’affrètement d’une flotte incluant transport et vivres. L’étude du Traité est d’autant plus importante que, les croisés manquant à leurs obligations, cet accord eut un impact déterminant sur la suite de la Croisade, se plaçant ainsi au cœur de sa déviation vers Constantinople. Le mémoire analyse d’abord la nature et l’ampleur des engagements pris par Venise, en essayant de quantifier et de mesurer en termes économiques le nombre de bateaux et de croisés transportés, ainsi que le poids et le coût des provisions pour hommes et chevaux. Cette analyse, basée sur la comparaison avec des contrats analogues, prouve que la somme de 85 000 marcs d’argent convenue avec les barons n’était en rien exagérée. Parallèlement, le mémoire évalue ce que pouvait signifier, dans le contexte économique de l’époque, une telle somme, et tente d’identifier les raisons pour lesquelles les croisés furent dans l’impossibilité d’honorer leur part du contrat. Cette analyse montre que, contrairement à une certaine historiographie traditionnelle, il serait faux d’imputer aux Vénitiens la responsabilité du détournement de la Croisade ou de les taxer d’intransigeance, de cupidité, voire de duplicité. L’effort fourni par la République indique qu’elle mit tout en œuvre pour que l’entreprise fût une réussite. L’interruption du commerce, la construction de nombreux navires, la réquisition de milliers de marins pour manœuvrer la flotte et la logistique pour approvisionner des dizaines de milliers d’hommes témoignent toutes de l’ampleur de l’implication vénitienne. C’est le défaut de paiement des croisés, qui força le doge Henri Dandolo à se commettre plus avant encore, joignant irrémédiablement la fortune de la ville marchande à celle de l’expédition.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
L’objectif principal de cette thèse était de quantifier et comparer l’effort requis pour reconnaître la parole dans le bruit chez les jeunes adultes et les personnes aînées ayant une audition normale et une acuité visuelle normale (avec ou sans lentille de correction de la vue). L’effort associé à la perception de la parole est lié aux ressources attentionnelles et cognitives requises pour comprendre la parole. La première étude (Expérience 1) avait pour but d’évaluer l’effort associé à la reconnaissance auditive de la parole (entendre un locuteur), tandis que la deuxième étude (Expérience 2) avait comme but d’évaluer l’effort associé à la reconnaissance auditivo-visuelle de la parole (entendre et voir le visage d’un locuteur). L’effort fut mesuré de deux façons différentes. D’abord par une approche comportementale faisant appel à un paradigme expérimental nommé double tâche. Il s’agissait d’une tâche de reconnaissance de mot jumelée à une tâche de reconnaissance de patrons vibro-tactiles. De plus, l’effort fut quantifié à l’aide d’un questionnaire demandant aux participants de coter l’effort associé aux tâches comportementales. Les deux mesures d’effort furent utilisées dans deux conditions expérimentales différentes : 1) niveau équivalent – c'est-à-dire lorsque le niveau du bruit masquant la parole était le même pour tous les participants et, 2) performance équivalente – c'est-à-dire lorsque le niveau du bruit fut ajusté afin que les performances à la tâche de reconnaissance de mots soient identiques pour les deux groupes de participant. Les niveaux de performance obtenus pour la tâche vibro-tactile ont révélé que les personnes aînées fournissent plus d’effort que les jeunes adultes pour les deux conditions expérimentales, et ce, quelle que soit la modalité perceptuelle dans laquelle les stimuli de la parole sont présentés (c.-à.-d., auditive seulement ou auditivo-visuelle). Globalement, le ‘coût’ associé aux performances de la tâche vibro-tactile était au plus élevé pour les personnes aînées lorsque la parole était présentée en modalité auditivo-visuelle. Alors que les indices visuels peuvent améliorer la reconnaissance auditivo-visuelle de la parole, nos résultats suggèrent qu’ils peuvent aussi créer une charge additionnelle sur les ressources utilisées pour traiter l’information. Cette charge additionnelle a des conséquences néfastes sur les performances aux tâches de reconnaissance de mots et de patrons vibro-tactiles lorsque celles-ci sont effectuées sous des conditions de double tâche. Conformément aux études antérieures, les coefficients de corrélations effectuées à partir des données de l’Expérience 1 et de l’Expérience 2 soutiennent la notion que les mesures comportementales de double tâche et les réponses aux questionnaires évaluent différentes dimensions de l’effort associé à la reconnaissance de la parole. Comme l’effort associé à la perception de la parole repose sur des facteurs auditifs et cognitifs, une troisième étude fut complétée afin d’explorer si la mémoire auditive de travail contribue à expliquer la variance dans les données portant sur l’effort associé à la perception de la parole. De plus, ces analyses ont permis de comparer les patrons de réponses obtenues pour ces deux facteurs après des jeunes adultes et des personnes aînées. Pour les jeunes adultes, les résultats d’une analyse de régression séquentielle ont démontré qu’une mesure de la capacité auditive (taille de l’empan) était reliée à l’effort, tandis qu’une mesure du traitement auditif (rappel alphabétique) était reliée à la précision avec laquelle les mots étaient reconnus lorsqu’ils étaient présentés sous les conditions de double tâche. Cependant, ces mêmes relations n’étaient pas présentes dans les données obtenues pour le groupe de personnes aînées ni dans les données obtenues lorsque les tâches de reconnaissance de la parole étaient effectuées en modalité auditivo-visuelle. D’autres études sont nécessaires pour identifier les facteurs cognitifs qui sous-tendent l’effort associé à la perception de la parole, et ce, particulièrement chez les personnes aînées.
Resumo:
Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.