965 resultados para Énigme du taux sans risque
Resumo:
Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.
Resumo:
Ce mémoire explore la relation qui lie démocratie et légitimité politique, dans une perspective épistémique. La démocratie, dans son acception la plus générale, confère à chacun la possibilité de faire valoir les intérêts qu'il estime être les siens et ceux de sa communauté, en particulier à l’occasion d’un scrutin. Cette procédure décisionnelle qu’est le vote consacre ainsi en quelque sorte la liberté et l’égalité dont profitent chacun des citoyens, et confère une certaine légitimité au processus décisionnel. Cela dit, si le vote n’est pas encadré par des considérations épistémiques, rien ne garantit que le résultat politique qui en découlera sera souhaitable tant pour les individus que pour la collectivité: il est tout à fait permis d’imaginer que des politiques discriminatoires, économiquement néfastes ou simplement inefficaces voient ainsi le jour, et prennent effet au détriment de tous. En réponse à ce problème, différentes théories démocratiques ont vu le jour et se sont succédé, afin de tenter de lier davantage le processus démocratique à l’atteinte d’objectifs politiques bénéfiques pour la collectivité. Au nombre d’entre elles, la démocratie délibérative a proposé de substituer la seule confrontation d’intérêts de la démocratie agrégative par une recherche collective du bien commun, canalisée autour de procédures délibératives appelées à légitimer sur des bases plus solides l’exercice démocratique. À sa suite, la démocratie épistémique s’est inspirée des instances délibératives en mettant davantage l’accent sur la qualité des résultats obtenus que sur les procédures elles-mêmes. Au final, un même dilemme hante chaque fois les différentes théories : est-il préférable de construire les instances décisionnelles en se concentrant prioritairement sur les critères procéduraux eux-mêmes, au risque de voir de mauvaises décisions filtrer malgré tout au travers du processus sans pouvoir rien y faire, ou devons-nous avoir d’entrée de jeu une conception plus substantielle de ce qui constitue une bonne décision, au risque cette fois de sacrifier la liberté de choix qui est supposé caractériser un régime démocratique? La thèse que nous défendrons dans ce mémoire est que le concept d’égalité politique peut servir à dénouer ce dilemme, en prenant aussi bien la forme d’un critère procédural que celle d’un objectif politique préétabli. L’égalité politique devient en ce sens une source normative forte de légitimité politique. En nous appuyant sur le procéduralisme épistémique de David Estlund, nous espérons avoir démontré au terme de ce mémoire que l’atteinte d’une égalité politique substantielle par le moyen de procédures égalitaires n’est pas une tautologie hermétique, mais plutôt un mécanisme réflexif améliorant tantôt la robustesse des procédures décisionnelles, tantôt l’atteinte d’une égalité tangible dans les rapports entre citoyens.
Resumo:
A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences. Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus. Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats. Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
La recherche qui a été effectuée dans le présent document, porte sur l'écart appliqué par les banques aux swaps de taux d'intérêt. Les éléments hors-bilan des banques dont fait partie les swaps de taux d'intérêt ont connu ces dernières années une croissance très importante, à cause principalement d'une volatilité des taux d'intérêt élevée. Nous avons choisi d'analyser l'écart bancaire sur les swaps de taux d'intérêt dans le but d'identifier la nature des relations qui existent entre lui et certains facteurs pertinents. Étant donné que dans la littérature financière il n'y a aucune étude empirique relative à ce sujet, et qu'il y a un manque d'informations théoriques adéquates en ce qui concerne la forme des relations analysées, nous avons effectué ce travail dans une perspective exploratoire. Les facteurs pertinents retenus sont le taux des acceptations bancaires, la volatilité de ce taux, mesurée par l'écart-type des observations des trente derniers jours, la pente de la courbe de rendement, et l'échéance du swap. La période d'étude va du 17/02/89 au 11/02/91 et compte 493 observations; elle a été subdivisée en quatre sous-périodes chronologiques égales. Ainsi chacune des analyses a-t-elle été effectuée de deux façons ; d'abord sur l'ensemble de l'échantillon et ensuite dans les sous-périodes. Deux types de swaps ont été considérés : les swaps de trois ans d'échéance et les swaps de cinq ans d'échéance. Les résultats de l'analyse des données sont les suivants : Dans une large mesure, il est plausible d'affirmer que l'écart bancaire sur les swaps de taux d'intérêt est une fonction négative du taux des acceptations bancaires. Mais cette relation est plus évidente lorsque le taux des acceptations bancaires est élevé que lorsqu'il est plus faible. Il est également soutenable d'affirmer que l'écart bancaire est une fonction positive de la volatilité des taux d'intérêt ainsi que de la pente de la courbe de rendement. L'écart bancaire augmente avec une augmentation de l'échéance du swap; néanmoins la relation entre les deux n'est pas une relation linéaire, c'est-à-dire de proportionnalité. Les résultats obtenus sont en général concordants avec la théorie économique et financière et leurs implications pratiques peuvent être utiles aussi bien pour la banque que pour les entreprises clientes.
Resumo:
Depuis les dernières années, on assiste à une croissance du taux de chômage. Le nombre de chercheurs d'emploi ne cesse d'augmenter et beaucoup d'entre eux sont confrontés à de longues périodes sans emploi. D'après un récent rapport publié par le Développement des ressources humaines Canada, le taux de chômage a affiché une moyenne de 12.2% au Québec en 1994. Le nombre de chercheurs d'emploi augmente considérablement et ceux-ci proviennent de différents domaines d'activités d'emploi. Plusieurs de ces personnes ont besoin de support pour réintégrer le marché du travail. Des organismes d'aide à l'employabilité permettent à cette clientèle d'identifier des objectifs pour faciliter leur insertion. Afin de bien répondre aux besoins des chercheurs d'emploi par des moyens rapides et utiles, un logiciel a été conçu par Dominique Clavier, chercheur et clinicien Français. Ce logiciel s'appelle le Copilote insertion. Il permet aux usagers d'avoir un diagnostic complet des difficultés à trouver un emploi. Ce diagnostic donne aussi des recommandations conformes à la situation de la personne. Étant donné que cet outil a été d'abord conçu pour les Européens, on peut s'attendre que les énoncés formulés dans le Copilote présentent des difficultés pour les québécois. L'objet de cet essai est de ressortir les problèmes de compréhension pour ensuite faire l'adaptation culturelle du Copilote insertion. Dans le premier chapitre de cet ouvrage, nous nous attarderons à définir les enjeux du travail et la notion de l'employabilité. Nous aborderons par la suite deux modèles qui traitent des stratégies d'insertion : celui de Dominique Clavier auteur du logiciel Copilote insertion et celui de Jacques Limoges auteur du Trèfle chanceux. Il sera question par la suite de l'intégration de ces deux approches et de l'adaptation culturelle de ce logiciel. Le deuxième chapitre présentera la méthodologie qui indiquera la conduite de l'expérimentation auprès d'un échantillon de chercheurs d'emploi québécois. Un dernier chapitre permettra, suite à l'analyse des données, de présenter les résultats et de proposer des correctifs pour la refonte des énoncés du Copilote insertion.
Resumo:
Le thème «histoire des femmes» recouvre bien des perspectives de recherche, compatibles mais profondément différentes. On peut aussi bien s'attacher à ce que les femmes ont fait dans l'histoire qu'à la façon dont les femmes ont été perçues en tant que groupe social et sexuel dans cette même histoire. A mon sens, les deux perspectives se complètent. Le discours porté sur les femmes à travers l'histoire est basé sur des comportements sociaux retraçables; conjugué à d'autres facteurs économiques et culturels, le discours peut même affecter les comportements quotidiens du groupe des femmes et influencer ainsi leur place dans l'histoire. Inversement, les actions collectives des femmes, visibles ou non pour les autres intervenants sociaux, influencent les discours portés sur elles, que ce soit par l'approbation, l'opposition ou la récupération. Ma formation personnelle m'a poussée davantage vers la deuxième perspective d'étude, l'analyse des discours, bien que je trouve nécessaire de la situer par rapport à certaines réalités sociales toujours présentes dans l'histoire. Il est difficile de s'empêcher d'interpréter personnellement un discours qui constitue déjà lui-même une interprétation de la réalité sociale et économique. J'espère, dans cette recherche, avoir fait la part des choses entre l'examen des circonstances sociales plus objectives et l'examen des comportements subjectifs présents dans le discours visé. On ne peut pas faire l'histoire de l'émancipation sociale des femmes du Québec sans étudier l'évolution des discours sur les femmes et la «féminité», durant les trente dernières années. Mais cette évolution des discours sur la «féminité» n'a pas suivi de façon constante les différents mouvements économiques, sociaux et culturels qui ont radicalement changé la vie des Québécoises de l'après-guerre. Même à l'aube des années 1980, on observe beaucoup de manifestations de l'idée conservatrice de «nature féminine», encore justifiée par les milieux politiques, économiques et scientifiques, et plus particulièrement encore par le milieu médical. Figé en doctrine, le stéréotype médical de la nature féminine a survécu aux conditions qui l'avaient fait naître. Alors que tout changeait alentour, économie, société, culture, l'être féminin restait officiellement défini par la fonction de reproduction et consacré à la vie familiale [...] nos contemporaines dénoncent avec vigueur un stéréotype devenu prison, une protection masculine de plus en plus illusoire. Le discours médical a suscité mon intérêt non seulement à cause de la riche historiographie qui lui était consacrée, mais aussi à cause des différents cadres sociaux et culturels qui l'ont favorisé et qui lui ont donné un rôle de plus en plus prégnant. À cet égard, l'influence des conceptions médicales touchant les relations sociales, particulièrement les relations entre les sexes, m'a fascinée. En quoi le discours médical sur la «féminité» a-t-il été touché au Québec (au-delà des apparences) par les mouvements de revendication des femmes éveillés dans les années 1950-1960 et multipliés dans les années 1970? Pour le savoir, il faut d'abord trouver des traces mesurables de ce discours dans un médium touchant directement les populations impliquées dans ce rapport: les médecins et les femmes. J'ai choisi la littérature publicitaire concernant la santé, plus précisément les médicaments, s'adressant soit aux femmes en position de consommatrices (par une revue féminine), soit aux médecins traitants (par une revue médicale). La problématique entourant ce choix et les aspects méthodologiques qui l'accompagnent seront explicités au chapitre I. Le chapitre II traitera des principaux repères historiques dans trois domaines: l'évolution de la condition des femmes dans la société québécoise (1945-1980); l'évolution de la médecine québécoise en rapport avec la condition des femmes; l'évolution de la consommation et de la publicité en rapport avec la condition des femmes. Tout au long de l'exposé historique seront évoquées deux perspectives théoriques: le rapport à la fois dynamique et aliénant des femmes à la consommation (selon Katherine Blunden) et la «mystique féminine» de l'après-guerre (selon Betty Friedan). Le chapitre III poursuivra sur l'analyse plus serrée des publicités médicales à l'intérieur des deux sources et les différentes interprétations historiques que l'on peut en tirer.
Resumo:
Les petites entreprises au Canada et au Nouveau-Brunswick sont devenues depuis une quinzaine d'années la principale source de création de nouveaux emplois. Les petites entreprises canadiennes (celles qui comptent moins de 1(X) employés) employaient 37% de la population active en 1987 et elles ont créé 81% des nouveaux emplois entre 1979 et 1988. Pour le Nouveau-Brunswick, les petites entreprises jouent un rôle encore plus grand: elles employaient 38% de la population active en 1987 et ont créé 88% des nouveaux emplois durant cette même période. La vitalité et la croissance des petites entreprises sont donc des facteurs cruciaux dans le développement socio-économique du Canada en général et du Nouveau-Brunswick en particulier. Pour assurer leur croissance, les petites entreprises ont besoin de financement, bien sûr, mais elles requièrent aussi du support technique sous forme de conseils et de perfectionnement de leurs ressources humaines. Jusqu'en 1990, les entrepreneurs du Nouveau-Brunswick qui cherchaient sur leur territoire du capital de risque n'avaient autre choix que de s'adresser au gouvernement fédéral ou provincial car ce service d'appui à la petite entreprise n'était pas offert dans le secteur privé, ou du moins n'était pas publiquement connu. En avril 1990, le Mouvement Coopératif Acadien annonça la création de la Société d'Investissement du Mouvement Acadien (SIMA) et lui donna justement le mandat de fournir aux petites entreprises coopératives et à capital-actions un accès à du capital de risque et au support technique pour assurer leur croissance. La SIMA adresse ses services aux entreprises acadiennes du Nouveau-Brunswick étant donné la spécificité culturelle de son membership. Quel genre de portefeuille d'investissement la SIMA a-t-elle constituté jusqu'à date? Quelle contribution a-t-elle apporté après deux ans à la croissance des entreprises acadiennes et au perfectionnement de leurs ressources humaines? C est à ces questions que s'intéresse ce travail et à lesquelles nous tenterons de répondre. Cet essai cherchera précisément à évaluer l'impact de la SIMA depuis 1990 jusqu'à la première moitié de 1992. Nous devons toutefois tenir compte du fait que notre étude ne pourra mesurer la performance ultime de la SIMA après deux ans d'activités. Comme le cycle d'affaires d'une société de capital de risque varie entre cinq et sept ans, nous apprécierons les accomplissements nous nous intéresserons aux tendances qui se dessinent en date de juin 1992. Afin de mieux saisir le caractère stratégique de l'initiative de la SIMA, nous examinerons dans un premier chapitre l'état de la petite entreprise et de l'emploi. Ensuite nous nous pencherons sur la problématique du financement de la petite entreprise, qu'elle soit coopérative ou à capital-actions, pour constater l'arrivée opportune de cette société d'investissement sur la scène acadienne. Nous découvrirons aussi les besoins non-monétaires des petites entreprises et cela nous permettra de vérifier si l'offrande de la SIMA en appui technique correspond aux besoins réels des entrepreneurs. Ayant ainsi pris connaissance de la dimension de la problématique, nous formulerons quelques hypothèses, dont les variables nous permettront de confirmer ou au contraire d'infirmer l'impact social et l'impact économique de la SIMA au Nouveau-Brunswick, Nous tiendrons compte, bien sûr, qu'au moment de notre enquête la Société n'est que dans la première phase de sa relation avec ses partenaires. Dans le deuxième chapitre, nous prendrons connaissance de la nature de cette activité économique qu'est le capital de risque. Nous ferons un recul dans l'histoire pour retracer les débuts de cette forme de capitalisme et nous dresserons un portrait sommaire de cette activité au Canada. Étant donné que ces services étaient déjà offerts au Nouveau-Brunswick avant 1990, avant l'arrivée de la SIMA, nous prendrons connaissance des principaux acteurs pour être en mesure de comparer leurs approches à celles de la SIMA. Afin de mieux connaître la Société d'Investissement du Mouvement Acadien, la dernière-née du Mouvement Coopératif Acadien, nous étudierons dans un autre chapitre sa structure interne et ses politiques d'investissement dans les petites entreprises. Nous ferons aussi la genèse de la SIMA, ce qui nous permettra de découvrir une pratique courante de collaboration entre le Mouvement Acadien et le Mouvement Desjardins du Québec. Nous ferons par la suite une analyse des données que nous avons recueillies sur le terrain dans le but de mesurer l'impact social de la SIMA. Nous ferons état de notre enquête dans les archives des médias francophones qui s'adressent à la communauté d'affaires acadienne ainsi qu'auprès de la Société elle-même pour constater ses démarches de communication. Parce que l'activité vedette la SIMA est celle d'investir, nous étudierons ensuite ses investissements dans les entreprises et nous tenterons d'évaluer l'impact économique de ses initiatives. Nous ferons également état des témoignages de quelques experts et observateurs de la question économique au Nouveau-Brunswick que nous avons interrogés dans le cadre de ce travail. Nous terminerons cet essai en dressant un bilan de l'intervention de la SIMA depuis sa création et, le cas échéant, nous formulerons quelques recommandations aux dirigeants de la SIMA. Nous sommes donc en présence d'un phénomène inusité dans le contexte acadien: une activité hautement capitaliste entreprise par un mouvement coopératif qui en a ai l'expérience, ni les valeurs. Et par ailleurs, nous effectuons notre étude de cette société bien avant la fin de son cycle productif, pour ainsi dire. C'est son caractère innovateur qui incite à son étude, même si les données que l'on pourra cueillir ne traduisaient que partiellement sa performance ultime. Par conséquent, ce travail ne saurait être une analyse d'impact dans le sens classique du terme, car il n'attend pas la fin du processus avant de poser un regard qui pourrait être utile aux coopérateurs dans le champ. Notre approche, qui combine la cueillette et l'analyse de données à des observations critiques d'experts, peut constituer un outil utile dans l'étude pilote d'un projet innovateur en coopération.
Resumo:
La présente recherche s’intéresse aux élèves du primaire (6-9ans) qui ont des problèmes de comportement, en particulier les filles, et concerne la qualité de leur adaptation lors du passage à l’adolescence. À risque élevé de persistance lorsqu’ils débutent à l’enfance, les problèmes de comportement sévères sont reliés au développement de conséquences négatives futures. Par contre, dans certains cas, les jeunes ne persisteront pas dans une trajectoire de trouble de comportement à l’adolescence. Il reste tout de même à savoir si leur niveau d’adaptation est acceptable. L’étude vise d’abord à identifier, chez des enfants (N=435) en troubles de comportement précoces, des sous-groupes latents selon la qualité de leur adaptation, puis à décrire et comparer les facteurs individuels et environnementaux qui sont associés à la qualité de leur adaptation au début de l’adolescence en vérifiant l’effet modérateur du sexe. Les résultats montrent un modèle à trois classes ; un sous-groupe d’enfants présentant une adaptation positive à l’adolescence, un sous-groupe ayant une adaptation plus négative et un troisième sous-groupe où les enfants, surtout des filles, présentent une adaptation encore plus difficile. De plus, seuls trois facteurs individuels (opposition, agressivité indirecte et performance scolaire) et trois facteurs environnementaux (consommation des parents, discipline coercitive et fréquentation de pairs déviants) prédisent l’appartenance à un sous-groupe. Les résultats soutiennent l’importance d’une meilleure connaissance des facteurs prédicteurs de la qualité d’adaptation afin d’intervenir dès l’apparition des premiers indices du trouble de comportement en ciblant particulièrement les filles.
Resumo:
With the constant rising of the human population, it is essential to assess and manage the exploitation of the marine species for human consumption such as the anchovy of Bay of Biscay. Thanks to the PELGAS annual surveys, stocks of each species are estimated (biomass, repartition) and studies are undertaken to improve our knowledge about these species. Allozymic studies realized on the anchovy allowed to find a correlation between 2 alleles of the locus IDH and the habitat (depth). This allozyme has a key role in Krebs’ cycle,being speed limiting.. It enables to tolerate variations of temperature and dissolved oxygen. It would be interesting to do new research on variations in the anchovy’s environment and its migrations.
Resumo:
A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences. Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus. Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats. Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Les travaux menés au LCPL depuis plusieurs année sur l'engraissement contrôlé de l'huître creuse Crassostrea gigas ont permis, à l'échelle expérimentale de définir les différents paramètres d'élevage: Température: 14°C ration alimentaire: 2.109 cell/ind/j de la diatomée Skeletonema costatum indice AFNOR initial sans incidence débit d'eau: 3 lIind/h eau de mer ou eau salée souterraine Dans ces conditions et après 30 jours d'engraissement, le poids total des huîtres a progressé de 10%, le poids sec de 230%, l'indice AFNOR de 80% et la concentration en glycogène de 450%. Le travail réalisé ici a pour but de transposer de l'échelle expérimentale à une échelle significative pour les professionnels, la technique d'engraissement contrôlé en utilisant l'eau salée souterraine pour la production de phytoplancton d'une part et comme vecteur de régulation thermique d'autre part. En effet, un des intérêts de l'utilisation de l'eau salée souterraine réside dans sa température constante de 14°C permettant un engraissement des huîtres en toute saison sans risque de déclenchement de la gamétogenèse. Afin de vérifier cette possibilité, l'étude a été réalisée au cours de deux saisons: printemps et automne. Pour l'eassai automnal, trois bassins de 8 m2 ont été utilisés, alimentés respectivement en eau de mer naturelle, eau de mer régulé en température par échange thermique avec de l'eau salée souterraine et eau salée souterraine traitée. Dans chaque bassin, 330 kg d'huîtres ont été disposées en 7 ruches de 4 clayettes. Pour l'essai printanier, seuls deux bassins ont été utilisés, alimentés en eau de mer thermorégulée à deux débits différents: 0.61/h et 3 lIh. L'étude a été conduite pour chaque saison sur une période de 35 jours. En automne 2000, l'indice de qualité de chair de 8.2 initialement, a atteint 12.5 en eau salée souterraine, 13.8 en eau de mer thermorégulée et 14.2 en eau de mer naturelle. Le poids de chair sèche passe de 0.9 g initialement à respectivement 2.32g, 2.39g et 2.37g. Les dosages de Pb, Cd, Hg, Mn et As ne montent pas d'évolution entre le début et la fin de l'élevage, par contre le Fe augmente sensiblement dans les huîtres sur eau salée souterraine traitée. En fin d'élevage, une période de stockage de 4 semaines des huîtres sans nourriture, n'a pas montré de perte de qualité. Au printemps 2001, un deuxième essai sera conduit pour vérifier les résultats obtenus à l'automne 2000, confirmer le choix du milieu d'élevage et proposer les éléments permettant d'approcher les coûts de production.
Resumo:
L'industrie du ciment est l'une des principales sources d'émission de dioxyde de carbone. L'industrie mondiale du ciment contribue à environ 7% des émissions de gaz à effet de serre dans l'atmosphère. Afin d'aborder les effets environnementaux associés à la fabrication de ciment exploitant en permanence les ressources naturelles, il est nécessaire de développer des liants alternatifs pour fabriquer du béton durable. Ainsi, de nombreux sous-produits industriels ont été utilisés pour remplacer partiellement le ciment dans le béton afin de générer plus d'économie et de durabilité. La performance d'un additif de ciment est dans la cinétique d'hydratation et de la synergie entre les additions et de ciment Portland. Dans ce projet, deux sous-produits industriels sont étudiés comme des matériaux cimentaires alternatifs: le résidu de silice amorphe (RSA) et les cendres des boues de désencrage. Le RSA est un sous-produit de la production de magnésium provenant de l'Alliance Magnésium des villes d'Asbestos et Thedford Mines, et les cendres des boues de désencrage est un sous-produit de la combustion des boues de désencrage, l'écorce et les résidus de bois dans le système à lit fluidisé de l'usine de Brompton située près de Sherbrooke, Québec, Canada. Récemment, les cendres des boues de désencrage ont été utilisées comme des matériaux cimentaires alternatifs. L'utilisation de ces cendres comme matériau cimentaire dans la fabrication du béton conduit à réduire la qualité des bétons. Ces problèmes sont causés par des produits d'hydratation perturbateurs des cendres volantes de la biomasse quand ces cendres sont partiellement mélangées avec du ciment dans la fabrication du béton. Le processus de pré-mouillage de la cendre de boue de désencrage avant la fabrication du béton réduit les produits d'hydratation perturbateurs et par conséquent les propriétés mécaniques du béton sont améliorées. Les approches pour étudier la cendre de boue de désencrage dans ce projet sont : 1) caractérisation de cette cendre volante régulière et pré-humidifiée, 2) l'étude de la performance du mortier et du béton incorporant cette cendre volante régulière et pré-humidifiée. Le RSA est un nouveau sous-produit industriel. La haute teneur en silice amorphe en RSA est un excellent potentiel en tant que matériau cimentaire dans le béton. Dans ce projet, l'évaluation des RSA comme matériaux cimentaires alternatifs compose trois étapes. Tout d'abord, la caractérisation par la détermination des propriétés minéralogiques, physiques et chimiques des RSA, ensuite, l'optimisation du taux de remplacement du ciment par le RSA dans le mortier, et enfin l'évaluation du RSA en remplacement partiel du ciment dans différents types de béton dans le système binaire et ternaire. Cette étude a révélé que le béton de haute performance (BHP) incorporant le RSA a montré des propriétés mécaniques et la durabilité, similaire du contrôle. Le RSA a amélioré les propriétés des mécaniques et la durabilité du béton ordinaire (BO). Le béton autoplaçant (BAP) incorporant le RSA est stable, homogène et a montré de bonnes propriétés mécaniques et la durabilité. Le RSA avait une bonne synergie en combinaison de liant ternaire avec d'autres matériaux cimentaires supplémentaires. Cette étude a montré que le RSA peut être utilisé comme nouveaux matériaux cimentaires dans le béton.
Resumo:
La présente recherche porte sur l'intégration des élèves ayant un trouble envahissant du développement sans déficience (TEDSD) dans une école primaire de la grande région de Montréal. Dans ce contexte, la question générale est : quelles sont les caractéristiques qui influencent l'intégration des élèves ayant un TEDSD? La première sous-question porte sur les caractéristiques qui favorisent l'intégration au plan des relations et des communications entre les individus, de l'organisation matérielle et celle liée à la formation. Les deux autres sous-questions s'attachent aux rôles des acteurs qui favorisent l'intégration et aux freins à celle-ci. La recherche vise à décrire les caractéristiques tout en faisant ressortir celles qui contribuent à faciliter l'intégration et lesquelles peuvent constituer un obstacle au bon déroulement de celle-ci.