176 resultados para Intermédiaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport présenté en vue de l’obtention du grade de M.Sc.A génie biomédical option génie clinique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ernest Mercier est l’un des patrons les plus influents de l'entre-deux-guerres en France. Ses différentes activités industrielles l'ont conduit à siéger sur de vastes pans de l’économie française, notamment du secteur énergétique. La thèse retrace la carrière pétrolière d'un homme qui a joué un rôle central pour le développement d'une industrie devenue stratégique, mais qui est embryonnaire lorsqu'il rejoint ce secteur après la Première Guerre mondiale. Mercier assiste et assure la création d'une industrie pétrolière nationale. Les obstacles se font légion contre les ambitions pétrolières de la France. Elle se présente bien tard sur un marché étroitement contrôlé par de puissants trusts. La recherche et l'exploitation pétrolière demandent d'importantes ressources, et aucune société française n'a les moyens d'une politique indépendante. Certaines banques se lancent alors dans les affaires de pétrole en s'alliant aux grands trusts internationaux. C'est le cas de Paribas; la gestion de ses avoirs roumains représente la première expérience de Mercier dans ce secteur. L'État s'intéresse aussi au pétrole, il devient un acteur incontournable. Le gouvernement français n'a pourtant pas les moyens de ses ambitions dans le domaine pétrolier. La politique nationale mise en place durant l'entre-deux-guerres doit faire appel à l'épargne privée française. La création d'une compagnie nationale, la Compagnie française des pétroles, en 1924 regroupe ainsi les différentes banques et sociétés intéressées au pétrole. Mercier est personnellement choisi par le président Raymond Poincaré pour mener à bien cette mission. Cette carrière s'articule donc autour d'un fragile équilibre entre milieux privés et gouvernement. Mercier devient rapidement l'intermédiaire incontournable qui régit ces relations. La thèse s'appuie sur les archives bancaires et industrielles, mais aussi sur celles du gouvernement français et de ses différents ministères. Cette analyse de la carrière d'Ernest Mercier permet de retracer les origines du secteur pétrolier français et l'action déterminante d'un homme. Elle expose les mécanismes d'influence d'une puissante banque d'affaires et les conflits d'intérêts qu'engendre l'exploitation pétrolière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente la conception, le contrôle et la validation expérimentale d’une boussole haptique servant à diriger les utilisateurs aux prises avec une déficience visuelle, et ce, dans tous les environnements. La revue de littérature décrit le besoin pour un guidage haptique et permet de mettre en perspective cette technologie dans le marché actuel. La boussole proposée utilise le principe de couples asymétriques. Son design est basé sur une architecture de moteur à entraînement direct et un contrôle en boucle ouverte étalonné au préalable. Cette conception permet d’atteindre une vaste plage de fréquences pour la rétroaction haptique. Les propriétés mécaniques de l’assemblage sont évaluées. Puis, l’étalonnage des couples permet d’assurer que le contrôle en boucle ouverte produit des couples avec une précision suffisante. Un premier test avec des utilisateurs a permis d’identifier que les paramètres de fréquence entre 5 et 15 Hz combinés avec des couples au-delà de 40 mNm permettent d’atteindre une efficacité intéressante pour la tâche. L’expérience suivante démontre qu’utiliser une rétroaction haptique proportionnelle à l’erreur d’orientation améliore significativement les performances. Le concept est ensuite éprouvé avec dix-neuf sujets qui doivent se diriger sur un parcours avec l’aide seule de cette boussole haptique. Les résultats montrent que tous les sujets ont réussi à rencontrer tous les objectifs de la route, tout en maintenant des déviations latérales relativement faibles (0:39 m en moyenne). Les performances obtenues et les impressions des utilisateurs sont prometteuses et plaident en faveur de ce dispositif. Pour terminer, un modèle simplifié du comportement d’un individu pour la tâche d’orientation est développé et démontre l’importance de la personnalisation de l’appareil. Ce modèle est ensuite utilisé pour mettre en valeur la stratégie d’horizon défilant pour le placement de la cible intermédiaire actuelle dans un parcours sur une longue distance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DSCAM est exprimé dans le cortex lors du développement et sa mutation altère l’arborisation dendritique des neurones pyramidaux du cortex moteur. Considérant que les souris DSCAM2J possèdent des problèmes posturaux et locomoteurs, nous émettons l’hypothèse que DSCAM est impliqué dans le fonctionnement normal du cortex moteur et de la voie corticospinale. Comparées aux souris contrôles, les souris DSCAM2J vont présenter des problèmes moteurs à basse vitesse et enjamber un obstacle presque normalement à vitesse intermédiaire. Le traçage antérograde de la voie corticospinale révèle un patron d’innervation normal dans le tronc cérébrale et la moelle épinière. Des microstimulations intracorticale du cortex moteur évoque des réponses électromyographiques dans les membres à un seuil et une latence plus élevé. Par contre, une stimulation de la voie corticospinale dans la médulla évoque des réponses électromyographies à un seuil et une latence similaire entre les deux groupes, suggérant une réduction de l’excitabilité du cortex moteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : The major objective of our study is to investigate DNA damage induced by soft X-rays (1.5 keV) and low-energy electrons (˂ 30 eV) using a novel irradiation system created by Prof. Sanche’s group. Thin films of double-stranded DNA are deposited on either glass and tantalum substrates and irradiated under standard temperature and pressure surrounded by a N[subscript 2] environment. Base release (cytosine, thymine, adenine and guanine) and base modifications (8-oxo-7,8-dihydro -2’-deoxyguanosine, 5-hydroxymethyl-2’-deoxyuridine, 5-formyl-2’-deoxyuridine, 5,6-dihydrothymidine and 5,6-dihydro-2’-deoxy uridine) are analyzed and quantified by LC-MS/MS. Our results reveal larger damage yields in the sample deposited on tantalum than those on glass. This can be explained by an enhancement of damage due to low-energy electrons, which are emitted from the metal substrate. From a comparison of the yield of products, base release is the major type of damage especially for purine bases, which are 3-fold greater than base modifications. A proposed pathway leading to base release involves the formation of a transient negative ion (TNI) followed by dissociative electron attachment (DEA) at the N-g lycosidic bond. On the other hand, base modification products consist of two major types of chemical modifications, which include thymine methyl oxidation products that likely arises from DEA from the methyl group of thymine, and 5,6-dihydropyrimidine that can involve the initial addition of electrons, H atoms, or hydride ions to the 5,6-pyrimidine double bond.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis que l’industrie chimique vise à rejeter de moins en moins de gaz à effet de serre, cette dernière cherche à revaloriser les différents gaz à effet de serre tel que le dioxyde de carbone. Une des techniques est de combiner le dioxyde de carbone avec de l’ammoniac pour synthétiser l’urée qui pourrait par la suite être utilisé soit directement ou soit comme intermédiaire, pour la synthèse catalytique du diméthyle carbonate (DMC). Le DMC est à la base de plusieurs applications industrielles telles que la synthèse des polymères (les polycarbonates), les réactions de trans-estérification menant à d’autres carbonates comme le diphénylcarbonate et comme agent de méthylation ou d’alkylation. Plusieurs articles provenant de la littérature scientifique rapportent que le DMC peut être utilisé comme additif oxygéné dans les carburants tels l’essence [1]. Le but de ce projet est de déterminer la viabilité industrielle de la production de DMC par la méthylation de l’urée en premier lieu en méthyle carbamate puis en DMC. La première étape de ce projet reposera donc dans un premier temps sur la confirmation des résultats rapportés au sein de la littérature ouverte pour par la suite faire une étude de l’impact des différents types de catalyseurs et des conditions expérimentales sur le rendement de la réaction. Une fois que le montage batch sera optimisé, ce dernier sera modifié pour opérer en continu. Cette modification a pour but d’augmenter le rendement et la sélectivité pour éventuellement de l’adapter industriellement. Selon la littérature, les rendements anticipés pour la réaction batch sont d’environ 30 % [2] et pour un système en continu de plus de 50 %.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le marché des accumulateurs lithium-ion est en expansion. Cette croissance repose partiellement sur la multiplication des niches d’utilisation et l’amélioration constante de leurs performances. En raison de leur durabilité exceptionnelle, de leur faible coût, de leur haute densité de puissance et de leur fiabilité, les anodes basées sur les titanates de lithium, et plus particulièrement le spinelle Li4Ti5O12, présentent une alternative d’intérêt aux matériaux classiques d’anodes en carbone pour de multiples applications. Leur utilisation sous forme de nanomatériaux permet d’augmenter significativement la puissance disponible par unité de poids. Ces nanomatériaux ne sont typiquement pas contraints dans une direction particulière (nanofils, nanoplaquettes), car ces formes impliquent une tension de surface plus importante et requièrent donc généralement un mécanisme de synthèse dédié. Or, ces nanostructures permettent des réductions supplémentaires dans les dimensions caractéristiques de diffusion et de conduction, maximisant ainsi la puissance disponible, tout en affectant les propriétés habituellement intrinsèques des matériaux. Par ailleurs, les réacteurs continus reposant sur la technologie du plasma thermique inductif constituent une voie de synthèse démontrée afin de générer des volumes importants de matériaux nanostructurés. Il s’avère donc pertinent d’évaluer leur potentiel dans la production de titanates de lithium nanostructurés. La pureté des titanates de lithium est difficile à jauger. Les techniques de quantification habituelles reposent sur la fluorescence ou la diffraction en rayons X, auxquelles le lithium élémentaire se prête peu ou pas. Afin de quantifier les nombreuses phases (Li4Ti5O12, Li2Ti3O7, Li2TiO3, TiO2, Li2CO3) identifiées dans les échantillons produits par plasma, un raffinement de Rietveld fut développé et validé. La présence de γ-Li2TiO3 fut identifiée, et la calorimétrie en balayage différentiel fut explorée comme outil permettant d’identifier et de quantifier la présence de β-Li2TiO3. Différentes proportions entre les phases produites et différents types de morphologies furent observés en fonction des conditions d’opération du plasma. Ainsi, des conditions de trempe réductrice et d’ensemencement en Li4Ti5O12 nanométrique semblent favoriser l’émergence de nanomorphologies en nanofils (associés à Li4Ti5O12) et en nanoplaquette (associées à Li2TiO3). De plus, l’ensemencement et les recuits augmentèrent significativement le rendement en la phase spinelle Li4Ti5O12 recherchée. Les recuits sur les poudres synthétisées par plasma indiquèrent que la décomposition du Li2Ti3O7 produit du Li4Ti5O12, du Li2TiO3 et du TiO2 (rutile). Afin d’approfondir l’investigation de ces réactions de décomposition, les paramètres cristallins du Li2Ti3O7 et du γ-Li2TiO3 furent définis à haute température. Des mesures continues en diffraction en rayon X à haute température furent réalisées lors de recuits de poudres synthétisées par plasma, ainsi que sur des mélanges de TiO2 anatase et de Li2CO3. Celles-ci indiquent la production d’un intermédiaire Li2Ti3O7 à partir de l’anatase et du carbonate, sa décomposition en Li4Ti5O12 et TiO2 (rutile) sur toute la plage de température étudiée, et en Li2TiO3 et TiO2 (rutile) à des températures inférieures à 700°C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Étant donné l'étroitesse du marché canadien, la compagnie BHF Recherche de Bromptonville envisage d'aborder le plus tôt possible le marché américain. Le but de ce travail était donc de prendre certaines décisions de base et d'établir un cadre de travail théorique et une méthodologie qui permettent d'orienter efficacement la planification et l'exécution de ce projet de vente à l'étranger. Compte tenu de la position géographique de BHF, de ses moyens financiers et de la concentration des populations, le Nord-Est des États-Unis et plus particulièrement le Massachusetts semble être l'état idéal pour débuter les activités américaines. Avant d'attaquer cet état, BHF devra amasser des données lui permettant de mieux cerner la taille du marché, son degré de permissivité aux nouveaux produits et son fonctionnement (processus décisionnel quant à l'achat). Certaines améliorations techniques seraient profitables pour contrer la présence de quatre principaux concurrents, dont le MultiRanger Plus qui domine effrontément le marché. Comme BHF désire concentrer ses efforts sur la recherche et le développement, elle devra confier les tâches de distribution et de promotion à un intermédiaire. Ce dernier devra être sélectionné en tenant compte de sa réputation dans le milieu et du temps qu'il peut consacrer à la vente du Vérificateur. Les barrières tarifaires sont relativement restreintes pour le Vérificateur puisque les douanes américaines ne représentent qu'environ 5% du prix de vente de l'appareil. Ce prix fixé à 5 500$ US permet de dégager une marge bénéficiaire de 71,7%, et ce en excluant la commission de l'intermédiaire et les frais de promotion. Ces derniers sont heureusement partagés avec l'agent-distributeur et seront orientés vers deux pôles: le développement de contacts personnels avec la clientèle par le biais d'évènements spéciaux et la publicité dans les publications spécialisées. L'exportation constituant un projet d'investissement, des sorties de fonds seront nécessaires. Une évaluation primaire permet de chiffrer des besoins annuels variant de 14 000$ à 35 000$ entre 1990 et 1994. Heureusement, le projet pourrait s'autofinancer dès la deuxième année. Quant à la première année, une injection de 15 000$ devrait suffire, ce qui devrait être facilité par une aide gouvernementale au fédéral. Relativement au risque de crédit international habituellement lié à l'exportation, il apparaît que la clientèle des municipalités visées par BHF en soit pratiquement exempte, ce qui évitera le recours au crédit documentaire. Quant à la protection contre le risque de change, sa nécessité ne semble évidente que pour les ventes de plusieurs appareils à la fois, et ce à cause des frais reliés à cette protection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La supervision professionnelle des intervenants est une pratique dont on ne connaît pas vraiment l'ampleur, ni les effets. Cet essai présente une synthèse de la réflexion de l'auteur tirée des écrits recensés sur le sujet et de son expérience professionnelle. Les résultats d'une recherche sur la supervision professionnelle d'intervenants directs qui travaillent avec des personnes en difficulté viennent enrichir et compléter cette réflexion. La supervision professionnelle offerte aux intervenants afin de les aider à conjuguer efficacement avec les exigences de leur travail est une activité essentielle au sein d'un organisme. Trois fonctions lui sont habituellement rattachées: administrative, éducative et de soutien. L'interaction entre ces trois fonctions rend la tâche complexe au cadre intermédiaire qui assure habituellement cet encadrement. De plus, le niveau de formation des intervenants peut être un facteur important dans l'appréciation que se font les employés de la supervision qu'ils reçoivent. Les résultats de l'étude démontrent que, de façon générale, les supervisés sont peu satisfaits de leur supervision et semblent en retirer peu d'effets bénéfiques. De plus, le fait d'être supervisé par leur supérieur hiérarchique et le niveau de formation ont peu d'effets sur la perception de la supervision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La performance d’un produit de finition sur le bois est influencée par la manière dont la surface est préparée. Le ponçage est très utilisé pour préparer les surfaces lors de la finition. Toutefois, ce procédé génère une grande quantité de poussières. Ainsi, les effets des procédés d’usinage sur les propriétés de surface, la performance d’un vernis et l’émission de poussières ont été étudiés dans le but de déterminer les modes de préparation des surfaces les plus adéquats pour le bois de chêne rouge. Dans un premier volet, les propriétés de surface et la performance d’un vernis ont été évaluées sur les surfaces préparées à l’aide du procédé traditionnel de ponçage et de trois procédés alternatifs de rabotage soit la coupe périphérique droite, la coupe hélicoïdale et la coupe oblique. La qualité de surface a été évaluée au moyen des caractéristiques de rugosité, d’endommagement cellulaire et de mouillabilité. Des essais de résistance à l’adhésion d’un vernis d’usage intérieur ont été effectués avant et après un traitement de vieillissement accéléré. Les résultats ont montré que le ponçage a induit une rugosité et un niveau de fibrillation supérieurs à ceux des autres procédés, ainsi qu’une mouillabilité et une adhésion du vernis après vieillissement accéléré élevées. Les surfaces rabotées avec la coupe périphérique droite ont présenté un certain niveau de fibrillation, une rugosité et une mouillabilité intermédiaires. Néanmoins, l’adhésion du vernis après vieillissement a été également inférieure par rapport aux autres procédés. La coupe hélicoïdale a produit une rugosité intermédiaire. D’autre part, la coupe oblique a été le procédé qui a présenté une perte d’adhésion après vieillissement similaire au ponçage. Ce procédé a généré des surfaces lisses avec rugosité et mouillabilité intermédiaires. Sur la base des résultats obtenus, le ponçage à l’aide d’un programme P100-grain et une vitesse d’avance de 7 m/min, la coupe périphérique droite avec un angle d’attaque de 25° et une onde d’usinage de 1,0 mm, la coupe hélicoïdale avec une onde d’usinage de 1,0 mm et la coupe oblique realisé avec un angle oblique de 15° ont permis d’obtenir les meilleures conditions d’usinage pour chaque procédé. Dans un deuxième volet, l’effet de différents paramètres de coupe sur l’émission de poussières et la rugosité de la surface a été étudié lors de la coupe hélicoïdale. Les émissions de poussières ont diminué avec la diminution de laprofondeur de coupe et l’augmentation de l’épaisseur moyenne du copeau. Cependant, les surfaces obtenues avec l’épaisseur moyenne du copeau plus élevée ont présenté une rugosité supérieure. Par contre, si une surface plus lisse est requise, une vitesse d’avance intermédiaire doit être utilisée afin de diminuer la rugosité des surfaces sans exposer les travailleurs à des niveaux élevés de poussière de bois. Par ailleurs, l’émission de poussières pour chaque fraction de particules peut être estimée à travers les modèles développés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une caractérisation géotechnique des sites d’étude de l’Isle-Verte et de Notre-Dame-des-Neiges, dans le Bas-Saint-Laurent, a permis de définir les principales caractéristiques physiques, minéralogiques, mécaniques et hydrauliques des silts argileux constituant ce dépôt. Ces sites sont constitués d’une couche de consistance très raide à dure qui surmonte une couche de consistance raide, avec la présence d’une couche de transition entre celles-ci. L’unité supérieure est fortement surconsolidée et montre des teneurs en eau d’environ 20 %, associées à des indices de liquidité près de 0. L’unité inférieure présente des teneurs en eau d’environ 30 %, associées à des indices de liquidité qui augmente jusqu’à 0,8 en profondeur. Plusieurs indices indiquent que le sol de l’unité inférieure est normalement consolidé ou légèrement surconsolidé, dont un rapport SuV/’v0 de 0,20 et des rapports Bq entre 0,8 et 1,0. L’unité intermédiaire joue un rôle de transition entre les unités supérieure et inférieure, avec des caractéristiques qui varient graduellement entre les deux unités. De façon générale, l’ensemble du dépôt possède des indices des vides très faibles, notamment pour les unités supérieures et intermédiaires, qui sont associés à des indices de compression entre 0,1 et 0,25. Le mode de mise en place de ce dépôt pourrait expliquer ses caractéristiques géotechniques. Il est probable qu’une réavancée glaciaire entre 12 400 et 12 000 ans B.P. ait déplacé du matériau argileux situé à des élévations plus importantes pour ensuite le déposer sur du matériau argileux déjà présent à des élévations plus faibles. L’unité inférieure semble normalement consolidée, ce qui implique que le glacier était semi-flottant et que les sols argileux qui ont été déplacés étaient gelés et collés sous le glacier. L’hypothèse de la combinaison du gel et d’une surcharge pourrait expliquer le fort degré de surconsolidation et les IL très faibles de l’unité supérieure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à établir des liens entre la situation de plafonnement de carrière et l'incongruence vocationnelle. De façon plus spécifique, il s'agit de vérifier, au moyen d'une étude, la relation entre la situation de plafonnement de carrière, largement étudiée jusqu'à présent par plusieurs auteurs et la congruence des intérêts. Ces auteurs s'interrogent sur la question des ressources humaines (tels par exemple Tremblay, Cardinal, Lamoureux, Hoyt, Charest) de laquelle, nous tenterons d'établir la congruence des intérêts professionnels en lien avec la typologie de Holland. Holland prévoit (6) six types: Réaliste (R), Investigateur (I), Artistique (A), Social (S), Entreprenant (E), et Conventionnel (C). Ces types peuvent être octroyés sur deux plans distinctifs. Il est en effet possible de définir le patron typologique sur les plans environnemental et individuel. C'est à partir de ces deux patrons typologiques, constitués de trois lettres, qu'on établira la correspondance entre les données provenant de l'individu et de l'environnement. C'est donc à partir de celles-ci que l'on peut calculer le niveau de congruence, en appliquant l'indice de lachan qui constitue une mesure de congruence. Deux instruments de mesure inclus dans une batterie d'inventaires seront donc proposés à soixante travailleurs de la Ville de Montréal. Il s'agit premièrement d'une grille d'évaluation élaborée à partir de critères spécifiques issus d'enquêtes différentes liées au plafonnement de carrière. L'instrument de mesure comporte sept échelles : le temps et l'âge, des informations relatives au travail, le positionnement par rapport aux collègues de travail, l'impact du changement sur l'individu, les rémunérations et • conditions salariales, la formation, les intérêts et loisirs reliées à la profession. Le plafonnement de carrière tel que nous le percevons, constitue un concept complexe nécessitant une vision systémique ; c'est-à-dire que le problème doit être considéré dans son ensemble, à savoir l'individu et son environnement. La deuxième étape consiste en la passation de l'inventaire des préférences professionnelles, abrégé (I.P.P.A.). Pour chacune des personnes évaluées, un patron typologique de l'environnement professionnel sera établi à partir du Codes Holland pour C. C. D. P. Les résultats obtenus par l'intermédiaire de l'I.P.P A. et transférés en types par l'intermédiaire du Guide : Codes Holland pour C.C.D.P., seront soumis à l'indice de lachan qui évalue la congruence entre deux séries de données. Le score du niveau de congruence sera par la suite confronté au score obtenu par l'intermédiaire de la grille/questionnaire par une simple corrélation. De cette façon, nous pourrons établir les liens et ainsi vérifier l'hypothèse de recherche. Cette recherche se propose donc d'identifier des plateaux de carrière à l'aide de la grille/questionnaire, pour ensuite vérifier s'il existe véritablement des liens entre la situation de plafonnement de carrière et la congruence d'intérêts. Cette démarche tend à confirmer l'hypothèse suivante : l'incongruence entre les intérêts individuels et ceux du milieu est responsable du plafonnement de carrière. En ce sens, elle entraîne entre autres une démotivation de l'individu à s'impliquer dans son travail, à mettre ses connaissances à jour. La présence du plafonnement de carrière peut décourager l'organisation et l'entourage immédiat de travail à justifier un accroissement des responsabilités ou toutes autres mobilités. Cette situation peut entraîner un malaise important tant chez l'employé que dans l'environnement de travail. La méthodologie proposée permet d'envisager la problématique sous différents angles, • étant donné que le plafonnement de carrière est à la fois la cause et l'effet d'un ensemble de facteurs difficilement mesurables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De tous les temps, les individus formant une société se sont donné des moyens pour communiquer. Des langages gestuels, oraux ou écrits se sont alors développés. Entre autres processus de communication, nous retrouvons l'écriture et la lecture. Les Égyptiens, 2500 ans avant Jésus-Christ, possédaient déjà un code écrit. Par la suite, et pendant de nombreux siècles, la lecture a été réservée à une certaine élite. C'est avec l'avènement de l'imprimerie et de l'école obligatoire (de 1500 à 1800), que l'on a assisté à une certaine démocratisation de la lecture. De nos jours, la majorité de la population a accès aux livres, aux périodiques et aux journaux, par l'intermédiaire de nombreux points de vente ou de prêt. Depuis un siècle, plusieurs études dans le domaine de la lecture ont été effectuées, allant des préoccupations d'ordre physiologique, sociologique aux études psychologiques ou pédagogiques. La présente recherche appartient à la dernière catégorie, c'est-à-dire qu'elle est d'ordre pédagogique. Nous nous intéressons ici au développement du goût de lire chez des jeunes de dix et onze ans qui fréquentent le système scolaire québécois. Dans ce contexte, nous nous attardons particulièrement à un médium littéraire en général apprécié chez les jeunes lecteurs, c'est-à-dire la bande dessinée humoristique. L'étude menée ici se déroule dans le contexte d'une approche pédagogique particulière que l'on pourrait nommer la lecture régulière libre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estuaries are areas which, from their structure, their fonctioning, and their localisation, are subject to significant contribution of nutrients. One of the objectif of the RNO, the French network for coastal water quality monitoring, is to assess the levels and trends of nutrient concentrations in estuaries. A linear model was used in order to describe and to explain the total dissolved nitrogen concentration evolution in the three most important estuaries on the Chanel-Atlantic front (Seine, Loire and Gironde). As a first step, the selection of a reliable data set was performed. Then total dissolved nitrogen evolution schemes in estuary environment were graphically studied, and allowed a resonable choice of covariables. The salinity played a major role in explaining nitrogen concentration variability in estuary, and dilution lines were proved to be a useful tool to detect outlying observations and to model the nitrogenlsalinity relation. Increasing trends were detected by the model, with a high magnitude in Seine, intermediate in Loire, and lower in Gironde. The non linear trend estimated in Loire and Seine estuaries could be due to important interannual variations as suggest in graphics. In the objective of the QUADRIGE database valorisation, a discussion on the statistical model, and on the RNO hydrological data sampling strategy, allowed to formulate suggestions towards a better exploitation of nutrient data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La détermination de la structure d’une molécule dans une cellule est souvent la première étape à la compréhension de son mode d’action. Un exemple flagrant est le riborégulateur, qui est un ARN hautement structuré capable de lier un ligand et de modifier la régulation génique chez les bactéries. Cette étude se penche sur la structure de l’aptamère d’un riborégulateur pouvant se lier au métabolite S-adénosylméthionine (SAM), qui est impliqué dans des réactions de méthylations essentielles dans une cellule. Plus précisément, le modèle sélectionné pour ces travaux provient de la famille SAM-I et est composé de quatre tiges (P1 à P4). En utilisant des techniques biophysiques telles le FRET et le single-molecule FRET (sm-FRET), nous pouvons comprendre plus en détails le dynamisme structural du repliement de l’aptamère qui se passe en deux étapes. La première étape de repliement de l’aptamère est constituée par la formation de l’état intermédiaire induite par la liaison du magnésium. Cet état a été caractérisé grâce à des mutations nucléotidiques bloquant des changements conformationnels spécifiques. Aussi, cette étude a permis d’ajouter des détails biophysiques sur la dernière étape de repliement de l’aptamère induite par la liaison de SAM. La réorganisation finale du site de liaison implique une rotation de la tige P1. D’ailleurs, la formation de la tige P1 permet le contrôle direct de l’expression génétique. Ces deux étapes permettent à l’aptamère du riborégulateur SAM d’adopter sa structure native essentielle à l’arrêt de transcription. En bref, nous décrivons en détail les mécanismes structuraux expliquant le fonctionnement du riborégulateur SAM. Certains de ces mécanismes pourraient être communs à plusieurs classes de riborégulateurs, d’où l’intérêt de prospecter d’autres cibles.