751 resultados para Conditionnement classique
Resumo:
Dans la région de Trois-Rivières (Québec, Canada), plus de 1 000 bâtiments résidentiels et commerciaux montrent de graves problèmes de détérioration du béton. Les problèmes de détérioration sont liés à l’oxydation des sulfures de fer incorporés dans le granulat utilisé pour la confection du béton. Ce projet de doctorat vise à mieux comprendre les mécanismes responsables de la détérioration de béton incorporant des granulats contenant des sulfures de fer, et ce afin de développer une méthodologie pour évaluer efficacement la réactivité potentielle de ce type de granulats. Un examen pétrographique détaillé de carottes de béton extraites de fondations résidentielles montrant différents degré d’endommagement a été réalisé. Le granulat problématique contenant des sulfures de fer a été identifié comme un gabbro à hypersthène incorporant différentes proportions (selon les différentes localisations dans les deux carrières d’origine) de pyrrhotite, pyrite, chalcopyrite et pentlandite. Les produits de réaction secondaires observés dans les échantillons dégradés comprennent des formes minérales de "rouille", gypse, ettringite et thaumasite. Ces observations ont permis de déterminer qu’en présence d’eau et d’oxygène, la pyrrhotite s’oxyde pour former des oxyhydroxides de fer et de l’acide sulfurique qui provoquent une attaque aux sulfates dans le béton. Tout d’abord, la fiabilité de l’approche chimique proposée dans la norme européenne NF EN 12 620, qui consiste à mesurer la teneur en soufre total (ST,% en masse) dans le granulat pour détecter la présence (ou non) de sulfures de fer, a été évaluée de façon critique. Environ 50% (21/43) des granulats testés, représentant une variété de types de roches/lithologies, a montré une ST > 0,10%, montrant qu’une proportion importante de types de roches ne contient pas une quantité notable de sulfure, qui, pour la plupart d’entre eux, sont susceptibles d’être inoffensifs dans le béton. Ces types de roches/granulats nécessiteraient toutefois d’autres tests pour identifier la présence potentielle de pyrrhotite compte tenu de la limite de ST de 0,10 % proposée dans les normes européennes. Basé sur une revue exhaustive de la littérature et de nombreuses analyses de laboratoire, un test accéléré d’expansion sur barres de mortier divisé en deux phases a ensuite été développé pour reproduire, en laboratoire, les mécanismes de détérioration observés à Trois-Rivières. Le test consiste en un conditionnement de 90 jours à 80°C/80% RH, avec 2 cycles de mouillage de trois heures chacun, par semaine, dans une solution d’hypochlorite de sodium (eau de javel) à 6% (Phase I), suivi d’une période pouvant atteindre 90 jours de conditionnement à 4°C/100 % HR (Phase II). Les granulats ayant un potentiel d’oxydation ont présenté une expansion de 0,10 % au cours de la Phase I, tandis que la formation potentielle de thaumasite est détectée par le regain rapide de l’expansion suivi par la destruction des échantillons durant la Phase II. Un test de consommation d’oxygène a également été modifié à partir d’un test de Drainage Minier Acide, afin d’évaluer quantitativement le potentiel d’oxydation des sulfures de fer incorporés dans les granulats à béton. Cette technique mesure le taux de consommation d’oxygène dans la partie supérieure d’un cylindre fermé contenant une couche de matériau compacté afin de déterminer son potentiel d’oxydation. Des paramètres optimisés pour évaluer le potentiel d’oxydation des granulats comprennent une taille de particule inférieure à 150 μm, saturation à 40 %, un rapport de 10 cm d’épaisseur de granulat par 10 cm de dégagement et trois heures d’essai à 22ᵒC. Les résultats obtenus montrent que le test est capable de discriminer les granulats contenant des sulfures de fer des granulats de contrôle (sans sulfures de fer) avec un seuil limite fixé à 5% d’oxygène consommé. Finalement, un protocole d’évaluation capable d’estimer les effets néfastes potentiels des granulats à béton incorporant des sulfures de fer a été proposé. Le protocole est divisé en 3 grandes phases: (1) mesure de la teneur en soufre total, (2) évaluation de la consommation d’oxygène, et (3) un test accéléré d’expansion sur barres de mortier. Des limites provisoires sont proposées pour chaque phase du protocole, qui doivent être encore validées par la mise à l’essai d’un plus large éventail de granulats.
Resumo:
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.
Resumo:
En 1994, le législateur québécois a transformé la fiducie en un patrimoine d’affectation, c’est-à-dire un ensemble de biens et d’obligations sans titulaire, administré par un tiers, pour une fin particulière. Cette nouvelle qualification remet en question l’assise classique du droit privé : le rapport inhérent entre un droit et son titulaire, le sujet de droit, dont le droit émane et pour qui il est, en principe, exercé. Cette thèse tente de comprendre quelles sont les conditions de possibilités des droits sans sujet en droit civil actuel. Mon objectif est de repenser la notion de droit subjectif de manière générale afin qu’elle prenne en considération l’existence et la pertinence de ces droits sans sujet. Pour ce faire, deux entreprises sont nécessaires : (i) comprendre le paradigme dominant afin de bien cerner l’ampleur de la nouveauté et la résistance qu’elle engendre ; (ii) mettre au jour les fondements et les limites des droits sans sujet afin d’évaluer, dans une prochaine étape, si cette manière de comprendre les droits ne serait pas une alternative intéressante aux droits subjectifs actuels.
Resumo:
Like its title, Pyramus and Thisbe 4 You, Alexandru Dabija’s production at the Odeon Theatre, Bucharest, was a tongue-in-cheek invitation to the audience that at once aimed to tease past and recent Romanian endeavours and to tease out the stage potential a Shakespeare play holds today. My examination of the production re-constructs the local cultural contexts the production plays with and against, referring to the Romanian ways of making Shakespeare this production enters into dialogue with. Take 1, an all-female version casting the mature stars of the Odeon, I read against both Elizabethan all-male stage practice and Andrei Serban’s all-female Lear at the Bulandra (2008). Take 2, “an old device” (V.1.50): a teacher-student “devising” session at the Academy of Theatre and Cinema, I read against critics’ “more strange than true” (V.1.2) parlance on “theories of perception and reception” and against hi-tech Shakespeare dominating the Romanian stages in the first decade of the third millennium. Take 3, local political banter on ethnic discrimination, I read as “satire keen and critical” (V.1.54) on both communist censorship and the recent rise of nationalism in Romania. Take 4, a “cold” reading-cum-improvisation performed by the technical crew – this production’s mechanicals – I read as “palpable-gross play” (V.1.376) on both acting and spectating practices. What I argue in this article is that Dabija’s production goes beyond its local context and mores, and proposes a re-assessment of Shakespeare’s cultural currency in (European) Romania and Europe at large by exposing current tyrannies in Shakespeare studies: from translation and adaptation, through directing and acting, to viewing and reviewing.
Resumo:
L’objectif de ce mémoire est une analyse et une évaluation de la retraduction en suédois de « Le Petit Prince » d’Antoine de Saint-Exupéry (T2), parue chez Modernista, en 2015, en relation avec le texte source en français et en relation avec la traduction classique, parue chez Rabén&Sjögren, en 1952 (T1 ; la version révisée de 2015, actuelle au moment de la retraduction). L’analyse se base sur quelques concepts de Lita Lundquist, notamment la distinction entre stratégie de traduction « imitative » et « fonctionnelle », et la cohérence entre la stratégie « globale » et les stratégies « locales ». De plus, notre analyse nous mène à la distinction entre « traduction » et « révision », comme présentée par Philippe Bouquet (2012), et à la distinction entre une définition linguistique de traduction – approche principale de ce travail – et une définition socio-culturelle selon Toury (1995). Les résultats principaux sont 1) la découverte d’un manque de stratégie globale cohérente dans la T2 – à la différence de la T1– et 2) une dépendance forte de la T1 dans la T2. Aussi, dans la retraduction, nous avons remarqué une stratégie locale remarquable de suppression totale du pronom personnel suédois de man. Ces résultats sont brièvement discutés sous la lumière des aspects socio-culturels et dans une section sur l’applicabilité de l’hypothèse de la retraduction (Tegelberg 2014).
Resumo:
La Cité de Dieu a été rédigée dans une perspective polémique vis-à-vis les païens. La prise de Rome, en 410, a entraîné en Afrique du Nord la venue d’une élite cultivée, revivaliste et admirative du vieux polythéisme. Contre cette mouvance nostalgique, tributaire des anciens majoritairement sur le plan intellectuel et livresque, Augustin s’en prend à la bibliothèque des nouveaux arrivants. La Cité de Dieu peut, le cas échéant, être lue par la négative, c’est-à-dire par le biais de la critique qu’élabore Augustin de trois auteurs choisis, Varron, Cicéron et Salluste, qui résument et représentent conjointement l’essence de la culture classique. Tant chez les païens que chez l’évêque d’Hippone – leur détracteur –, Varron incarne la fine pointe de la théologie romano-hellénistique, Salluste est celui qui a mené à sa perfection la discipline de l’histoire, Cicéron a écrit le parachèvement des oeuvres sur la République, et chacun préconise sa structure idéologique propre, les trois domaines formant pourtant un ensemble systémique. Tout en louant ses illustres prédécesseurs, Augustin leur porte une critique générale et c’est à cette critique que seront consacrées nos analyses.
Resumo:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
Resumo:
Résumé : Le transistor monoélectronique (SET) est un dispositif nanoélectronique très attractif à cause de son ultra-basse consommation d’énergie et sa forte densité d’intégration, mais il n’a pas les capacités suffisantes pour pouvoir remplacer complètement la technologie CMOS. Cependant, la combinaison de la technologie SET avec celle du CMOS est une voie intéressante puisqu’elle permet de profiter des forces de chacune, afin d’obtenir des circuits avec des fonctionnalités additionnelles et uniques. Cette thèse porte sur l’intégration 3D monolithique de nanodispositifs dans le back-end-of-line (BEOL) d’une puce CMOS. Cette approche permet d’obtenir des circuits hybrides et de donner une valeur ajoutée aux puces CMOS actuelles sans altérer le procédé de fabrication du niveau des transistors MOS. L’étude se base sur le procédé nanodamascène classique développé à l’UdeS qui a permis la fabrication de dispositifs nanoélectroniques sur un substrat de SiO2. Ce document présente les travaux réalisés sur l’optimisation du procédé de fabrication nanodamascène, afin de le rendre compatible avec le BEOL de circuits CMOS. Des procédés de gravure plasma adaptés à la fabrication de nanostructures métalliques et diélectriques sont ainsi développés. Le nouveau procédé nanodamascène inverse a permis de fabriquer des jonctions MIM et des SET métalliques sur une couche de SiO2. Les caractérisations électriques de MIM et de SET formés avec des jonctions TiN/Al2O3 ont permis de démontrer la présence de pièges dans les jonctions et la fonctionnalité d’un SET à basse température (1,5 K). Le transfert de ce procédé sur CMOS et le procédé d’interconnexions verticales sont aussi développés par la suite. Finalement, un circuit 3D composé d’un nanofil de titane connecté verticalement à un transistor MOS est réalisé et caractérisé avec succès. Les résultats obtenus lors de cette thèse permettent de valider la possibilité de co-intégrer verticalement des dispositifs nanoélectroniques avec une technologie CMOS, en utilisant un procédé de fabrication compatible.
Resumo:
Les changements climatiques récents ont mené à l’expansion de la répartition de plusieurs espèces méridionales, mais ont aussi causé l’extinction locale d’espèces se retrouvant à la limite de leur tolérance environnementale. Ces populations en expansion peuvent favoriser différentes stratégies d’histoire de vie en répondant à différents facteurs limitants. Dans cette thèse, je vise à déterminer et quantifier l’effet du climat et des évènements extrêmes sur le cycle de vie complet d’une espèce en expansion (le dindon sauvage) pour comprendre les changements au niveau populationnel ainsi que les mécanismes impliqués dans l’expansion de la distribution d’une espèce. J’ai défini les évènements extrêmes de pluie, d’épaisseur de neige au sol et de température, comme un évènement dont la fréquence est plus rare que le 10e et 90e percentile. En utilisant l’approche « Measure-Understand-Predict » (MUP), j’ai tout d’abord suivi trois populations le long d’un gradient latitudinal de sévérité hivernale pour mesurer l’effet de variables météorologiques sur la dynamique des populations. La survie des dindons sauvages diminuait drastiquement lorsque l’accumulation de neige au sol dépassait 30 cm pour une période de 10 jours et diminuait également avec la température. Au printemps, la persistance de la neige affectait négativement le taux d’initiation de la nidification et l’augmentation de la pluie diminuait la survie des nids. Dans une deuxième étape, j’ai examiné l’impact des évènements climatiques extrêmes et des processus démographiques impliqués dans l’expansion du dindon, liés à la théorie des histoires de vie pour comprendre la relation entre la dynamique de ces populations en expansions avec le climat. J’ai démontré que la fréquence des évènements extrêmes hivernaux et, d’une façon moins importante, les évènements extrêmes estivaux limitaient l’expansion nordique des dindons sauvages. J’ai appuyé, à l’aide de données empiriques et de modélisation, les hypothèses de la théorie classique des invasions biologiques en montrant que les populations en établissement priorisaient les paramètres reproducteurs tandis que la survie adulte était le paramètre démographique affectant le plus la dynamique des populations bien établies. De plus, les populations les plus au nord étaient composées d’individus plus jeunes ayant une espérance de vie plus faible, mais avaient un potentiel d’accroissement plus élevé que les populations établies, comme le suggère cette théorie. Finalement, j’ai projeté l’impact de la récolte sur la dynamique des populations de même que le taux de croissance de cette espèce en utilisant les conditions climatiques futures projetées par les modèles de l’IPCC. Les populations en établissement avaient un taux de récolte potentiel plus élevé, mais la proportion de mâles adultes, possédant des caractéristiques recherchées par les chasseurs, diminuait plus rapidement que dans les populations établies. Dans le futur, la fréquence des évènements extrêmes de pluie devrait augmenter tandis que la fréquence des évènements extrêmes de température hivernale et d’accumulation de neige au sol devraient diminuer après 2060, limitant probablement l’expansion nordique du dindon sauvage jusqu’en 2100. Cette thèse améliore notre compréhension des effets météorologiques et du climat sur l’expansion de la répartition des espèces ainsi que les mécanismes démographiques impliqués, et nous a permis de prédire la probabilité de l’expansion nordique de la répartition du dindon sauvage en réponse aux changements climatiques.
Resumo:
Lorsqu’une femme est à risque d’accoucher prématurément, des glucocorticoïdes lui seront administrés afin d’accélérer la maturation pulmonaire du bébé. Après la naissance, différents protocoles peuvent être mis en place pour aider l’enfant à respirer dont l’administration du surfactant et la ventilation. Les glucocorticoïdes ont un effet positif sur la maturation pulmonaire. Par contre, ils nuisent au processus de la septation après la naissance. Les glucocorticoïdes retrouvés dans le poumon en développement peuvent provenir de deux sources, soit de la voie classique de la synthèse des glucocorticoïdes par les surrénales, soit des gènes exprimés dans le poumon. Les sites d’expression des gènes codant pour les enzymes de la synthèse des glucocorticoïdes dans le poumon sont inconnus ainsi que le gène de la 20α-hydroxystéroïde déshydrogénase (20α-HSD). Cette dernière inactive le substrat et le produit de la 21-hydroxylase. Des poumons de fœtus de souris au jour de gestation 15,5, 17,5 et 19,5 ainsi que de souriceaux âgés de 0, 5 et 15 jours ont été utilisés pour des hybridations in situ. Cette étude a montré qu’avant la naissance, l’ARNm de la 21-hydroxylase est situé au niveau des cellules épithéliales distales alors que l’ARNm de la 20α-HSD se retrouve plutôt au niveau des capillaires. Les gènes de la 21-hydroxylase et de la 20α-HSD sont exprimés dans les cellules épithéliales proximales ainsi que dans les cellules endothéliales de veines dans la période entourant la naissance. À la fin du stade sacculaire et pendant le stade alvéolaire, le gène de la 21-hydroxylase est exprimé seulement dans les septa et les parois minces tout comme le gène de la 20α-HSD sauf dans le stade alvéolaire où il n’y avait pas de signal significatif. Ainsi, ces résultats suggèrent que la 20α-HSD pourrait participer au contrôle du niveau d’activité de la 21-hydroxylase en modulant la disponibilité de son substrat.
Resumo:
Il en va des organisations comme des personnes. Qu'on le veuille ou non, nous projetons tous une image auprès de nos interlocuteurs. Et c'est sur cette image que se fondent des décisions importantes : un consommateur va-t-il acheter un produit qu'il juge de mauvaise qualité ou trop cher, ou dont il ignore l'utilité? Une personne va-t-elle profiter d'un service public dont elle ignore l'existence? Nous vivons dans un monde de communication. Pour réussir, une organisation doit contrôler l'image qu'elle projette d'elle. Elle doit s'assurer d'être connue du public qui l'entoure. Elle doit faire comprendre ses produits, ses services et les objectifs qu'elle poursuit. De plus en plus d'organismes du secteur public et parapublic font maintenant appel à la recherche dans le but de leur permettre de prendre des décisions éclairées. Les institutions d'enseignement n'échappent pas à cette règle. Au cours des dernières années, la concurrence dans le secteur de l'enseignement secondaire s'est considérablement accrue. Même si la clientèle demeure aussi nombreuse dans les maisons d'enseignement privé de Montréal et de la Rive-Sud, il n'en demeure pas moins que les écoles publiques se sont prises en main, notamment en améliorant la qualité des services et le milieu de vie (Commission scolaire Sainte-Croix, École Pierre-Laporte; cours professionnels de ballet classique intégrés à un programme d'études secondaires régulier dans une école publique). Avec la sélection d'un projet éducatif précis dans chaque institution d'enseignement public, nous découvrons maintenant des écoles publiques spécialisées, possédant des personnalités différentes les unes des autres. Or, avec l'inversion de la pyramide des âges, la volonté de redressement des écoles publiques et leurs campagnes de sensibilisation auprès de la population, l'intégration des commissions scolaires, la concurrence existant entre les écoles privées, ces dernières doivent se définir un positionnement clair, net et précis sur l'échiquier concurrentiel. Afin de savoir si les écoles privées secondaires sont conscientes de leur image, nous avons analysé leur matériel promotionnel, c'est-à-dire brochures et dépliants. [...]
Resumo:
Les nombreux changements technologiques que nous connaissons révolutionnent nos modes de penser, d'agir et de vivre. Aucune connaissance n'est désormais définitive, aucun savoir à son apogée. Il faut constamment se recycler, s'ajuster, se perfectionner : d'où l'expansion actuelle de l'enseignement des adultes à différents niveaux d'enseignement. L'idée que l'éducation soit réservée aux jeunes qui se préparent à la vie, tandis que les adultes doivent se consacrer au travail pour gagner la leur, est en train de se modifier. La période dévolue à l'éducation de type classique déborde sur la vie adulte à mesure que les études scolaires se prolongent et que le désir de découvrir, d'apprendre, se développe. L'éducation permanente, à laquelle l'adulte consacre une partie de son temps, devient une pratique de plus en plus courante. En effet, depuis la réforme amorcée avec le rapport Parent, le système d'éducation québécois a connu une augmentation continue de sa population adulte. De nos jours encore, on ressent cette demande de formation de la part des adultes et il y a tout lieu de croire que cette tendance se poursuivra. (Conseil supérieur de l'éducation, 1988). […]
Resumo:
La présente étude a pour objet le perfectionnement des enseignants du secondaire technique par l'analyse et le savoir analyser de leurs actions. La mise à l'essai des dispositifs de la recherche offre une structure de formation qui favorise l'utilisation des connaissances théoriques dans l'acquisition de savoirs pratiques. À cet effet, des séances de travail conçues sous forme de travaux individuels prennent en compte les comportements de chaque sujet pour l'entraîner dans un processus d'analyse de sa relation pédagogique. Cette conception de la formation fait vivre aux Élèves Professeurs Techniques Adjoints (EPIA) une situation nouvelle d'apprentissage grâce à la médiation de la technologie vidéo. L'approche de perfectionnement ainsi élaborée, est issue des recherches de la psychologie cognitive. La démarche réflexive proposée met l'accent sur le processus de traitement de l'information des sujets. Cette façon de voir le perfectionnement des EPIA n'est pas une fin en soi, mais un moyen d'amener les personnes impliquées à une prise de conscience qui suscitera la réflexion sur les plans de perfectionnement. Dans la problématique de recherche, nous avons souligné le manque d'efficacité des plans de perfectionnement des enseignants et les conséquences directes qu'ils ont sur l'apprentissage des élèves. Le développement de ce problème, pour le moins préoccupant, nous invite à explorer parmi les structures de perfectionnement existantes, les possibilités d'une intervention qui permet à chacun de suivre selon son propre rythme. La méthodologie envisagée, se traduit par une alternance de moments théoriques et pratiques. Le modèle diffère du microenseignement classique par son mode opératoire, la présentation des problèmes éducatifs et les objectifs de formation poursuivis. La première microleçon présentée par les sujets sert à la rédaction d'une rétroaction sur la séquence d'enseignement. La deuxième microleçon est analysée par la technique du rappel stimulé. Un entretien semi-dirigé avec les sujets met fin à l'expérience. L'expérience est explorée auprès de cinq volontaires. Pour une première expérience d'autoscopie, les résultats indiquent que les EPIA identifient plus facilement les situations problématiques de leur enseignement. Aussi, ils sont plus réceptifs aux critiques et partagent leurs expériences avec le groupe. La plupart d'entre eux sont parvenus au stade de formulation des concepts de la démarche réflexive de Holborn (1992). À ce stade de la démarche, les sujets définissent souvent un projet de développement professionnel qu'ils voudront atteindre dans le futur. Notre hypothèse de recherche repose ainsi sur le point de vue de (Schön, 1994) selon lequel "Pour un praticien, savoir mettre le doigt sur le problème est au moins aussi important que savoir le résoudre". La conclusion que l'on peut tirer de cette recherche est que, pour apprendre à enseigner, le futur maître doit comprendre ce qui se passe dans la situation éducative qu'il rencontre ou qu'il crée.
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
The study of maturation and spawning of the oyster is part of a research program to investigate the summer mortalities of the oysters, Crassostrea gigas in Marennes-Oléron Bay. Four maturity stages were simultaneously obtained by diet and thermal conditioning (immature, low maturation, mature and post-spawning stages). Measurements of clearance, filtration, absorption and respiration rates allowed a calculation of the scope for growth and hence an estimation of the oyster's energetic budget at various maturity stages. Male and female oysters had similar physiological responses. The filtration rate ranged from 2.4 to 2.6 1.h(-1) at the early stages of maturation and decreased to 1.8 1.h.' during the maturity stage. Growth rate resulting from gonad development did not induce filtration rate changes. Mature 2.5 and 1.5-year-old oysters showed a negative energy budget reaching -15 and -90 J.h(-1) respectively. By contrast, non-ripe oysters had scope for growth in the range 110 to 170 J.h(-1). A negative energy budget during the high maturation stage resulted from a reduced absorption efficiency. A new allometric relationship for the respiration model of C. gigas was defined during vitellogenesis with a 0.574 coefficient value. Based on Our results, the oyster's physiological weakness during vitellogenesis should be considered as a part of explanation for spring and summer mortalities of cultured oysters in Marennes-Oléron Bay.