31 resultados para Éclatement complexe
em Université Laval Mémoires et thèses électroniques
Resumo:
Le but de cette étude est de mettre en évidence le référent qu’utilisent des éducateurs physiques dans une tâche de coopération-opposition en vue d’une instrumentation en évaluation formative. Le cadre conceptuel présente l’évaluation formative d’habiletés motrices complexes et les cadres d’analyse fondant l’interprétation et l’intervention pédagogiques. Une séquence vidéo d’élèves réalisant une action de démarquage a été présentée aux 70 sujets de l’étude, enseignants du primaire ou spécialistes en sport collectif, qui devaient juger de l’habileté des enfants et objectiver leur appréciation. Les résultats obtenus, à la suite d’une analyse de contenu et du traitement statistique (fréquences et analyse des correspondances), ont mis en évidence la diversité des évaluateurs quant aux composantes de la tâche et aux critères retenus. Des hypothèses sont présentées relatives aux modèles de référence utilisés et à un profil de performance du démarquage qui peut aider les enseignants à développer leur propre instrumentation pour une évaluation formative.
Resumo:
Au cours des dernières décennies, la recherche scientifique, toutes disciplines confondues, s’est particulièrement intéressée aux phénomènes et questionnements identitaires, notamment en ce qui concerne les groupes et les mouvements minoritaires ou marginaux, mais également en ce qui concerne la question des identités nationales dont se délectent à leur tour politiciens et médias. Véritable reflet d’un des enjeux majeurs de nos sociétés contemporaines, cet intérêt des chercheurs pour les phénomènes identitaires a particulièrement porté sur l’étude des processus de construction et d’affirmation des identités individuelles et collectives, c’est-à-dire sur les modes et les modalités à partir desquels les identités se construisent, se structurent et sont affirmées dans un rapport comparatif, compétitif et dialogique entre le Soi et l’Autre. Si notre compréhension des phénomènes identitaires s’est considérablement précisée et nuancée depuis la publication dans les années 1950, voire antérieurement, des études fondamentales et fondatrices, il n’en demeure pas moins que le concept d’identité, peu importe les multiples terminologies qu’il peut prendre selon les disciplines, pose actuellement de nombreux problèmes et s’avère abondamment galvaudé par certaines recherches récentes qui en font usage sans nécessairement le définir, voire pire, le maîtriser, comme un champ d’études à la mode qu’il convient d’investir afin d’alimenter un lectorat avide de ces questions et problèmes identitaires. Il est vrai que les travaux scientifiques sur les identités paraissent à un rythme soutenu, voire insoutenable tant cette production est abondante et diversifiée. Tour à tour, les identités ethniques, nationales, provinciales, régionales, politiques, culturelles, religieuses, de genre, des groupes ou mouvements minoritaires et marginaux, pour ne nommer que certains des principaux champs d’investigation, ont été interrogées. Loin de se limiter aux sociétés, aux individus et aux collectivités modernes, les identités du passé, toutes périodes confondues, ont également été revisitées à la lumière des outils d’interprétation développés, entre autres, par la sociologie, par l’anthropologie culturelle et par la psychologie sociale. Bien évidemment, les spécialistes de l’Antiquité n’ont pas échappé à cette tendance, partant à leur tour à la conquête de l’identité (ou des identités) grecque(s), romaine(s), barbare(s), judéenne(s) et chrétienne(s). Leur intérêt s’est également porté sur les identités propres aux diverses catégories ou collectivités sociales, politiques, juridiques, religieuses et professionnelles. Toutefois, aborder la question des identités dans l’Antiquité oblige à délaisser les définitions et compréhensions modernes au profit d’un tout autre mode raisonnement identitaire et d’appartenance propre aux sociétés et collectivités anciennes en prenant en considération les dimensions « – emic » et « – etic » que requiert l’utilisation de cette notion afin d’en avoir recours comme une catégorie d’analyse adéquate pour cette période particulière, une approche double et complémentaire trop souvent négligée par une majorité de recherches dont les résultats aboutissent inévitablement à une compréhension anachronique et « distorsionnée » des réalités anciennes, ce qui est d’autant plus le cas en histoire des religions et des communautés socioreligieuses de l’Antiquité en raison de nombreux présupposés idéologiques et théologiques qui dominent encore tout un pan de l’historiographie actuelle. Bien que le concept même d’identité n’existe pas dans l’Antiquité, le terme « identitas » renvoyant à une tout autre réalité, cela ne signifie pas pour autant que les Anciens n’avaient aucune conscience de leur(s) identité(s) et qu’il est impossible pour nous modernes d’étudier les phénomènes et les discours identitaires antiques. Toutefois, cela impose d’aborder ces phénomènes avec une très grande prudence et beaucoup de nuances en évitant les généralisations hâtives et en circonscrivant bien les contextes d’énonciation dans lesquels ces identités se sont construites et ont été affirmées, car, déterminées par les appartenances, la définition de ces identités s’est constamment élaborée et réélaborée sur un rapport Soi / Autre, inclusion / exclusion et a reposé sur des stratégies discursives qui ont varié selon les époques, les lieux, les auteurs et les contextes d’énonciation. L’enjeu principal est alors de comprendre les stratégies et les mécanismes mis en œuvre par les auteurs anciens dans les processus discursifs de construction identitaire de leur groupe d’appartenance. Produit d’une rhétorique, l’étude des identités anciennes oblige donc de distinguer, ce qui est certes complexe, discours et réalités sociales, du moins cela oblige, encore une fois, à une extrême prudence et beaucoup de nuances afin de ne pas confondre discours et réalités. Si les discours ont effectivement pour effet d’ériger des frontières identitaires fixes et imperméables entre les différents groupes et collectivités, l’étude de la réalité vécue par les acteurs sociaux montre que ces frontières étaient plutôt fluides et perméables. Pour étudier la question des identités dans l’Antiquité, plusieurs postes d’observation peuvent êtres sollicités en s’intéressant, notamment, à la formation des identités, à l’identité en auto-définition, à l’identité dans le miroir de l’Autre, à l’impact des interactions entre le Soi et l’Autre sur les définitions identitaires, aux frontières identitaires et à leurs transgresseurs, aux marqueurs identitaires, etc. Ces différentes approches, notamment lorsqu’elles sont combinées les unes aux autres, contribuent à mettre en évidence la complexité des processus de construction des identités dans l’Antiquité dont on reconnaît désormais le caractère fluide, dynamique et discursif, malgré les idéologies de stabilité sur lesquelles elles se sont élaborées et polémiquées. Loin de susciter de vains débats, les études sur les identités dans l’Antiquité permettent d’aborder sous un angle novateur certains acquis de la recherche et de leur apporter de riches nuances. Cependant, interpréter les phénomènes identitaires anciens à partir de paradigmes, de terminologies et de catégories erronés ou anachroniques a également pour conséquence indéniable de parvenir à une relecture « distorsionnée », si ce n’est orientée, du passé, en lui imposant des catégories de définition et d’auto-définition identitaires qui n’existaient pas dans l’Antiquité. C’est pourquoi il importe également, lorsqu’on tente d’aborder ces phénomènes identitaires, de réfléchir sur les paradigmes, les terminologies et les catégories qui sont invoqués par en parler et ne pas hésiter à les remettre en question en refusant d’adhérer, de manière consciente ou inconsciente, à un quelconque modèle préétabli. S’inscrivant dans ce courant réflexif majeur de l’historiographique actuelle sur l’étude des phénomènes de construction identitaire dans l’Antiquité, notre recherche s’intéresse plus particulièrement aux processus de construction de discours d’appartenance dans la littérature judéenne et chrétienne aux Ier et IIe siècles. Sans avoir cherché à circonscrire une définition unique et unilatérale des identités judéennes et chrétiennes de cette période – définition qui s’avère, selon nous, plus utopique que réaliste en raison de la pluralité des mouvements qui composent le « judaïsme » et le « christianisme » anciens et des auteurs qui ont tenté, par leurs discours, de définir et présenter ces identités – ou tenter d’établir une liste de critères à respecter pour délimiter ce qu’est l’identité judéenne ou chrétienne – et, par conséquent, ceux qui peuvent ou non se réclamer d’être Judéens ou chrétiens –, la perspective que nous adoptons dans cette recherche est plutôt de réfléchir à la manière dont il convient d’aborder les identités anciennes et les processus de construction identitaire dans l’Antiquité. Notre réflexion se veut donc d’abord et avant tout une réflexion méthodologique, épistémologique, terminologique et historiographique des questions et phénomènes identitaires dans l’Antiquité, notamment en ce qui concerne les identités judéennes et chrétiennes des Ier et IIe siècles qui sont abordées à partir de divers postes d’observation et dans une perspective socio-historique qui adopte une démarche « – emic » et « – etic ». Notre recherche est divisée en trois parties. La première sera consacrée aux discussions d’ordre « – etic », c’est-à-dire aux réflexions et aux remarques méthodologiques, épistémologiques, terminologiques et historiographies sur l’approche des phénomènes identitaires et de l’identité chrétienne dans l’Antiquité. Le chapitre I présentera des remarques historiographiques sur les travaux récents en histoire du « christianisme » ancien. Dans le chapitre II, nous discuterons des concepts modernes d’« identité », de « race » et d’« ethnie ». Le chapitre III présentera quelques réflexions épistémologiques et méthodologiques sur l’application des théories et concepts modernes aux réalités antiques dans l’approche des phénomènes identitaires. Finalement, le chapitre IV reviendra sur les différents paradigmes interprétatifs qui ont été utilisés dans le débat moderne sur la question du Parting of the Ways. La deuxième partie sera consacrée à la présentation des cadres contextuels du « judaïsme » et du « christianisme » anciens. Le chapitre V dressera un portrait général de la pluralité qui caractérise le « judaïsme » ancien à la période romaine (Ier – IIe siècles) et des principaux marqueurs identitaires des communautés judéennes de cette époque. Dans le chapitre VI, il sera question de l’origine et de l’expansion du « judaïsme chrétien » dans l’Empire romain (Ier – IIe siècles) de même que de la pluralité des courants chrétiens. La troisième partie abordera la dimension « – emic » de notre recherche en s’intéressant aux processus discursifs de construction de l’identité chrétienne à partir de différents postes d’observation. Le chapitre VII analysera la présentation que l’auteur des Actes des apôtres fait des conditions d’entrée et des premières règles de vie dans la communauté chrétienne. Le chapitre VIII s’intéressera aux enjeux liés à la perception et à la représentation du Soi et de l’Autre en tentant de comprendre comment le mouvement chrétien a tenté de s’auto-définir et comment il a été défini par l’Altérité. Finalement, le chapitre IX analysera la manière dont les auteurs chrétiens se sont approprié le terme « γένος » et comment ils l’ont redéfini sur la base de critères cultuels ou religieux afin de présenter l’originalité distinctive du mouvement chrétien.
Resumo:
La réponse mécanique d’une cellule à une force externe permet d’inférer sa structure et fonction. Les pinces optiques s’avèrent une approche particulièrement attrayante pour la manipulation et caractérisation biophysique sophistiquée des cellules de façon non invasive. Cette thèse explore l’utilisation de trois types de pinces optiques couramment utilisées : 1) statiques (static), 2) à exposition partagée (time-sharing) et 3) oscillantes (oscillating). L’utilisation d’un code basé sur la méthode des éléments finis en trois dimensions (3DFEM) nous permet de modéliser ces trois types de piégeage optique afin d’extraire les propriétés mécaniques cellulaires à partir des expériences. La combinaison des pinces optiques avec la mécanique des cellules requiert des compétences interdisciplinaires. Une revue des approches expérimentales sur le piégeage optique et les tests unicellulaires est présentée. Les bases théoriques liant l’interaction entre la force radiative optique et la réponse mécanique de la cellule aussi. Pour la première fois, une simulation adaptée (3DFEM) incluant la diffusion lumineuse et la distribution du stress radiatif permet de prédire la déformation d’une cellule biconcave –analogue aux globules rouges—dans un piège statique double (static dual-trap). À l’équilibre, on observe que la déformation finale est donnée par l’espacement entre les deux faisceaux lasers: la cellule peut être étirée ou même comprimée. L’exposition partagée (time-sharing) est la technique qui permet de maintenir plusieurs sites de piégeage simultanément à partir du même faisceau laser. Notre analyse quantitative montre que, même oscillantes, la force optique et la déformation sont omniprésentes dans la cellule : la déformation viscoélastique et la dissipation de l’énergie sont analysées. Une autre cellule-type, la tige cubique, est étudiée : cela nous permet d’élucider de nouvelles propriétés sur la symétrie de la réponse mécanique. Enfin, l’analyse de la déformation résolue en temps dans un piége statique ou à exposition partagée montre que la déformation dépend simultanément de la viscoélasticité, la force externe et sa forme tridimensionnelle. La technique à force oscillante (oscillating tweezers) montre toutefois un décalage temporel, entre la force et la déformation, indépendant de la forme 3D; cette approche donnerait directement accès au tenseur viscoélastique complexe de la cellule.
Resumo:
L’agrobiodiversité est le résultat de la domestication, de l’amélioration des caractères génétiques, de la conservation et de l’échange des semences par les agriculteurs depuis la première révolution agricole, il y a près de 10 000 ans. Toutefois, cette diversification agricole s’amenuise, s’érode. Cette érosion touche désormais les espèces végétales majeures. Plusieurs variétés de plantes cultivées sont abandonnées au profit de variétés artificialisées et uniformisées. Suivant une logique plus économique, les ressources génétiques végétales ou phytogénétiques, d’abord qualifiées de patrimoine commun de l’humanité, deviennent rapidement des biens prisés par l’industrie biotechnologique confortant les pays riches en biodiversité, mais économiquement faibles, à subordonner cette richesse au principe de la souveraineté permanente sur les ressources naturelles. Ce principe à la base du droit international a permis aux États hôtes de contrôler l’accès aux ressources biologiques sur leur territoire, mettant ainsi fin au pillage de celles-ci, mais également au libre accès pour tous à la ressource. À l’évidence, la nature hybride des ressources phytogénétiques enclenche un processus complexe d’exclusivismes et de prérogatives. D’une part, ces ressources composent la base de notre alimentation et à ce titre elles intéressent l’humanité entière, d’autre part, elles sont la matière première utilisée par les oligopoles semenciers, une double vocation qui suscite un partage antagonique à plusieurs égards. Cette thèse analyse les perspectives offertes par le droit international public afin de réconcilier ces positions au bénéfice de la sécurité alimentaire mondiale durable, et s’interroge sur le meilleur cadre juridique que le droit international puisse attribuer aux ressources phytogénétiques afin d’améliorer la circulation et la disponibilité des denrées agricoles et alimentaires. À cet effet, l’entrée en vigueur du Traité international sur les ressources phytogénétiques pour l’alimentation et l’agriculture va créer une sorte de système compromissoire conciliant dans un même souffle, l’intérêt général et l’appropriation privative au profit de la sécurité alimentaire mondiale durable : le Système multilatéral d’accès et de partage des avantages. Un dispositif ad hoc exceptionnel qui facilite l’accès à une partie négociée de ces ressources ainsi que le partage juste et équitable des avantages qui découlent de leur utilisation entre tous les usagers. Le Système multilatéral est la clé de voûte du Traité. Par le truchement de ce système, le Traité matérialise un ordre juridique raffiné et complexe qui opère une récursivité des ressources phytogénétiques vers le domaine public international, et par incidence, invite à considérer ces ressources comme des biens communs libres d’accès pour la recherche, l’amélioration et le réensemencement. Outre cette requalification, ce système ouvrira la voie à une nouvelle forme de gestion fiduciaire octroyant des droits et impliquant des responsabilités à l’égard d’un groupe d’usagers particuliers.
Resumo:
Rendre compte des conditions d’émergence de la lutte contre l’obésité, c’est aussi rendre compte d’un corps socialement attendu. Ce corps socialement attendu, en Occident, prend racine à la Renaissance dans les discours du peintre Alberti et le corps de justes proportions, de l’éducateur Mercurialis et le corps transformable à volonté, et avec le médecin Vésale et le corps réparable : il s’agit là de trois constantes qui traverseront toutes les époques. Ce corps socialement attendu sera fédéré sous la contenance de soi et la gouvernance de soi issues de la Réforme. De là, une image sociale du corps émerge qui se doit d’être contenu et gouverné, d’où les jugements moraux de plus en plus en sévères portés sur le corps en excès de masse adipeuse. Au XVIIe siècle, dans la foulée des traités de civilités, c’est le passage de l’idée d’être un corps à celle d’avoir un corps dont l’individu est personnellement et socialement responsable, qui culminera, au milieu du XIXe siècle, avec l’introduction de l’indice de masse corporelle, du pèse-personne, du miroir et de la mode : l’individu est désormais maître et esclave de son image des pieds à la tête. Cette quantification de soi aura comme impact de confronter directement l’individu à son propre poids et à ses propres comportements, d’où la mise en place d’une batterie d’interventions à déployer sur le corps pour le maintenir dans une fourchette de poids idéal. Au milieu du XXe siècle, avec la montée du complexe agroalimentaire, de la montée de l’industrie de la restauration rapide, de la transformation profonde du tissu urbain, de l’arrivée massive de l’automobile, de la transformation des emplois de plus en plus orientées vers le secteur tertiaire, se met graduellement en place ce qu’il est convenu d’appeler l’infrastructure de la prise de poids qui entraînera dans son sillage tout un discours de la modération. Le XXIe siècle se donnera pour mission non pas de modifier l’infrastructure de la prise de poids mise en place au XXe siècle, mais de donner à l’individu les moyens de lutter contre la prise de poids à travers le discours de la saine alimentation et de la discipline personnelle. L’obèse ou la personne en simple surpoids est désormais totalement responsable de sa propre condition.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).
Resumo:
Le compartiment microvasculaire est une cible importante du stress oxydant qui est un facteur majeur de la dysfonction endothéliale, notamment au cours d’exposition aux rayonnements ionisants. L’altération de l’endothélium induite par le stress oxydant est impliquée dans la toxicité radio-induite des tissus sains. Limiter les dysfonctions endothéliales est donc un enjeu important des traitements radiothérapeutiques actuels. Cet objectif nécessite une meilleure caractérisation de la signalisation du stress oxydant dans les cellules endothéliales. La voie p38 MAPK est incontournable dans la réponse au stress oxydant mais reste encore insuffisamment caractérisée. Par une approche protéomique, nous avons identifié la nucléophosmine (NPM) comme nouveau partenaire de p38 dans le cytoplasme des cellules endothéliales. La phosphatase PP2a est aussi associée à ce complexe NPM/p38. Nos travaux montrent que le stress oxydant (H2O2, 500μM) régule la déphosphorylation de NPM via PP2a, entraine sa dissociation rapide du complexe et favorise sa translocation vers le noyau. De plus, nous montrons que la présence de NPM déphosphorylée au noyau altère la réponse des cellules aux dommages à l’ADN induits par le stress oxydant. Le céramide sphingolipide membranaire est également un facteur important des voies de stress, particulièrement dans les cellules endothéliales. Notre étude aborde donc l’implication de ce sphingolipide dans la régulation de la voie NPM/p38. Une meilleure caractérisation de la voie p38 et de ses acteurs permettra d’identifier de potentielles cibles afin de limiter les dysfonctions endothéliales et leurs conséquences délétères sur les tissus environnants.
Resumo:
La planification de l’approvisionnement forestier est une tâche complexe nécessitant la prise en compte de plusieurs facteurs qui opèrent dans un contexte instable. Au cours des dernières années, des modèles mathématiques ont été développés pour supporter les entreprises forestières dans leur processus de planification de l’approvisionnement. Néanmoins, le nouveau régime de gestion de la ressource établi par le gouvernement implique maintenant un marché libre de bois, ce qui engendre une nouvelle source d’incertitude. Les modèles d’approvisionnement forestier développés deviennent ainsi incomplets. L’objectif de cette recherche est donc de guider les industriels forestiers dans la planification de leur approvisionnement tout en leur offrant une approche de mise optimale dans le cadre d’enchères scellées au premier prix. Pour ce faire, nous avons exploré différentes stratégies d’approvisionnement regroupant un modèle de base avec approvisionnement via le bois garanti et les enchères, un autre incluant l’achat sur terres privées et un dernier prenant en considération la collaboration entre des partenaires industriels pour la mise aux enchères. Les modèles de planification des opérations forestières élaborés cherchent à maximiser le profit d’une compagnie forestière, tout en sélectionnant la combinaison optimale de secteurs forestiers sur lesquels miser dans les ventes aux enchères. Les résultats pour le cas étudié montrent qu’une compagnie qui applique l’approche de mise optimale proposée obtient une moyenne de gain plus élevée que les autres soumissionnaires qui n’appliquent pas une telle approche. De plus, lorsque la compagnie forestière intègre dans sa planification l’approvisionnement via des forêts privées, elle peut obtenir un profit plus élevé (augmentation de 5% par rapport au modèle de base). La collaboration s’avère la stratégie d’approvisionnement qui offre le profit le plus élevé pour la compagnie tout en permettant une utilisation plus efficace de la ressource forestière.
Resumo:
Le glaucome est un groupe hétérogène de maladies qui sont caractérisées par l’apoptose des cellules ganglionnaires de la rétine et la dégénérescence progressive du nerf optique. Il s’agit de la première cause de cécité irréversible, qui touche environ 60 millions de personnes dans le monde. Sa forme la plus commune est le glaucome à angle ouvert (GAO), un trouble polygénique causé principalement par une prédisposition génétique, en interaction avec d’autres facteurs de risque tels que l’âge et la pression intraoculaire élevée (PIO). Le GAO est une maladie génétique complexe, bien que certaines formes sévères sont autosomiques dominantes. Dix-sept loci ont été liés à la maladie et acceptés par la « Human Genome Organisation » (HUGO) et cinq gènes ont été identifiés à ces loci (MYOC, OPTN, WDR36, NTF4, ASB10). Récemment, des études d’association sur l’ensemble du génome ont identifié plus de 20 facteurs de risque fréquents, avec des effets relativement faibles. Depuis plus de 50 ans, notre équipe étudie 749 membres de la grande famille canadienne-française CA où la mutation MYOCK423E cause une forme autosomale dominante de GAO dont l’âge de début est fortement variable. Premièrement, il a été montré que cette variabilité de l’âge de début de l’hypertension intraoculaire possède une importante composante génétique causée par au moins un gène modificateur. Ce modificateur interagit avec la mutation primaire et altère la sévérité du glaucome chez les porteurs de MYOCK423E. Un gène modificateur candidat WDR36 a été génotypé dans 2 grandes familles CA et BV. Les porteurs de variations non-synonymes de WDR36 ainsi que de MYOCK423E de la famille CA ont montré une tendance à développer la maladie plus jeune. Un outil de forage de données a été développé pour représenter des informations connues relatives à la maladie et faciliter la priorisation des gènes candidats. Cet outil a été appliqué avec succès à la dépression bipolaire et au glaucome. La suite du projet consiste à finaliser un balayage de génome sur la famille CA et à séquencer les loci afin d’identifier les variations modificatrices du glaucome. Éventuellement, ces variations permettront d’identifier les individus dont le glaucome risque d’être plus agressif.
Resumo:
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.
Resumo:
Environ 90% des composés produits industriellement sont fabriqués à l’aide de catalyseurs. C’est pourquoi la conception de catalyseurs toujours plus performants pour améliorer les procédés industriels actuels est toujours d’intérêt. De la grande variété de complexes avec des métaux de transition rapportés jusqu’à présent, les complexes zwitterioniques attirent notre attention par leurs activités catalytiques souvent supérieures aux complexes cationiques normaux. Un complexe métallique zwitterionique est un fragment métal-ligand neutre où la charge positive est située sur le centre métallique et où la charge négative est délocalisée sur un des ligands liés au métal. Nous proposons la synthèse de ligands anioniques phosphine comportant des groupements borates et boratabenzènes. Cette dernière espèce est un cycle à 6 membres où l’un des atomes de carbone est remplacé par un atome de bore et qui est négativement chargé. La capacité de ces phosphines anioniques à se lier à un centre métallique à l’aide de la paire libre du phosphore est due à la nature du lien P-B qui défavorise l’interaction entre la paire libre du phosphore et l’orbitale p vide du bore. Les propriétés de di-tert-butylphosphido-boratabenzène (DTBB) comme ligand phosphine anionique hautement donneur et encombré ainsi que la découverte de ses modes de coordination inhabituels pour stabiliser les métaux de transition insaturés ont été étudiés au cours de ce travail. De nouvelles perspectives sur les modes de coordination de phosphido-boratabenzène et la force de l’interaction du lien P-B seront discutées ainsi que les applications catalytiques. Nous avons d’abord étudié la coordination η1 avec des complexes de fer, ce qui nous a fourni des données quantitatives précieuses sur la capacité du DTBB d’agir comme ligand très donneur par rapport aux autres ligands donneurs bien connus. La capacité du DTBB à changer de mode de coordination pour soutenir les besoins électroniques du métal a été démontrée par la découverte d’une nouvelle espèce ferrocenyl phosphido-boratabenzène et sa nucléophilie a été étudiée. Au meilleur de notre connaissance, aucun exemple d’un ligand boratabenzène coordonné aux métaux du groupe 11 n’existe dans la littérature. Voilà pourquoi nous avons décidé d’explorer les modes de coordination du ligand DTBB avec Cu(I), Ag(I) et Au(I). A notre grande surprise, le ligand DTBB est capable de stabiliser les métaux du groupe 11 aux états d’oxydation faibles par une liaison MP qui est une coordination du type η1, un mode de coordination guère observé pour les ligands boratabenzène. Pendant nos travaux, notre attention s’est tournée vers la synthèse d’un complexe de rhodium(I) afin de tester son utilité en catalyse. A notre grande satisfaction, le complexe Rh-DTBB agit comme un précatalyseur pour l’hydrogénation des alcènes et alcynes à la température ambiante et à pression atmosphérique et son activité est comparable à celle du catalyseur de Wilkinson. Dans un désir d’élargir les applications de notre recherche, notre attention se tourna vers l’utilisation des composés du bore autres que le boratabenzène. Nous avons décidé de synthétiser une nouvelle espèce phosphido-borate encombrée. Lorsqu’elle réagit avec des métaux, l’espèce phosphido-borate subit un clivage de la liaison P-B. Toutefois, cette observation met en évidence la singularité et les avantages de la stabilité de la liaison P-B lors de l’utilisation du fragment boratabenzène. Ces observations enrichissent notre compréhension des conditions dans lesquelles la liaison P-B du ligand DTBB peut être clivée. Ces travaux ont mené à la découverte d’un nouveau ligand ansa-boratabenzène avec une chimie de coordination prometteuse.
Resumo:
Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.
Dynamique des ambiances lumineuses - approche basée sur la photométrie vidéo d’espaces de transition
Resumo:
Les variations de la lumière naturelle lors du passage d’un espace à un autre caractérisent de manière complexe, mais importante le design d’un bâtiment. Cette adaptation visuelle s’inscrit dans un processus spatiotemporel et influe sur le confort et le bien-être de ses occupants. La littérature fait état du peu de connaissances de la relation lumière espace-temps. Cette recherche propose donc d’étudier cette relation spatio-temporelle existant entre la lumière et l’espace, afin de qualifier un parcours architectural au moyen d’une expérimentation in situ et de segments filmiques. La recherche combine l’utilisation d’un luminance-mètre, d’une caméra vidéo et d’une méthode d’analyse d’images numériques afin de permettre l’évaluation des qualités spatio-temporelles de la lumière. Le parcours architectural est analysé selon la diversité et l’intensité des ambiances lumineuses en fonction du temps permettant de décrire les perceptions visuelles d’espaces transitions. Cette méthode dynamique offre un potentiel d’analyse et de création aux concepteurs désireux d’enrichir le design de séquences spatiales en favorisant la diversité lumineuse dans l’expérience architecturale. Mots clefs: adaptation visuelle, analyse d’images, ambiance lumineuse, contraste, éclairage naturel, espaces transitions, lumière perception visuelle, vidéo, spatio-temporel.
Resumo:
Les percidés, dont le doré jaune (Sander vitreus), représentent une opportunité considérable de diversification de l’offre pour l’industrie aquacole au Canada, mais aussi ailleurs dans le monde. Malgré son fort potentiel, les producteurs de dorés sont marginaux, car l’élevage larvaire s’avère difficile et complexe, résultant en des succès de survie variables. Pour un développement durable de l’aquaculture, mais aussi pour assurer un meilleur contrôle des paramètres environnementaux, et conséquemment une meilleure rentabilité, les nouvelles méthodes d’élevage s’orientent vers l’utilisation de systèmes en recirculation où l’eau est majoritairement filtrée et recyclée. Un premier volet de nos travaux réalisés en 2014 a confirmé que (i) les méthodes intensives d’élevage larvaire peuvent être adaptés dans les systèmes en recirculation, que (ii) la moulée commerciale enrichie de farine de krills offre une meilleure croissance qu’une moulée commerciale enrichie aux microalgues, (iii) que des artémies vivantes ne favorise pas l’ingestion alimentaire lorsqu’ils sont ajoutés à des rations d’une moulée commerciale enrichie de farine de krills et (iv) que le développement de la vessie natatoire est le défi principal afin de produire du doré en circuit recyclé de façon rentable. Une étude menée en 2015 visait à favoriser le développement de la vessie natatoire du doré dans les systèmes en recirculation. Quatre traitements ont été comparés soit, un jet d’eau de surface faible, un jet d’eau de surface fort, un microbulleur et un rondin commercial d’absorption d’huile. Nous avons démontré que (i) l’utilisation d’un jet d’eau de surface faible n’était pas suffisant pour favoriser le développement de la vessie natatoire du doré dans les systèmes où l’eau est fortement recirculée et (ii) qu’un rondin d’absorption d’huile est le dispositif le plus efficace pour favoriser le développement de la vessie natatoire du doré. Les prochains travaux devraient se pencher sur (i) l’élaboration de bassins adaptés aux réalités de l’élevage intensif des percidés, (ii) sur des efforts de domestication du doré par sélection génétique afin d’augmenter la survie dans les systèmes en recirculation et sur (iii) des études bioéconomiques afin de réduire les risques associés aux démarrages de nouvelles piscicultures.
Resumo:
Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.