29 resultados para Champ visuel divisé

em Université Laval Mémoires et thèses électroniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La pomme de terre est l’une des cultures les plus exigeantes en engrais et elle se cultive généralement sur des sols légers ayant de faibles réserves en N, P, K, Ca et Mg. Ces cinq éléments sont essentiels à la croissance des plants, à l’atteinte des bons rendements et à l’obtention de bonne qualité des tubercules de pomme de terre à la récolte et à l’entreposage. La recherche d’un équilibre entre ces cinq éléments constitue l’un des défis de pratiques agricoles de précision. La collecte de 168 échantillons de feuilles de pommes de terre selon une grille de 40 m × 60 m (densité d’échantillonnage de 2,9 échantillons ha-1) dans un champ de pommes de terre de 54 ha au Saguenay-Lac-Saint-Jean et la détermination de leur teneur en N, P, K, Ca et Mg au stade début floraison, jumelée à une lecture de l’indice de chlorophylle avec SPAD-502, a permis d’établir les faits suivants : parmi tous les indicateurs de diagnostic foliaire selon les 3 approches connues VMC, DRIS et CND, le contraste logarithmique entre les deux éléments nutritifs type anioniques (N et P) vs les trois éléments type cationiques (K, Ca et Mg), noté ilr (log ratio isométrique) du coda (Compositional Data Analysis) est l’indicateur le plus fortement relié à la lecture SPAD-502 (r=0,77). L’étude géostatique spatiale appliquée au Coda a montré une grande similitude entre le CND-ilr (anions vs cations) et la lecture SPAD-502. Ce CND-ilr devrait être interprété en termes de fertilisation de démarrage (N+P), en lien avec les apports des cations sous forme d’engrais (K, Ca et Mg) ou d’amendement (Ca et Mg).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En vertu de l’expertise qu’il détient, l’agent public contribue à la réflexion du politique. L’acteur public est en quelque sorte un outil d’aide à la décision. Le paradigme classique en théorie des organisations assume que le bureaucrate est un acteur programmé dont les actions sont guidées par la règlementation et la codification juridico-légale entourant sa pratique. Quant à elle, l’École de la nouvelle gestion publique suppose que l’agent public doit opérer librement selon les indicateurs de la sphère privée ; il doit viser l’efficacité au moindre coût et prioriser la culture du résultat. De plus, dans des conditions respectant l’environnement où se dessine le partage de renseignements, les chercheurs ne s’entendent pas sur le principe de l’allié qui postule conventionnellement que des préférences similaires favorisent la transmission optimale de l’information entre le politique et la fonction publique. Quel modèle prévaut au Québec ? Sous quelles formes s’opérationnalise-t-il en contexte de transfert ? La thèse d’une compatibilité préférentielle est-elle garante d’une translation informationnelle améliorée ? En usant du modèle canonique principal-agent, ce mémoire confronte la croyance répandue voulant que l’État québécois soit foncièrement webérien en adressant certaines des plus importantes conclusions théoriques dans la discipline. Les résultats démontrent que l’appareil d’État est issu d’un croisement entre les deux principaux paradigmes reconnus dans la littérature. Aussi, le mémoire fait état d’une similarité entre l’interprétation traditionnelle de l’ally principle et la réalité empirique retrouvée dans la relation entre le haut fonctionnaire et le législateur québécois. Ultimement, l’étude démontre que l’administrateur d’État est stratégique dans certaines situations qu’il sait instrumentaliser et où il peut occuper un espace discrétionnaire suffisant pour valoriser ses intérêts professionnels et ceux de son organisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au milieu du XIIe siècle, l’Occident chrétien assiste à l’apparition d’un nouveau rituel liturgique au cours duquel le prêtre élève au-dessus de sa tête l’hostie qui vient d’être consacrée et transformée en corps du Christ. Selon l’historiographie, ce que l’on nomme « élévation de l’hostie » doit permettre aux fidèles de voir et d’adorer l’objet pour pallier la diminution progressive de la fréquence des communions depuis la Réforme grégorienne dans le dernier quart du XIe siècle. Or, cette thèse apparait problématique dans la mesure où les textes liturgiques ainsi que les conciles synodaux ordonnent aux fidèles de s’incliner, de s’agenouiller, de baisser les yeux et même de se prosterner. De plus, une multitude d’obstacles physiques comme des jubés, des clôtures, des rideaux ou un certain nombre de clercs ne peut que limiter la visibilité de l’objet. Ensuite, du point de vue théologique, on ne cesse de rappeler qu’il est impossible de voir Dieu par les yeux du corps et que la visio dei, qui relève des yeux spirituels, ne peut se réaliser en cette vie. Une foi réelle doit d’ailleurs se passer de la vision, de la science ou de la connaissance, car comme le disent les Écritures, « heureux ceux qui ont cru sans voir ». Il en résulte une certaine ambivalence, voire parfois une dévalorisation de la vision corporelle. Sens le plus spirituel, il est aussi le plus dangereux lorsque mal utilisé. La présente recherche porte sur l’apparition, l’évolution et la fixation du rituel de l’élévation de l’hostie du milieu du XIIe siècle à la fin du XIVe siècle et tente de démontrer que sa fonction n’est pas de montrer l’hostie aux fidèles qui sont largement découragés, par une multitude de moyens, de la regarder et qu’elle possède une fonction sociale et liturgique indépendante de leur regard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le stress joue un rôle important dans le maintien de la qualité de vie quotidienne. Une exposition à une situation stressante peut causer divers désordres neuropsychiatriques du cerveau qui sont associés avec des problèmes liés au sommeil, à la dépression, à des problèmes digestifs et à des troubles de l’alimentation. Les traitements de ces troubles liés au stress sont très coûteux à travers le monde. De nos jours, des considérations importantes ont été soulevées afin de trouver des moyens appropriés pour la prévention plutôt que de dépenser ultérieurement plus de budget sur les traitements. De cette façon, l’étude et l’expérimentation sur les animaux des troubles liés au stress sont l’un des moyens les plus fiables pour atteindre une compréhension plus profonde des problèmes liés au stress. Ce projet visait à révéler la modulation des potentiels de champ locaux (LFP) lors de la consommation de sucrose dans deux conditions englobant la condition de contrôle non-stressante et celle stressante d’un choc électrique aiguë à la patte dans le cortex préfrontal médian (CPFm) du cerveau de rat. Le CPFm est une structure importante dans la réponse au stress et à l’anxiété par l’interaction avec l’axe hypothalamique-pituitaire surrénale (HPA). Les résultats de ce projet ont révélé que la plupart des coups de langue se sont produits dans les 15 premières minutes de l’accès à une solution de sucrose autant pour la condition contrôle non-stressante que pour la condition stressante. En outre, le stress aigu d’un choc à la patte affecte de manière significative la consommation horaire de sucrose en diminuant le volume de la consommation. Les résultats ont également révélé une présence importante du rythme thêta dans le CPFm pendant la condition de base et pendant l’ingestion de sucrose dans les deux conditions. De plus, les résultats ont montré une diminution de puissance des bandes delta et thêta lors des initiations de léchage du sucrose. Ce projet conduit à des informations détaillées sur les propriétés électrophysiologiques du cortex infra-limbique (IL) du CPFm en réponse à l’exposition à des conditions de stress et de l’apport d’une solution de sucrose. Ce projet permet également de mieux comprendre les mécanismes neurophysiologiques des neurones du CPFm en réponse à l’exposition à une condition stressante suivie d’apport de sucrose. Ce projet a également permis de confirmer les effets anorexigènes du stress et suggèrent également que la synchronisation neuronale dans le cortex IL peut jouer un rôle dans le comportement de léchage et sa désynchronisation pendant le léchage après une exposition à des conditions stressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières décennies, la recherche scientifique, toutes disciplines confondues, s’est particulièrement intéressée aux phénomènes et questionnements identitaires, notamment en ce qui concerne les groupes et les mouvements minoritaires ou marginaux, mais également en ce qui concerne la question des identités nationales dont se délectent à leur tour politiciens et médias. Véritable reflet d’un des enjeux majeurs de nos sociétés contemporaines, cet intérêt des chercheurs pour les phénomènes identitaires a particulièrement porté sur l’étude des processus de construction et d’affirmation des identités individuelles et collectives, c’est-à-dire sur les modes et les modalités à partir desquels les identités se construisent, se structurent et sont affirmées dans un rapport comparatif, compétitif et dialogique entre le Soi et l’Autre. Si notre compréhension des phénomènes identitaires s’est considérablement précisée et nuancée depuis la publication dans les années 1950, voire antérieurement, des études fondamentales et fondatrices, il n’en demeure pas moins que le concept d’identité, peu importe les multiples terminologies qu’il peut prendre selon les disciplines, pose actuellement de nombreux problèmes et s’avère abondamment galvaudé par certaines recherches récentes qui en font usage sans nécessairement le définir, voire pire, le maîtriser, comme un champ d’études à la mode qu’il convient d’investir afin d’alimenter un lectorat avide de ces questions et problèmes identitaires. Il est vrai que les travaux scientifiques sur les identités paraissent à un rythme soutenu, voire insoutenable tant cette production est abondante et diversifiée. Tour à tour, les identités ethniques, nationales, provinciales, régionales, politiques, culturelles, religieuses, de genre, des groupes ou mouvements minoritaires et marginaux, pour ne nommer que certains des principaux champs d’investigation, ont été interrogées. Loin de se limiter aux sociétés, aux individus et aux collectivités modernes, les identités du passé, toutes périodes confondues, ont également été revisitées à la lumière des outils d’interprétation développés, entre autres, par la sociologie, par l’anthropologie culturelle et par la psychologie sociale. Bien évidemment, les spécialistes de l’Antiquité n’ont pas échappé à cette tendance, partant à leur tour à la conquête de l’identité (ou des identités) grecque(s), romaine(s), barbare(s), judéenne(s) et chrétienne(s). Leur intérêt s’est également porté sur les identités propres aux diverses catégories ou collectivités sociales, politiques, juridiques, religieuses et professionnelles. Toutefois, aborder la question des identités dans l’Antiquité oblige à délaisser les définitions et compréhensions modernes au profit d’un tout autre mode raisonnement identitaire et d’appartenance propre aux sociétés et collectivités anciennes en prenant en considération les dimensions « – emic » et « – etic » que requiert l’utilisation de cette notion afin d’en avoir recours comme une catégorie d’analyse adéquate pour cette période particulière, une approche double et complémentaire trop souvent négligée par une majorité de recherches dont les résultats aboutissent inévitablement à une compréhension anachronique et « distorsionnée » des réalités anciennes, ce qui est d’autant plus le cas en histoire des religions et des communautés socioreligieuses de l’Antiquité en raison de nombreux présupposés idéologiques et théologiques qui dominent encore tout un pan de l’historiographie actuelle. Bien que le concept même d’identité n’existe pas dans l’Antiquité, le terme « identitas » renvoyant à une tout autre réalité, cela ne signifie pas pour autant que les Anciens n’avaient aucune conscience de leur(s) identité(s) et qu’il est impossible pour nous modernes d’étudier les phénomènes et les discours identitaires antiques. Toutefois, cela impose d’aborder ces phénomènes avec une très grande prudence et beaucoup de nuances en évitant les généralisations hâtives et en circonscrivant bien les contextes d’énonciation dans lesquels ces identités se sont construites et ont été affirmées, car, déterminées par les appartenances, la définition de ces identités s’est constamment élaborée et réélaborée sur un rapport Soi / Autre, inclusion / exclusion et a reposé sur des stratégies discursives qui ont varié selon les époques, les lieux, les auteurs et les contextes d’énonciation. L’enjeu principal est alors de comprendre les stratégies et les mécanismes mis en œuvre par les auteurs anciens dans les processus discursifs de construction identitaire de leur groupe d’appartenance. Produit d’une rhétorique, l’étude des identités anciennes oblige donc de distinguer, ce qui est certes complexe, discours et réalités sociales, du moins cela oblige, encore une fois, à une extrême prudence et beaucoup de nuances afin de ne pas confondre discours et réalités. Si les discours ont effectivement pour effet d’ériger des frontières identitaires fixes et imperméables entre les différents groupes et collectivités, l’étude de la réalité vécue par les acteurs sociaux montre que ces frontières étaient plutôt fluides et perméables. Pour étudier la question des identités dans l’Antiquité, plusieurs postes d’observation peuvent êtres sollicités en s’intéressant, notamment, à la formation des identités, à l’identité en auto-définition, à l’identité dans le miroir de l’Autre, à l’impact des interactions entre le Soi et l’Autre sur les définitions identitaires, aux frontières identitaires et à leurs transgresseurs, aux marqueurs identitaires, etc. Ces différentes approches, notamment lorsqu’elles sont combinées les unes aux autres, contribuent à mettre en évidence la complexité des processus de construction des identités dans l’Antiquité dont on reconnaît désormais le caractère fluide, dynamique et discursif, malgré les idéologies de stabilité sur lesquelles elles se sont élaborées et polémiquées. Loin de susciter de vains débats, les études sur les identités dans l’Antiquité permettent d’aborder sous un angle novateur certains acquis de la recherche et de leur apporter de riches nuances. Cependant, interpréter les phénomènes identitaires anciens à partir de paradigmes, de terminologies et de catégories erronés ou anachroniques a également pour conséquence indéniable de parvenir à une relecture « distorsionnée », si ce n’est orientée, du passé, en lui imposant des catégories de définition et d’auto-définition identitaires qui n’existaient pas dans l’Antiquité. C’est pourquoi il importe également, lorsqu’on tente d’aborder ces phénomènes identitaires, de réfléchir sur les paradigmes, les terminologies et les catégories qui sont invoqués par en parler et ne pas hésiter à les remettre en question en refusant d’adhérer, de manière consciente ou inconsciente, à un quelconque modèle préétabli. S’inscrivant dans ce courant réflexif majeur de l’historiographique actuelle sur l’étude des phénomènes de construction identitaire dans l’Antiquité, notre recherche s’intéresse plus particulièrement aux processus de construction de discours d’appartenance dans la littérature judéenne et chrétienne aux Ier et IIe siècles. Sans avoir cherché à circonscrire une définition unique et unilatérale des identités judéennes et chrétiennes de cette période – définition qui s’avère, selon nous, plus utopique que réaliste en raison de la pluralité des mouvements qui composent le « judaïsme » et le « christianisme » anciens et des auteurs qui ont tenté, par leurs discours, de définir et présenter ces identités – ou tenter d’établir une liste de critères à respecter pour délimiter ce qu’est l’identité judéenne ou chrétienne – et, par conséquent, ceux qui peuvent ou non se réclamer d’être Judéens ou chrétiens –, la perspective que nous adoptons dans cette recherche est plutôt de réfléchir à la manière dont il convient d’aborder les identités anciennes et les processus de construction identitaire dans l’Antiquité. Notre réflexion se veut donc d’abord et avant tout une réflexion méthodologique, épistémologique, terminologique et historiographique des questions et phénomènes identitaires dans l’Antiquité, notamment en ce qui concerne les identités judéennes et chrétiennes des Ier et IIe siècles qui sont abordées à partir de divers postes d’observation et dans une perspective socio-historique qui adopte une démarche « – emic » et « – etic ». Notre recherche est divisée en trois parties. La première sera consacrée aux discussions d’ordre « – etic », c’est-à-dire aux réflexions et aux remarques méthodologiques, épistémologiques, terminologiques et historiographies sur l’approche des phénomènes identitaires et de l’identité chrétienne dans l’Antiquité. Le chapitre I présentera des remarques historiographiques sur les travaux récents en histoire du « christianisme » ancien. Dans le chapitre II, nous discuterons des concepts modernes d’« identité », de « race » et d’« ethnie ». Le chapitre III présentera quelques réflexions épistémologiques et méthodologiques sur l’application des théories et concepts modernes aux réalités antiques dans l’approche des phénomènes identitaires. Finalement, le chapitre IV reviendra sur les différents paradigmes interprétatifs qui ont été utilisés dans le débat moderne sur la question du Parting of the Ways. La deuxième partie sera consacrée à la présentation des cadres contextuels du « judaïsme » et du « christianisme » anciens. Le chapitre V dressera un portrait général de la pluralité qui caractérise le « judaïsme » ancien à la période romaine (Ier – IIe siècles) et des principaux marqueurs identitaires des communautés judéennes de cette époque. Dans le chapitre VI, il sera question de l’origine et de l’expansion du « judaïsme chrétien » dans l’Empire romain (Ier – IIe siècles) de même que de la pluralité des courants chrétiens. La troisième partie abordera la dimension « – emic » de notre recherche en s’intéressant aux processus discursifs de construction de l’identité chrétienne à partir de différents postes d’observation. Le chapitre VII analysera la présentation que l’auteur des Actes des apôtres fait des conditions d’entrée et des premières règles de vie dans la communauté chrétienne. Le chapitre VIII s’intéressera aux enjeux liés à la perception et à la représentation du Soi et de l’Autre en tentant de comprendre comment le mouvement chrétien a tenté de s’auto-définir et comment il a été défini par l’Altérité. Finalement, le chapitre IX analysera la manière dont les auteurs chrétiens se sont approprié le terme « γένος » et comment ils l’ont redéfini sur la base de critères cultuels ou religieux afin de présenter l’originalité distinctive du mouvement chrétien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de travail est divisé en deux études principales: (a) l’influence des certains additifs organiques sur la consommation d’énergie et la pureté du métal de zinc déposé dans le processus d’extraction électrolytique, et (b) l’électrodéposition des alliages binaires et ternaires de Fe-Mo et Fe-Mo-P sur des substrats d’acier doux afin d’agir comme cathodes pour la production de chlorate. (a) Parmi les sept différents additifs organiques examinés, les sels des liquides ioniques ont réussi à augmenter le rendement du courant jusqu’à 95,1% comparé à 88,7% qui a obtenu à partir de l’électrolyte standard en présence des ions de Sb3+. La réduction maximale de la consommation d’énergie de ~173 kWh tonne-1 a été obtenue en ajoutant de 3 mg dm-3 du chlorure de 1-butyl-3-méthylimidazolium dans le même électrolyte. La teneur en plomb dans le dépôt de zinc est réduite de 26,5 ppm à 5,1-5,6 ppm en utilisant les sels des liquides ioniques. (b) Des différents binaires Fe-Mo et ternaires Fe-Mo-P alliages ont été électrodéposés sur des substrats d’acier doux. Les alliages préparés ont une tenure en Mo entre 21-47 at.% et une tenure en P de 0 à 16 at.%. L’activité électrocatalytique de ces alliages vers la réaction de dégagement d’hydrogène (RDH) a été étudiée dans des solutions de chlorure de sodium. La réduction maximale de la surtension de RDH de ~313 mV a été obtenue par l’alliage ternaire préparé Fe54Mo30P16 par rapport à celle obtenue pour l’acier doux. La rugosité de surface et l’activité intrinsèque des revêtements de Fe-Mo-P peuvent être l’origine du comportement prometteur de ces électrocatalyseurs vers la RDH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude porte sur les caractéristiques de la poésie du quotidien en bande dessinée. Les petites joies de la vie de tous les jours, leur représentation visuelle et leur transposition narrative, poétique ou non, traversent les différentes œuvres de mon corpus, soit Moins vingt-deux degrés Celsius de Jimmy Beaulieu (Mécanique générale, 2003), L’Homme qui marche de Jirô Taniguchi (Casterman, 2003), Whiskey & New York de Julia Wertz (Altercomics, 2011), Calvin et Hobbes en couleurs! de Bill Watterson (Hors Collection, 2008), Le Jardin de Mimi de Yoon-Sun Park (Misma, 2014) ainsi que Shä & Salomé, Jours de pluie d’Anne Montel et Loïc Clément (Jean-Claude Gawsewitch éditeur, 2011). Cette poésie du quotidien constitue un regard particulier sur le monde, à l’instar du réalisme magique. Cette étude explore le dialogue visuel et narratif qui existe entre les deux concepts, la poésie amenant une dimension magique importante au sein même de la fiction bédéique. En second lieu, il sera question de la bande dessinée Nora et Mathieu, laquelle a constituée la partie création de ce mémoire. Le processus artistiques ainsi que les caractéristiques qui définissent ma pratique de la bande dessinée, seront abordés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fusariose de l’épi est une maladie fongique des cultures céréalières au Québec. Les objectifs de ce projet étaient de vérifier l’influence de quatre facteurs (météorologie, cultivar, date de semis, fongicide) sur les rendements et la qualité du blé et d’évaluer les performances de neuf modèles à prédire l’incidence de cette maladie. Pendant deux ans, à quatre sites expérimentaux au Québec, des essais de blé de printemps et d’automne ont été implantés pour amasser un jeu de données météorologiques, phénologiques et épidémiologiques. L’application d’un fongicide a réduit la teneur en désoxynivalénol des grains dans neuf essais sur douze et a augmenté les rendements dans sept essais. De plus, les modèles prévisionnels américains et argentins ont eu de meilleures performances que les modèles canadiens et italiens quand leur seuil de décision était ajusté et que le développement du blé était suivi au champ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la région de Trois-Rivières (Québec, Canada), plus de 1 000 bâtiments résidentiels et commerciaux montrent de graves problèmes de détérioration du béton. Les problèmes de détérioration sont liés à l’oxydation des sulfures de fer incorporés dans le granulat utilisé pour la confection du béton. Ce projet de doctorat vise à mieux comprendre les mécanismes responsables de la détérioration de béton incorporant des granulats contenant des sulfures de fer, et ce afin de développer une méthodologie pour évaluer efficacement la réactivité potentielle de ce type de granulats. Un examen pétrographique détaillé de carottes de béton extraites de fondations résidentielles montrant différents degré d’endommagement a été réalisé. Le granulat problématique contenant des sulfures de fer a été identifié comme un gabbro à hypersthène incorporant différentes proportions (selon les différentes localisations dans les deux carrières d’origine) de pyrrhotite, pyrite, chalcopyrite et pentlandite. Les produits de réaction secondaires observés dans les échantillons dégradés comprennent des formes minérales de "rouille", gypse, ettringite et thaumasite. Ces observations ont permis de déterminer qu’en présence d’eau et d’oxygène, la pyrrhotite s’oxyde pour former des oxyhydroxides de fer et de l’acide sulfurique qui provoquent une attaque aux sulfates dans le béton. Tout d’abord, la fiabilité de l’approche chimique proposée dans la norme européenne NF EN 12 620, qui consiste à mesurer la teneur en soufre total (ST,% en masse) dans le granulat pour détecter la présence (ou non) de sulfures de fer, a été évaluée de façon critique. Environ 50% (21/43) des granulats testés, représentant une variété de types de roches/lithologies, a montré une ST > 0,10%, montrant qu’une proportion importante de types de roches ne contient pas une quantité notable de sulfure, qui, pour la plupart d’entre eux, sont susceptibles d’être inoffensifs dans le béton. Ces types de roches/granulats nécessiteraient toutefois d’autres tests pour identifier la présence potentielle de pyrrhotite compte tenu de la limite de ST de 0,10 % proposée dans les normes européennes. Basé sur une revue exhaustive de la littérature et de nombreuses analyses de laboratoire, un test accéléré d’expansion sur barres de mortier divisé en deux phases a ensuite été développé pour reproduire, en laboratoire, les mécanismes de détérioration observés à Trois-Rivières. Le test consiste en un conditionnement de 90 jours à 80°C/80% RH, avec 2 cycles de mouillage de trois heures chacun, par semaine, dans une solution d’hypochlorite de sodium (eau de javel) à 6% (Phase I), suivi d’une période pouvant atteindre 90 jours de conditionnement à 4°C/100 % HR (Phase II). Les granulats ayant un potentiel d’oxydation ont présenté une expansion de 0,10 % au cours de la Phase I, tandis que la formation potentielle de thaumasite est détectée par le regain rapide de l’expansion suivi par la destruction des échantillons durant la Phase II. Un test de consommation d’oxygène a également été modifié à partir d’un test de Drainage Minier Acide, afin d’évaluer quantitativement le potentiel d’oxydation des sulfures de fer incorporés dans les granulats à béton. Cette technique mesure le taux de consommation d’oxygène dans la partie supérieure d’un cylindre fermé contenant une couche de matériau compacté afin de déterminer son potentiel d’oxydation. Des paramètres optimisés pour évaluer le potentiel d’oxydation des granulats comprennent une taille de particule inférieure à 150 μm, saturation à 40 %, un rapport de 10 cm d’épaisseur de granulat par 10 cm de dégagement et trois heures d’essai à 22ᵒC. Les résultats obtenus montrent que le test est capable de discriminer les granulats contenant des sulfures de fer des granulats de contrôle (sans sulfures de fer) avec un seuil limite fixé à 5% d’oxygène consommé. Finalement, un protocole d’évaluation capable d’estimer les effets néfastes potentiels des granulats à béton incorporant des sulfures de fer a été proposé. Le protocole est divisé en 3 grandes phases: (1) mesure de la teneur en soufre total, (2) évaluation de la consommation d’oxygène, et (3) un test accéléré d’expansion sur barres de mortier. Des limites provisoires sont proposées pour chaque phase du protocole, qui doivent être encore validées par la mise à l’essai d’un plus large éventail de granulats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si le Marx de Michel Henry reconduit plusieurs thèses développées dans les écrits antérieurs et anticipe celles de « la trilogie » sur le christianisme, le dialogue qu’il instaure autour du thème de la praxis lui confère un statut singulier dans l’ensemble de l’oeuvre. Parce que Marx attribue à la pratique de l’individu et aux rapports réels entre les pratiques le pouvoir de créer les idéalités, notamment celle de la valeur, Henry est lui-même conduit à déplacer le champ d’immanence qu’il avait jusque-là situé du côté de l’ego et du corps vers la pratique et le système du travail vivant aux prises avec le monde objectif. Or du point de vue d’une phénoménologie matérielle, pour autant qu’il renvoie à un point de vue extérieur à la stricte immanence, le seul usage de la notion d’« individu » manifeste déjà une prise en compte de « la transcendance », poussant Henry à suspendre pour une part l’approche phénoménologique. Même si l’acosmisme de L’essence de la manifestation transparait encore dans le Marx, il est mis en tension extrême avec le monde des déterminations sociales et économiques et contraint l’auteur à développer la thèse de l’enracinement de ces déterminations dans l’immanence de la vie et de la praxis. C’est en même temps ce qui fait la force et l’originalité de la lecture henryenne de Marx. D’un autre côté, quand bien même elle hérite d’une éthique de la praxis, la trilogie semble perdre de vue la stricte individualité de la praxis qui apparaît dans le Marx. C’est ainsi que le concept de Vie Absolue qu’elle promeut est associé à une exigence d’universel que Henry avait préalablement disqualifiée, notamment à travers sa critique de Hegel. La thèse qu’on va lire cherche ainsi à rendre compte de l’originalité absolue du Marx dans l’oeuvre du phénoménologue français.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accélération directe d’électrons par des impulsions ultrabrèves de polarisation radiale fortement focalisées démontre un grand potentiel, notamment, pour la production de paquets d’électrons ultrabrefs. Plusieurs aspects de ce schéma d’accélération restent toutefois à être explorés pour en permettre une maîtrise approfondie. Dans le cadre du présent mémoire, on s’intéresse à l’ajout d’une dérive de fréquence au champ de l’impulsion TM01 utilisée. Les expressions exactes des composantes du champ électromagnétique de l’impulsion TM01 sont établies à partir d’une généralisation du spectre de Poisson. Il s’agit, à notre connaissance, du premier modèle analytique exact pour la description d’une impulsion avec une dérive de fréquence. Ce modèle est utilisé pour étudier l’impact du glissement en fréquence sur le schéma d’accélération, grâce à des simulations “particule test” unidimensionnelles, considérant en premier lieu une énergie constante par impulsion, puis un champ maximum constant. Les résultats révèlent que le glissement en fréquence diminue le gain en énergie maximum atteignable dans le cadre du schéma d’accélération à l’étude ; une baisse d’efficacité de plusieurs dizaines de pourcents peut survenir. De plus, les simulations mettent en évidence certaines différences reliées à l’utilisation d’impulsions avec une dérive vers les basses fréquences ou avec une dérive vers les hautes fréquences : il se trouve que, pour un glissement en fréquence de même grandeur, l’impulsion avec une dérive vers les basses fréquences conduit à un gain en énergie cinétique maximum plus élevé pour l’électron que l’impulsion avec une dérive vers les hautes fréquences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre mémoire se penche sur un corpus de films spécifique; il s’agit des westerns américains racontant la construction d’un chemin de fer. Nous traitons ces films comme un sous-genre du western que nous intitulons Railroad Building Story. Est proposé dans notre étude que la structure narrative étant à la base de tous les récits du sous-genre provient d’une idéalisation des faits historiques entourant la construction du premier chemin de fer transcontinental aux États-Unis. Dans le premier chapitre, nous présentons une adaptation de la méthode d’analyse de Vladimir Propp, telle que présentée dans la Morphologie du conte, dans le but d’identifier la structure narrative stable des films du corpus et d’en décrire les unités narratives constantes. L’application de la méthode est effectuée dans le second chapitre, où chacune des unités narratives constantes est expliquée. De plus, nous confrontons ces unités narratives à l’histoire du chemin de fer transcontinental afin d’analyser les rapports idéologiques existant entre ces récits fictionnels et leur référent historique. Cette description sémionarrative et historique de la Railroad Building Story met en évidence sa fonction idéologique permanente en tant que mythe cinématographique du chemin de fer américain. Dans le troisième chapitre, les films sont analysés d’après leur contexte sociohistorique de production. Le chapitre est divisé selon les quatre périodes historiques dans lesquels les films du sous-genre furent réalisés, soit les années 1920, la Grande Dépression, l’ère maccarthyste et le début des années 1960. En analysant les films d’après une approche sociocritique, nous démontrons comment ceux-ci traduisent des préoccupations idéologiques liées au climat social de la nation américaine. Nous expliquons donc comment le mythe du chemin de fer américain se voit réapproprié à chaque période historique, et ce, afin de répondre aux exigences idéologiques contemporaines à la production des films de la Railroad Building Story.