27 resultados para Champ scalaire

em Université Laval Mémoires et thèses électroniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La pomme de terre est l’une des cultures les plus exigeantes en engrais et elle se cultive généralement sur des sols légers ayant de faibles réserves en N, P, K, Ca et Mg. Ces cinq éléments sont essentiels à la croissance des plants, à l’atteinte des bons rendements et à l’obtention de bonne qualité des tubercules de pomme de terre à la récolte et à l’entreposage. La recherche d’un équilibre entre ces cinq éléments constitue l’un des défis de pratiques agricoles de précision. La collecte de 168 échantillons de feuilles de pommes de terre selon une grille de 40 m × 60 m (densité d’échantillonnage de 2,9 échantillons ha-1) dans un champ de pommes de terre de 54 ha au Saguenay-Lac-Saint-Jean et la détermination de leur teneur en N, P, K, Ca et Mg au stade début floraison, jumelée à une lecture de l’indice de chlorophylle avec SPAD-502, a permis d’établir les faits suivants : parmi tous les indicateurs de diagnostic foliaire selon les 3 approches connues VMC, DRIS et CND, le contraste logarithmique entre les deux éléments nutritifs type anioniques (N et P) vs les trois éléments type cationiques (K, Ca et Mg), noté ilr (log ratio isométrique) du coda (Compositional Data Analysis) est l’indicateur le plus fortement relié à la lecture SPAD-502 (r=0,77). L’étude géostatique spatiale appliquée au Coda a montré une grande similitude entre le CND-ilr (anions vs cations) et la lecture SPAD-502. Ce CND-ilr devrait être interprété en termes de fertilisation de démarrage (N+P), en lien avec les apports des cations sous forme d’engrais (K, Ca et Mg) ou d’amendement (Ca et Mg).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En vertu de l’expertise qu’il détient, l’agent public contribue à la réflexion du politique. L’acteur public est en quelque sorte un outil d’aide à la décision. Le paradigme classique en théorie des organisations assume que le bureaucrate est un acteur programmé dont les actions sont guidées par la règlementation et la codification juridico-légale entourant sa pratique. Quant à elle, l’École de la nouvelle gestion publique suppose que l’agent public doit opérer librement selon les indicateurs de la sphère privée ; il doit viser l’efficacité au moindre coût et prioriser la culture du résultat. De plus, dans des conditions respectant l’environnement où se dessine le partage de renseignements, les chercheurs ne s’entendent pas sur le principe de l’allié qui postule conventionnellement que des préférences similaires favorisent la transmission optimale de l’information entre le politique et la fonction publique. Quel modèle prévaut au Québec ? Sous quelles formes s’opérationnalise-t-il en contexte de transfert ? La thèse d’une compatibilité préférentielle est-elle garante d’une translation informationnelle améliorée ? En usant du modèle canonique principal-agent, ce mémoire confronte la croyance répandue voulant que l’État québécois soit foncièrement webérien en adressant certaines des plus importantes conclusions théoriques dans la discipline. Les résultats démontrent que l’appareil d’État est issu d’un croisement entre les deux principaux paradigmes reconnus dans la littérature. Aussi, le mémoire fait état d’une similarité entre l’interprétation traditionnelle de l’ally principle et la réalité empirique retrouvée dans la relation entre le haut fonctionnaire et le législateur québécois. Ultimement, l’étude démontre que l’administrateur d’État est stratégique dans certaines situations qu’il sait instrumentaliser et où il peut occuper un espace discrétionnaire suffisant pour valoriser ses intérêts professionnels et ceux de son organisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le stress joue un rôle important dans le maintien de la qualité de vie quotidienne. Une exposition à une situation stressante peut causer divers désordres neuropsychiatriques du cerveau qui sont associés avec des problèmes liés au sommeil, à la dépression, à des problèmes digestifs et à des troubles de l’alimentation. Les traitements de ces troubles liés au stress sont très coûteux à travers le monde. De nos jours, des considérations importantes ont été soulevées afin de trouver des moyens appropriés pour la prévention plutôt que de dépenser ultérieurement plus de budget sur les traitements. De cette façon, l’étude et l’expérimentation sur les animaux des troubles liés au stress sont l’un des moyens les plus fiables pour atteindre une compréhension plus profonde des problèmes liés au stress. Ce projet visait à révéler la modulation des potentiels de champ locaux (LFP) lors de la consommation de sucrose dans deux conditions englobant la condition de contrôle non-stressante et celle stressante d’un choc électrique aiguë à la patte dans le cortex préfrontal médian (CPFm) du cerveau de rat. Le CPFm est une structure importante dans la réponse au stress et à l’anxiété par l’interaction avec l’axe hypothalamique-pituitaire surrénale (HPA). Les résultats de ce projet ont révélé que la plupart des coups de langue se sont produits dans les 15 premières minutes de l’accès à une solution de sucrose autant pour la condition contrôle non-stressante que pour la condition stressante. En outre, le stress aigu d’un choc à la patte affecte de manière significative la consommation horaire de sucrose en diminuant le volume de la consommation. Les résultats ont également révélé une présence importante du rythme thêta dans le CPFm pendant la condition de base et pendant l’ingestion de sucrose dans les deux conditions. De plus, les résultats ont montré une diminution de puissance des bandes delta et thêta lors des initiations de léchage du sucrose. Ce projet conduit à des informations détaillées sur les propriétés électrophysiologiques du cortex infra-limbique (IL) du CPFm en réponse à l’exposition à des conditions de stress et de l’apport d’une solution de sucrose. Ce projet permet également de mieux comprendre les mécanismes neurophysiologiques des neurones du CPFm en réponse à l’exposition à une condition stressante suivie d’apport de sucrose. Ce projet a également permis de confirmer les effets anorexigènes du stress et suggèrent également que la synchronisation neuronale dans le cortex IL peut jouer un rôle dans le comportement de léchage et sa désynchronisation pendant le léchage après une exposition à des conditions stressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières décennies, la recherche scientifique, toutes disciplines confondues, s’est particulièrement intéressée aux phénomènes et questionnements identitaires, notamment en ce qui concerne les groupes et les mouvements minoritaires ou marginaux, mais également en ce qui concerne la question des identités nationales dont se délectent à leur tour politiciens et médias. Véritable reflet d’un des enjeux majeurs de nos sociétés contemporaines, cet intérêt des chercheurs pour les phénomènes identitaires a particulièrement porté sur l’étude des processus de construction et d’affirmation des identités individuelles et collectives, c’est-à-dire sur les modes et les modalités à partir desquels les identités se construisent, se structurent et sont affirmées dans un rapport comparatif, compétitif et dialogique entre le Soi et l’Autre. Si notre compréhension des phénomènes identitaires s’est considérablement précisée et nuancée depuis la publication dans les années 1950, voire antérieurement, des études fondamentales et fondatrices, il n’en demeure pas moins que le concept d’identité, peu importe les multiples terminologies qu’il peut prendre selon les disciplines, pose actuellement de nombreux problèmes et s’avère abondamment galvaudé par certaines recherches récentes qui en font usage sans nécessairement le définir, voire pire, le maîtriser, comme un champ d’études à la mode qu’il convient d’investir afin d’alimenter un lectorat avide de ces questions et problèmes identitaires. Il est vrai que les travaux scientifiques sur les identités paraissent à un rythme soutenu, voire insoutenable tant cette production est abondante et diversifiée. Tour à tour, les identités ethniques, nationales, provinciales, régionales, politiques, culturelles, religieuses, de genre, des groupes ou mouvements minoritaires et marginaux, pour ne nommer que certains des principaux champs d’investigation, ont été interrogées. Loin de se limiter aux sociétés, aux individus et aux collectivités modernes, les identités du passé, toutes périodes confondues, ont également été revisitées à la lumière des outils d’interprétation développés, entre autres, par la sociologie, par l’anthropologie culturelle et par la psychologie sociale. Bien évidemment, les spécialistes de l’Antiquité n’ont pas échappé à cette tendance, partant à leur tour à la conquête de l’identité (ou des identités) grecque(s), romaine(s), barbare(s), judéenne(s) et chrétienne(s). Leur intérêt s’est également porté sur les identités propres aux diverses catégories ou collectivités sociales, politiques, juridiques, religieuses et professionnelles. Toutefois, aborder la question des identités dans l’Antiquité oblige à délaisser les définitions et compréhensions modernes au profit d’un tout autre mode raisonnement identitaire et d’appartenance propre aux sociétés et collectivités anciennes en prenant en considération les dimensions « – emic » et « – etic » que requiert l’utilisation de cette notion afin d’en avoir recours comme une catégorie d’analyse adéquate pour cette période particulière, une approche double et complémentaire trop souvent négligée par une majorité de recherches dont les résultats aboutissent inévitablement à une compréhension anachronique et « distorsionnée » des réalités anciennes, ce qui est d’autant plus le cas en histoire des religions et des communautés socioreligieuses de l’Antiquité en raison de nombreux présupposés idéologiques et théologiques qui dominent encore tout un pan de l’historiographie actuelle. Bien que le concept même d’identité n’existe pas dans l’Antiquité, le terme « identitas » renvoyant à une tout autre réalité, cela ne signifie pas pour autant que les Anciens n’avaient aucune conscience de leur(s) identité(s) et qu’il est impossible pour nous modernes d’étudier les phénomènes et les discours identitaires antiques. Toutefois, cela impose d’aborder ces phénomènes avec une très grande prudence et beaucoup de nuances en évitant les généralisations hâtives et en circonscrivant bien les contextes d’énonciation dans lesquels ces identités se sont construites et ont été affirmées, car, déterminées par les appartenances, la définition de ces identités s’est constamment élaborée et réélaborée sur un rapport Soi / Autre, inclusion / exclusion et a reposé sur des stratégies discursives qui ont varié selon les époques, les lieux, les auteurs et les contextes d’énonciation. L’enjeu principal est alors de comprendre les stratégies et les mécanismes mis en œuvre par les auteurs anciens dans les processus discursifs de construction identitaire de leur groupe d’appartenance. Produit d’une rhétorique, l’étude des identités anciennes oblige donc de distinguer, ce qui est certes complexe, discours et réalités sociales, du moins cela oblige, encore une fois, à une extrême prudence et beaucoup de nuances afin de ne pas confondre discours et réalités. Si les discours ont effectivement pour effet d’ériger des frontières identitaires fixes et imperméables entre les différents groupes et collectivités, l’étude de la réalité vécue par les acteurs sociaux montre que ces frontières étaient plutôt fluides et perméables. Pour étudier la question des identités dans l’Antiquité, plusieurs postes d’observation peuvent êtres sollicités en s’intéressant, notamment, à la formation des identités, à l’identité en auto-définition, à l’identité dans le miroir de l’Autre, à l’impact des interactions entre le Soi et l’Autre sur les définitions identitaires, aux frontières identitaires et à leurs transgresseurs, aux marqueurs identitaires, etc. Ces différentes approches, notamment lorsqu’elles sont combinées les unes aux autres, contribuent à mettre en évidence la complexité des processus de construction des identités dans l’Antiquité dont on reconnaît désormais le caractère fluide, dynamique et discursif, malgré les idéologies de stabilité sur lesquelles elles se sont élaborées et polémiquées. Loin de susciter de vains débats, les études sur les identités dans l’Antiquité permettent d’aborder sous un angle novateur certains acquis de la recherche et de leur apporter de riches nuances. Cependant, interpréter les phénomènes identitaires anciens à partir de paradigmes, de terminologies et de catégories erronés ou anachroniques a également pour conséquence indéniable de parvenir à une relecture « distorsionnée », si ce n’est orientée, du passé, en lui imposant des catégories de définition et d’auto-définition identitaires qui n’existaient pas dans l’Antiquité. C’est pourquoi il importe également, lorsqu’on tente d’aborder ces phénomènes identitaires, de réfléchir sur les paradigmes, les terminologies et les catégories qui sont invoqués par en parler et ne pas hésiter à les remettre en question en refusant d’adhérer, de manière consciente ou inconsciente, à un quelconque modèle préétabli. S’inscrivant dans ce courant réflexif majeur de l’historiographique actuelle sur l’étude des phénomènes de construction identitaire dans l’Antiquité, notre recherche s’intéresse plus particulièrement aux processus de construction de discours d’appartenance dans la littérature judéenne et chrétienne aux Ier et IIe siècles. Sans avoir cherché à circonscrire une définition unique et unilatérale des identités judéennes et chrétiennes de cette période – définition qui s’avère, selon nous, plus utopique que réaliste en raison de la pluralité des mouvements qui composent le « judaïsme » et le « christianisme » anciens et des auteurs qui ont tenté, par leurs discours, de définir et présenter ces identités – ou tenter d’établir une liste de critères à respecter pour délimiter ce qu’est l’identité judéenne ou chrétienne – et, par conséquent, ceux qui peuvent ou non se réclamer d’être Judéens ou chrétiens –, la perspective que nous adoptons dans cette recherche est plutôt de réfléchir à la manière dont il convient d’aborder les identités anciennes et les processus de construction identitaire dans l’Antiquité. Notre réflexion se veut donc d’abord et avant tout une réflexion méthodologique, épistémologique, terminologique et historiographique des questions et phénomènes identitaires dans l’Antiquité, notamment en ce qui concerne les identités judéennes et chrétiennes des Ier et IIe siècles qui sont abordées à partir de divers postes d’observation et dans une perspective socio-historique qui adopte une démarche « – emic » et « – etic ». Notre recherche est divisée en trois parties. La première sera consacrée aux discussions d’ordre « – etic », c’est-à-dire aux réflexions et aux remarques méthodologiques, épistémologiques, terminologiques et historiographies sur l’approche des phénomènes identitaires et de l’identité chrétienne dans l’Antiquité. Le chapitre I présentera des remarques historiographiques sur les travaux récents en histoire du « christianisme » ancien. Dans le chapitre II, nous discuterons des concepts modernes d’« identité », de « race » et d’« ethnie ». Le chapitre III présentera quelques réflexions épistémologiques et méthodologiques sur l’application des théories et concepts modernes aux réalités antiques dans l’approche des phénomènes identitaires. Finalement, le chapitre IV reviendra sur les différents paradigmes interprétatifs qui ont été utilisés dans le débat moderne sur la question du Parting of the Ways. La deuxième partie sera consacrée à la présentation des cadres contextuels du « judaïsme » et du « christianisme » anciens. Le chapitre V dressera un portrait général de la pluralité qui caractérise le « judaïsme » ancien à la période romaine (Ier – IIe siècles) et des principaux marqueurs identitaires des communautés judéennes de cette époque. Dans le chapitre VI, il sera question de l’origine et de l’expansion du « judaïsme chrétien » dans l’Empire romain (Ier – IIe siècles) de même que de la pluralité des courants chrétiens. La troisième partie abordera la dimension « – emic » de notre recherche en s’intéressant aux processus discursifs de construction de l’identité chrétienne à partir de différents postes d’observation. Le chapitre VII analysera la présentation que l’auteur des Actes des apôtres fait des conditions d’entrée et des premières règles de vie dans la communauté chrétienne. Le chapitre VIII s’intéressera aux enjeux liés à la perception et à la représentation du Soi et de l’Autre en tentant de comprendre comment le mouvement chrétien a tenté de s’auto-définir et comment il a été défini par l’Altérité. Finalement, le chapitre IX analysera la manière dont les auteurs chrétiens se sont approprié le terme « γένος » et comment ils l’ont redéfini sur la base de critères cultuels ou religieux afin de présenter l’originalité distinctive du mouvement chrétien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fusariose de l’épi est une maladie fongique des cultures céréalières au Québec. Les objectifs de ce projet étaient de vérifier l’influence de quatre facteurs (météorologie, cultivar, date de semis, fongicide) sur les rendements et la qualité du blé et d’évaluer les performances de neuf modèles à prédire l’incidence de cette maladie. Pendant deux ans, à quatre sites expérimentaux au Québec, des essais de blé de printemps et d’automne ont été implantés pour amasser un jeu de données météorologiques, phénologiques et épidémiologiques. L’application d’un fongicide a réduit la teneur en désoxynivalénol des grains dans neuf essais sur douze et a augmenté les rendements dans sept essais. De plus, les modèles prévisionnels américains et argentins ont eu de meilleures performances que les modèles canadiens et italiens quand leur seuil de décision était ajusté et que le développement du blé était suivi au champ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si le Marx de Michel Henry reconduit plusieurs thèses développées dans les écrits antérieurs et anticipe celles de « la trilogie » sur le christianisme, le dialogue qu’il instaure autour du thème de la praxis lui confère un statut singulier dans l’ensemble de l’oeuvre. Parce que Marx attribue à la pratique de l’individu et aux rapports réels entre les pratiques le pouvoir de créer les idéalités, notamment celle de la valeur, Henry est lui-même conduit à déplacer le champ d’immanence qu’il avait jusque-là situé du côté de l’ego et du corps vers la pratique et le système du travail vivant aux prises avec le monde objectif. Or du point de vue d’une phénoménologie matérielle, pour autant qu’il renvoie à un point de vue extérieur à la stricte immanence, le seul usage de la notion d’« individu » manifeste déjà une prise en compte de « la transcendance », poussant Henry à suspendre pour une part l’approche phénoménologique. Même si l’acosmisme de L’essence de la manifestation transparait encore dans le Marx, il est mis en tension extrême avec le monde des déterminations sociales et économiques et contraint l’auteur à développer la thèse de l’enracinement de ces déterminations dans l’immanence de la vie et de la praxis. C’est en même temps ce qui fait la force et l’originalité de la lecture henryenne de Marx. D’un autre côté, quand bien même elle hérite d’une éthique de la praxis, la trilogie semble perdre de vue la stricte individualité de la praxis qui apparaît dans le Marx. C’est ainsi que le concept de Vie Absolue qu’elle promeut est associé à une exigence d’universel que Henry avait préalablement disqualifiée, notamment à travers sa critique de Hegel. La thèse qu’on va lire cherche ainsi à rendre compte de l’originalité absolue du Marx dans l’oeuvre du phénoménologue français.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accélération directe d’électrons par des impulsions ultrabrèves de polarisation radiale fortement focalisées démontre un grand potentiel, notamment, pour la production de paquets d’électrons ultrabrefs. Plusieurs aspects de ce schéma d’accélération restent toutefois à être explorés pour en permettre une maîtrise approfondie. Dans le cadre du présent mémoire, on s’intéresse à l’ajout d’une dérive de fréquence au champ de l’impulsion TM01 utilisée. Les expressions exactes des composantes du champ électromagnétique de l’impulsion TM01 sont établies à partir d’une généralisation du spectre de Poisson. Il s’agit, à notre connaissance, du premier modèle analytique exact pour la description d’une impulsion avec une dérive de fréquence. Ce modèle est utilisé pour étudier l’impact du glissement en fréquence sur le schéma d’accélération, grâce à des simulations “particule test” unidimensionnelles, considérant en premier lieu une énergie constante par impulsion, puis un champ maximum constant. Les résultats révèlent que le glissement en fréquence diminue le gain en énergie maximum atteignable dans le cadre du schéma d’accélération à l’étude ; une baisse d’efficacité de plusieurs dizaines de pourcents peut survenir. De plus, les simulations mettent en évidence certaines différences reliées à l’utilisation d’impulsions avec une dérive vers les basses fréquences ou avec une dérive vers les hautes fréquences : il se trouve que, pour un glissement en fréquence de même grandeur, l’impulsion avec une dérive vers les basses fréquences conduit à un gain en énergie cinétique maximum plus élevé pour l’électron que l’impulsion avec une dérive vers les hautes fréquences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente les étapes de fabrication et les résultats de la caractérisation des modèles de tissu biologique fabriqués en utilisant des cristaux liquides et des polymères qui permettent de contrôler la diffusion et la transmission de la lumière par un champ électrique. Ce champ électrique entraîne un changement d’orientation des molécules de cristaux liquides, ce qui induit des variations locales de l’indice de réfraction dans ces matériaux. Nous avons utilisé ce contrôle de l’indice de réfraction pour contrôler le niveau de diffusion et de transmission dans différents types d’échantillons. Les échantillons utilisés sont faits a) de cristaux liquides purs, b) de sphères de polymère dans un environnement de cristaux liquides, c) de cristaux liquides ou de gouttelettes de cristaux liquides dans un environnement de polymère. Les travaux réalisés nous ont permis de proposer une méthode électro-optique pour simuler, à l’aide de cristaux liquides, des milieux diffusants tels que les tissus biologiques. Dans la recherche de modèles, nous avons montré qu’il est possible de contrôler, par la fréquence du champ électrique, des gouttelettes de cristaux liquides dispersées dans une matrice de polymère contenant des ions lithium. Une sensibilité sélective à la fréquence de la tension électrique appliquée en fonction de la taille des gouttelettes est observée. Par la suite, nous avons démontré l’effet de « quenching » interférentiel de la diffusion pour une sonde optique cohérente en étudiant des modèles non alignés (clustérisés) de cristaux liquides. Nous avons aussi démontré des applications potentielles de ce phénomène tel le filtrage en longueur d’onde par l’ajustement d’un champ électrique. Nous avons ensuite démontré que l’utilisation des cristaux liquides - dits « dual-frequency » - permet une modulation rapide des états ou des structures du matériau ainsi que de la transmission et de la diffusion de lumière de ce dernier. Enfin, nous avons aussi découvert que ces modèles peuvent être contrôlés pour retrouver le degré de polarisation de la lumière diffusée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux sur la nutrition en vitamines B des ruminants montrent des résultats très variés sur les quantités de ces nutriments disponibles pour l’animal selon la nature de la ration. Ces divergences sont dues à des changements des populations microbiennes dans le rumen, causées par les facteurs physico-chimiques de la ration. Une amélioration de la compréhension des effets de la nature de la diète sur la synthèse et l’utilisation des vitamines B dans le rumen pourrait aider à identifier les conditions sous lesquelles une supplémentation en ces vitamines serait bénéfique pour la vache. Le but de ce travail de thèse est donc d’améliorer la compréhension des effets de l’espèce fourragère, de la maturité et de la longueur des particules de fourrage sur les apports en vitamines B chez la vache laitière. Pour évaluer chacune de ces variables, les concentrations de thiamine, riboflavine, niacine, vitamine B6, folates et vitamine B12 ont été mesurées dans les échantillons d’aliments et de digesta duodénal recueillis lors de trois projets réalisés à l’Université du Michigan par l’équipe du Dr. M. Allen. Dans la première étude, l’effet de l’espèce fourragère des ensilages a été évalué au cours de deux expériences similaires durant lesquelles les vaches recevaient une diète à base d’ensilage de luzerne ou de dactyle. Les diètes à base de luzerne ont été associées à une augmentation de la dégradation de la thiamine et de la vitamine B6 dans le rumen par rapport aux diètes à base d’ensilage de dactyle. La deuxième étude visait à évaluer les effets de la maturité des plantes lors de la mise en silo sur les quantités de vitamines B disponibles pour la vache; les deux expériences se différenciaient par l’espèce fourragère étudiée, soit la luzerne ou le dactyle. Une récolte à un stade de maturité plus élevé a augmenté les flux duodénaux de thiamine, de niacine et de folates lorsque les vaches recevaient des diètes à base d’ensilage de luzerne mais n’a diminué que le flux duodénal de riboflavine chez les animaux recevant des diètes à base d’ensilage de dactyle. La troisième étude a comparé les effets de la longueur de coupe (10 vs. 19 mm) d’ensilages de luzerne et de dactyle sur le devenir des vitamines B dans le système digestif de la vache laitière. Cette étude a permis de constater qu’une augmentation du temps de séchage au champ diminuait les concentrations de vitamines B dans les ensilages. Cependant, la taille des particules des ensilages de luzerne et de dactyle n’a pas affecté les quantités des vitamines B arrivant au duodénum des vaches. En général, les résultats de ces études montrent qu’il existe une corrélation négative entre la synthèse de riboflavine, de niacine et de vitamine B6 et leur ingestion, suggérant une possible régulation de la quantité de ces vitamines B par les microorganismes du rumen. De plus, l’ingestion d’amidon et d’azote a été corrélée positivement avec la synthèse de thiamine, de folates et de vitamine B12, et négativement avec la synthèse de niacine. Ces corrélations suggèrent que les microorganismes qui utilisent préférentiellement l’amidon jouent un rôle majeur pour la synthèse ou la dégradation de ces vitamines. De plus, la présence d’une quantité suffisante d’azote semble avoir un impact majeur sur ces processus. La suite de ces travaux devrait viser la modélisation de ces données afin de mieux appréhender la physiologie de la digestion de ces vitamines et permettre la création de modèles mathématiques capables de prédire les quantités de vitamines disponibles pour les vaches. Ces modèles permettront, lorsqu’intégrés aux logiciels de formulation de ration, d’élaborer une diète plus précise, ce qui améliorera la santé du troupeau et la performance laitière et augmentera les profits du producteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objet de cette thèse est la « Responsabilité de protéger » (RdP), son émergence et les processus de légitimation qui ont contribué à son acceptation dans les arènes de la politique globale. Le principe d’une intervention militaire à des fins humanitaires gagne en légitimité dans les années 1990, bien qu’il soit marqué par d’intenses polémiques dans la pratique. Les situations de conflits où les civils sont brutalement persécutés et les interventions demandées et organisées pour y répondre sont maintenant largement justifiées dans les termes de la RdP. Est donc apparu d’abord un changement normatif. Ce changement s’est cristallisé dans le rapport de la Commission internationale sur l’intervention et la souveraineté des États (CIISE) qui a forgé l’expression « responsabilité de protéger ». Le point de départ ici est cependant que la RdP marque un changement discursif dans la manière de parler et de justifier ces pratiques. Je montre comment les termes de la RdP en sont venus à être ceux qui dégagent le plus large consensus autour de la question de l’intervention à des fins humanitaires. La thèse centrale de cette recherche est que le relatif succès de la RdP tient au fait que les architectes de la CIISE et les entrepreneurs de la RdP ont déployé un sens pratique aiguisé du champ de la politique globale. Le procédé principal employé est de mettre en lumière les processus de légitimation activement mis en oeuvre pour stimuler ce changement discursif. J’avance que les agents ont su placer la RdP, et par extension le principe de l’intervention à des fins humanitaires, dans le domaine du non problématique en déployant un langage et des pratiques vus comme ne posant pas problème. Concrètement, il s’est agi de choisir les agents à qui serait accordée la reconnaissance de parler, mais qui seraient aussi en mesure de proposer une solution d’une manière considérée comme légitime dans les arènes de la politique globale. Traquer les processus de légitimation est un procédé analytique qui permet de comprendre le succès de la RdP, mais qui révèle également des éléments fondamentaux du fonctionnement formel et informel de la politique globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation exponentielle de la demande de bande passante pour les communications laisse présager une saturation prochaine de la capacité des réseaux de télécommunications qui devrait se matérialiser au cours de la prochaine décennie. En effet, la théorie de l’information prédit que les effets non linéaires dans les fibres monomodes limite la capacité de transmission de celles-ci et peu de gain à ce niveau peut être espéré des techniques traditionnelles de multiplexage développées et utilisées jusqu’à présent dans les systèmes à haut débit. La dimension spatiale du canal optique est proposée comme un nouveau degré de liberté qui peut être utilisé pour augmenter le nombre de canaux de transmission et, par conséquent, résoudre cette menace de «crise de capacité». Ainsi, inspirée par les techniques micro-ondes, la technique émergente appelée multiplexage spatial (SDM) est une technologie prometteuse pour la création de réseaux optiques de prochaine génération. Pour réaliser le SDM dans les liens de fibres optiques, il faut réexaminer tous les dispositifs intégrés, les équipements et les sous-systèmes. Parmi ces éléments, l’amplificateur optique SDM est critique, en particulier pour les systèmes de transmission pour les longues distances. En raison des excellentes caractéristiques de l’amplificateur à fibre dopée à l’erbium (EDFA) utilisé dans les systèmes actuels de pointe, l’EDFA est à nouveau un candidat de choix pour la mise en œuvre des amplificateurs SDM pratiques. Toutefois, étant donné que le SDM introduit une variation spatiale du champ dans le plan transversal de la fibre, les amplificateurs à fibre dopée à l’erbium spatialement intégrés (SIEDFA) nécessitent une conception soignée. Dans cette thèse, nous examinons tout d’abord les progrès récents du SDM, en particulier les amplificateurs optiques SDM. Ensuite, nous identifions et discutons les principaux enjeux des SIEDFA qui exigent un examen scientifique. Suite à cela, la théorie des EDFA est brièvement présentée et une modélisation numérique pouvant être utilisée pour simuler les SIEDFA est proposée. Sur la base d’un outil de simulation fait maison, nous proposons une nouvelle conception des profils de dopage annulaire des fibres à quelques-modes dopées à l’erbium (ED-FMF) et nous évaluons numériquement la performance d’un amplificateur à un étage, avec fibre à dopage annulaire, à ainsi qu’un amplificateur à double étage pour les communications sur des fibres ne comportant que quelques modes. Par la suite, nous concevons des fibres dopées à l’erbium avec une gaine annulaire et multi-cœurs (ED-MCF). Nous avons évalué numériquement le recouvrement de la pompe avec les multiples cœurs de ces amplificateurs. En plus de la conception, nous fabriquons et caractérisons une fibre multi-cœurs à quelques modes dopées à l’erbium. Nous réalisons la première démonstration des amplificateurs à fibre optique spatialement intégrés incorporant de telles fibres dopées. Enfin, nous présentons les conclusions ainsi que les perspectives de cette recherche. La recherche et le développement des SIEDFA offriront d’énormes avantages non seulement pour les systèmes de transmission future SDM, mais aussi pour les systèmes de transmission monomode sur des fibres standards à un cœur car ils permettent de remplacer plusieurs amplificateurs par un amplificateur intégré.