553 resultados para valeurs
Resumo:
Même si le mot est ancien, la référence à la notion de document est récente dans l'Histoire, sans doute en résonance avec l'organisation de la société industrielle, sa régulation et ses valeurs. Au tournant du millénaire, le web s'est appuyé sur un renversement du circuit documentaire, jusqu'à, dans le web de données, un court-circuitage radical. S'agit-il de l'effacement d'une notion périmée au profit d'une autre ou d'un simple décalage ? Le succès du web accompagne des transformations sociales et économiques profondes. Quelles seront alors, sur nos régimes de vérité, de preuve et de transmission, les conséquences de l'éventuelle obsolescence de la notion de document ?
Resumo:
On ne compte plus le nombre de représentations ou d’adaptations sur la scène ou à l’écran de la pièce de théâtre d’Edmond Rostand, Cyrano de Bergerac. Celle-ci a bénéficié d’un succès considérable en France et dans le monde, de la date de sa première représentation, le 28 décembre 1897, jusqu’à nos jours. Son héros, Cyrano de Bergerac, s’appuie librement sur l’écrivain réel, Savinien de Cyrano de Bergerac, qui vécut au XVIIe siècle mais dont pratiquement plus personne ne connaît l’existence. Aujourd’hui, tout le monde éprouve admiration et tendresse à l’égard du duelliste au grand nez qui, par ses lettres amoureuses, aide le beau Christian à conquérir le cœur de Roxane; mais nul ne lit plus Savinien de Cyrano de Bergerac. Sans doute la pièce de Rostand possède-t-elle de réelles valeurs littéraires, une construction rigoureuse, des personnages élaborés, une écriture poétique et légère, de l’humour, de l’émotion… Et cependant, malgré ces qualités indéniables, il demeure difficile d’expliquer son triomphe. Nous posons l’hypothèse selon laquelle, c’est à la manière dont Edmond Rostand a fait de Cyrano de Bergerac un mythe littéraire entouré de symboles propres à une identité dans laquelle les Français sont susceptibles de se reconnaître - et grâce aussi à un contexte sociopolitique dont il a réussi, volontairement ou pas, à tirer grand parti - qu’est attribuable le succès démesuré de la pièce. Rostand a créé un évangile de cape et d’épée sur fond d’Affaire Dreyfus pour un univers théâtral qui intègre les symboles autour desquels les Français se retrouvent volontiers : gastronomie, élégance, faconde, galanterie, fidélité, honneur, patriotisme, … panache.
Resumo:
L’arthrite septique chez les bovins est une affection le plus souvent d’origine bactérienne qui est une cause de boiterie fréquente associée à des pertes économiques importantes. Le traitement, qui doit être initié le plus rapidement possible, s’appuie sur l’utilisation combinée d’anti-inflammatoires non stéroïdiens, d’un ou de plusieurs lavages articulaires ainsi que d’antibiotiques administrés de façon systémique pour un minimum de 3 semaines. Cette durée d’administration constitue une difficulté pour les élevages dits biologiques pour lesquels un cahier des charges strict limite un recours prolongé aux antibiotiques. Ainsi le traitement efficace de diverses conditions infectieuses et celui de l’arthrite septique en particulier dans ces élevages peut être compromis. L’objectif de ce travail est de s’appuyer sur les propriétés antimicrobiennes des solutions de saline hypertonique (SSH) pour limiter l’utilisation des antibiotiques dans les cas d’arthrite septique chez les veaux en intégrant ces solutions pour le lavage des articulations infectées. Notre première étude a consisté à déterminer la sécurité d’emploi de deux concentrations de SSH (une commerciale à 7.2% et une maison à 15%) dans des articulations supposées saines chez le veau. Une synovite sévère associée à des signes cliniques caractéristiques d’atteintes articulaires a été observé lors de l’utilisation de SSH 15%. Son utilisation clinique comme solution de lavage articulaire est par conséquent déconseillée. Concernant la SSH 7.2%, malgré une synovite d’intensité variable, nous n’avons pas noté des signes cliniques caractéristiques d’atteintes articulaires. Son utilisation dans un contexte expérimental d’infection articulaire nous a paru réaliste. Notre seconde étude a permis d’évaluer les effets du lavage articulaire avec de la SSH 7.2% dans un modèle expérimental d’infection à Escherichia coli. Trois groupes de traitement ont été constitués. Dans le premier groupe (traitement standard), un lavage était effectué avec du lactate de Ringer (LRS) et les veaux recevaient une administration biquotidienne de ceftiofur par voie intraveineuse pour 21 jours. Dans le deuxième groupe (LRS), un lavage était effectué avec du LRS et aucun antibiotique n’était administré. Enfin dans le troisième groupe (SSH), un lavage était effectué avec de la SSH 7.2% sans qu’aucun antibiotique ne soit administré. Tous les veaux ont reçu du kétoprofen quotidiennement pendant 3 jours. L’inoculation s’est fait au jour 1 et les traitements ont débuté au jour 2. L’efficacité des traitements a été établie sur des critères cliniques, bactériologiques et cytologiques. Dans le modèle que nous avons utilisé, les trois groupes de traitements ont conduits à une guérison clinique et bactériologique satisfaisante (absence de boiterie, de douleur et de croissance bactérienne dans le liquide articulaire en fin d’étude). La guérison cytologique n’a quant à elle pas été jugée satisfaisante avec des moyennes de comptage et de pourcentage en neutrophiles tout groupe confondu bien supérieures aux valeurs normales (11.39x109/l de neutrophiles représentant 74.73% des leucocytes en fin d’étude). Le traitement avec la SSH 7.2% s’est révélé être significativement plus traumatique et pas plus efficace dans l’élimination de l’infection comparativement au traitement LRS. D’autre part, le lavage articulaire au LRS s’est révélé être aussi efficace et sécuritaire que le traitement standard de l’arthrite septique qui incluait 21 jours de ceftiofur administré par voie intraveineuse. Ainsi, bien que le lavage avec de la SSH 7.2% n’est pas démontré de résultats satisfaisants qui permettrait de limiter le recours aux antibiotiques dans les filières biologiques, l’association d’un lavage au LRS avec le ketoprofen s’est révélée être une alternative possible. De nouvelles études sont requises pour confirmer ses résultats et pour déterminer le rôle respectif du lavage articulaire et du ketoprofen dans la guérison lors d’arthrite septique.
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Travail dirigé présenté à la Faculté des Sciences Infirmières En vue de l’obtention du grade de Maîtrise ès Sciences (M. Sc.) Option formation en sciences infirmière.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Ce mémoire s’applique à étudier d’abord, dans la première partie, la mesure de Mahler des polynômes à une seule variable. Il commence en donnant des définitions et quelques résultats pertinents pour le calcul de telle hauteur. Il aborde aussi le sujet de la question de Lehmer, la conjecture la plus célèbre dans le domaine, donne quelques exemples et résultats ayant pour but de résoudre la question. Ensuite, il y a l’extension de la mesure de Mahler sur les polynômes à plusieurs variables, une démarche semblable au premier cas de la mesure de Mahler, et le sujet des points limites avec quelques exemples. Dans la seconde partie, on commence par donner des définitions concernant un ordre supérieur de la mesure de Mahler, et des généralisations en passant des polynômes simples aux polynômes à plusieurs variables. La question de Lehmer existe aussi dans le domaine de la mesure de Mahler supérieure, mais avec des réponses totalement différentes. À la fin, on arrive à notre objectif, qui sera la démonstration de la généralisation d’un théorème de Boyd-Lawton, ce dernier met en évidence une relation entre la mesure de Mahler des polynômes à plusieurs variables avec la limite de la mesure de Mahler des polynômes à une seule variable. Ce résultat a des conséquences en termes de la conjecture de Lehmer et sert à clarifier la relation entre les valeurs de la mesure de Mahler des polynômes à une variable et celles des polynômes à plusieurs variables, qui, en effet, sont très différentes en nature.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Ce mémoire consiste en l’étude du comportement dynamique de deux oscillateurs FitzHugh-Nagumo identiques couplés. Les paramètres considérés sont l’intensité du courant injecté et la force du couplage. Juqu’à cinq solutions stationnaires, dont on analyse la stabilité asymptotique, peuvent co-exister selon les valeurs de ces paramètres. Une analyse de bifurcation, effectuée grâce à des méthodes tant analytiques que numériques, a permis de détecter différents types de bifurcations (point de selle, Hopf, doublement de période, hétéroclinique) émergeant surtout de la variation du paramètre de couplage. Une attention particulière est portée aux conséquences de la symétrie présente dans le système.
Resumo:
L’effet du développement résidentiel des bassins versants sur l’habitat et la distribution des macrophytes dans le littoral de six lacs des Laurentides a été évalué à l’aide de carottes de sédiments et de quadrats. Le développement augmente la proportion de milieux déboisés ce qui réduit l’apport en débris de bois et augmente l’érosion et les apports de nutriments dans les sédiments du littoral. Les sédiments sont plus fins, plus denses et contiennent moins de matière organique. Ces changements favorisent les macrophytes en augmentant leur couverture dans les lacs développés. La présence d’espèces submergées de macrophytes est également favorisée au détriment des espèces à feuilles flottantes, plus caractéristiques des lacs moins développés. Même si la biomasse des macrophytes est limitée dans certains lacs, celle-ci augmente dans les lacs développés et montre des signes d’un effet tampon sur les apports de nutriments. Des quantités équivalentes à des valeurs entre 35 et 230% des apports annuels de phosphore et entre 79 et 659% des apports d’azote par les résidents ont été accumulées dans les tissus des macrophytes des lacs dont le bassin versant est très déboisé. Les sédiments s’enrichissent à la sénescence des macrophytes et contiennent alors plus de nutriments que la colonne d’eau et ce, pour tous les lacs. Une présence accrue d’espèces submergées et plus de nutriments dans les tissus des macrophytes des lacs développés, jumelés à l’absence de prolifération de phytoplancton malgré un plus grand apport de nutriments, laisse penser que les lacs des Laurentides sont en état d’eutrophisation précoce.
Resumo:
Alors que la plupart des théories libérales ont mis l’accent sur les principes de justice, et sur une conception de la justice qui nous fait penser la société et les relations individuelles de manière de plus en plus abstraite, les réflexions sur le respect de soi nous portent plutôt vers ce qui est essentiel à la valeur et l’importance de l’identité des personnes et de leurs relations sociales. Ces réflexions nous révèlent que non seulement les principes de justice ne sont pas la seule source de respect, mais que tant les cultures et les religions que les communautés morales et les groupes compréhensifs ont des rôles fondamentaux pour le niveau de respect de soi et de respect mutuel que les individus éprouvent envers eux-mêmes et envers les autres. Si les projets de vie, les valeurs et les croyances des individus sont révélés comme fondamentaux à leur autonomie et leur vie comme individu, les réflexions sur le multiculturalisme et le pluralisme révèlent les difficultés de notre temps : comment une société peut-elle promouvoir le respect de soi des individus dans un tel contexte de diversité morale, compréhensive, religieuse, etc.? Critiquant les théories de John Rawls, Will Kymlicka, ainsi que certains arguments de philosophes tels que Bhiku Parekh et David Miller, la thèse défendue dans ce mémoire prend la position très forte qu’une société doit donner beaucoup plus de moyens aux individus pour que leur respect de soi soit favorisé. La thèse centrale est que les individus ont tous le droit à un contexte de valorisation, soit un espace politique propre à une communauté ou un groupe et qui inclut les institutions et les pouvoirs nécessaires pour que le respect de soi des membres de ces groupes puisse être favorisé. C’est seulement par un tel droit et par les revendications structurelles et institutionnelles qui s’y rapportent que les groupes culturels et religieux, ainsi que les communautés morales et les groupes compréhensifs peuvent être reconnus politiquement et qu’une théorie libérale et multiculturelle des individus et des groupes puisse concilier idéal et réalité.
Resumo:
La présente étude a analysé l’évolution de l’Administration Canadienne de la Sureté du Transport Aérien (ACSTA) depuis sa mise en place jusqu’aujourd’hui, ainsi que les acteurs individuels ou institutionnels impliqués dans ce processus. L’ACSTA gravite dans un champ organisationnel ‐ensemble d’organisations qui constituent un domaine reconnu de la vie institutionnelle (DiMaggio et Powell, 1983)- au sein duquel agissent différents acteurs qui ont influencé non seulement sa création, mais qui ont continué à jouer un rôle important tout au long de son évolution. Nous avons défini le champ de la sûreté aérienne et au sein de celui‐ci, nous avons analysé les mécanismes institutionnels, tout en identifiant et définissant le rôle des différents acteurs en présence. Il ressort de nos analyses que principalement deux types de contraintes institutionnelles (DiMaggio et Powell, 1983) ont influencé la création et le développement de l’ACSTA. Premièrement, mis à part les contraintes coercitives émanant de la règlementation internationale de l’Organisation de l’Aviation Civile Internationale, il apparait que d’autres contraintes du même type proviennent du gouvernement américain, par le biais de pressions visant à la mise en place de mesures sécuritaires, tant au moment de la création que tout le long de l’évolution de l’organisation. Il est à noter, cependant, le rôle du terrorisme et des tentatives d’attentat comme provocant de telles contraintes. Deuxièmement, nous avons identifié des contraintes du type normatif, c’est-à‐dire celles qui proviennent des valeurs, des normes et du bagage professionnel lié à la sécurité et à la sureté aérienne. Il apparait que les contraintes normatives agissent constamment alors que les contraintes coercitives surgissent ponctuellement tout au long de la période analysée.
Resumo:
Le Québec est une immense province à l’intérieur de laquelle existe une grande diversité de conditions bioclimatiques et où les perturbations anthropiques et naturelles du couvert végétal sont nombreuses. À l’échelle provinciale, ces multiples facteurs interagissent pour sculpter la composition et la distribution des paysages. Les objectifs généraux de cette recherche visaient à explorer et comprendre la distribution spatiale des patrons des paysages du Québec, de même qu’à caractériser les patrons observés à partir d’images satellitaires. Pour ce faire, les patrons des paysages ont été quantifiés avec un ensemble complet d’indices calculés à partir d’une cartographie de la couverture végétale. Plusieurs approches ont été développées et appliquées pour interpréter les valeurs d’indices sur de vastes étendues et pour cartographier la distribution des patrons des paysages québécois. Les résultats ont révélé que les patrons de la végétation prédits par le Ministère des Ressources naturelles du Québec divergent des patrons de la couverture végétale observée. Ce mémoire dresse un portrait des paysages québécois et les synthétise de manière innovatrice, en plus de démontrer le potentiel d’utilisation des indices comme attributs biogéographiques à l’échelle nationale.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.