206 resultados para filtre col·laboratiu
Resumo:
Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.
Resumo:
Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.
Resumo:
David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
On évoque souvent des difficultés à interagir socialement chez les enfants ayant une dysphasie. Ces difficultés sont généralement attribuées aux troubles du langage, mais elles pourraient aussi provenir d’un problème à décoder les émotions des autres. Le but de la présente recherche est d’explorer cette voie chez les enfants dysphasiques de 9 à 12 ans. Différents stimuli émotionnels leur ont été présentés sous forme de vidéos ainsi qu’à des enfants d’un groupe contrôle selon cinq conditions : parole non filtrée, parole filtrée, visage dynamique, visage dynamique accompagné de la parole non filtrée, et visage dynamique avec parole filtrée. Les enfants dysphasiques et les enfants du groupe contrôle ne se comportent pas différemment de manière significative en fonction des émotions présentées et des conditions testées. Par contre, un sous-groupe d’enfants ayant une dysphasie mixte commet significativement plus d’erreurs pour l’ensemble de la tâche que le sous-groupe d’enfants sans dysphasie de même âge chronologique. En fait une part seulement des enfants dysphasiques mixtes ont des scores plus faibles. Ces mêmes enfants présentent un QI non verbal faible tandis que leur compréhension du langage est équivalente à celle de leur sous-groupe (enfants dysphasiques mixtes). Malgré ces différences significatives, les scores des enfants dysphasiques mixtes restent relativement élevés et les difficultés observées sont subtiles. Sur le plan clinique, les praticiens (orthophonistes, psychologues, éducateur) devront systématiser l’évaluation des habiletés de décodage des émotions chez l’enfant dysphasique dont les difficultés ne sont pas forcément évidentes dans la vie quotidienne. La recherche devra développer un outil de dépistage sensible aux troubles de décodage émotionnel et des stratégies thérapeutiques adaptées.
Resumo:
Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Article publié dans le journal « Journal of Information Security Research ». March 2012.
Resumo:
Les évolutions scientifiques et technologiques engendrent des risques environnementaux complexes. Ces risques doivent être gérés démocratiquement, dans l’intérêt du dêmos. Dans la démocratie représentative, les autorités publiques recourent souvent à l’expertise scientifique pour éclairer leurs décisions relatives à ces risques. Or, ces experts ne le sont pas dans d’autres aspects tout aussi importants tels que les considérations éthiques et les perceptions des risques par le dêmos. En principe, les autorités publiques intègreraient ces autres aspects dans leurs décisions relatives aux risques environnementaux : sur la base d’une évaluation scientifique d’un risque déterminé, les représentants en assureraient une gestion démocratique. Autrement formulé, les autorités publiques garantiraient un filtre démocratique entre l’évaluation scientifique d’un risque environnemental et la décision publique relative à ce risque. Or, sous l’influence exclusive des experts scientifiques et éloignée du dêmos, elles ne sont pas aptes à garantir ce filtre. Les décisions publiques relatives aux risques environnementaux se calquent principalement sur l’évaluation scientifique de ceux-ci. Afin de pallier ces écueils l’idée de faire participer directement le dêmos à l’élaboration de la décision publique environnementale est née. Cette participation enrichirait et nuancerait l’expertise scientifique et permettrait aux autorités publiques d’intégrer dans leurs décisions d’autres facettes des risques environnementaux que les facettes purement scientifiques. Le filtre démocratique entre l’évaluation scientifique et la décision publique serait rétabli. D’abord organisée, en droit international, dans le cadre de l’évaluation des incidences sur l’environnement d’activités susceptibles d’y avoir un impact significatif, la participation directe du public au processus décisionnel a ensuite été étendue. Cela a été tout particulièrement illustré par la convention d’Århus du 25 juin. L’intervention examinera si et comment le système participatif de la convention d’Århus assure réellement une gestion démocratique du risque environnemental et pointera de sérieuses faiblesses démocratiques du système. Explorant les potentialités du système participatif de la convention d’Århus, l’intervention offrira des suggestions pour remédier à ses faiblesses, afin d’assurer une gestion véritablement démocratique du risque environnemental.
Resumo:
Les entraîneurs en sports acrobatiques disposent de peu d’outils permettant d’améliorer leur compréhension des saltos vrillés et la performance des athlètes. L’objectif de ce mémoire était de développer un environnement graphique de simulation numérique réaliste et utile des acrobaties aériennes. Un modèle composé de 17 segments et de 42 degrés de liberté a été développé et personnalisé à une athlète de plongeon. Un système optoélectronique échantillonné à 300 Hz a permis l’acquisition de huit plongeons en situation réelle d’entraînement. La cinématique articulaire reconstruite avec un filtre de Kalman étendu a été utilisée comme entrée du modèle. Des erreurs quadratiques moyennes de 20° (salto) et de 9° (vrille) entre les performances simulées et réelles ont permis de valider le modèle. Enfin, une formation basée sur le simulateur a été offerte à 14 entraîneurs en sports acrobatiques. Une augmentation moyenne de 11 % des résultats aux questionnaires post-test a permis de constater le potentiel pédagogique de l’outil pour la formation.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.