15 resultados para Posicionamento. IEEE 802.11. LVWNet. Free-space Path Loss. Wireless.Linux. Testbed. Prototipação
em Université de Montréal, Canada
Resumo:
L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.
Resumo:
La présence importante de plusieurs réseaux sans-fils de différentes portées a encouragée le développement d’une nouvelle génération d’équipements portables sans-fils avec plusieurs interfaces radio. Ainsi, les utilisateurs peuvent bénéficier d’une large possibilité de connectivité aux réseaux sans-fils (e.g. Wi-Fi [1], WiMAX [2], 3G [3]) disponibles autour. Cependant, la batterie d’un nœud mobile à plusieurs interfaces sera rapidement épuisée et le temps d’utilisation de l’équipement sera réduit aussi. Pour prolonger l’utilisation du mobile les standards, des réseaux sans-fils, on définie (individuellement) plusieurs états (émission, réception, sleep, idle, etc.); quand une interface radio n’est pas en mode émission/réception il est en mode sleep/idle où la consommation est très faible, comparée aux modes émission/réception. Pourtant, en cas d’équipement portable à multi-interfaces radio, l’énergie totale consommée par les interfaces en mode idle est très importante. Autrement, un équipement portable équipé de plusieurs interfaces radio augmente sa capacité de connectivité mais réduit sa longévité d’utilisation. Pour surpasser cet inconvénient on propose une plate-forme, qu'on appelle IMIP (Integrated Management of Interface Power), basée sur l’extension du standard MIH (Media Independent Handover) IEEE 802.21 [4]. IMIP permet une meilleure gestion d’énergie des interfaces radio, d’un équipement mobile à multi-radio, lorsque celles-ci entrent en mode idle. Les expérimentations que nous avons exécutées montrent que l’utilisation de IMIP permet d'économiser jusqu'a 80% de l'énergie consommée en comparaison avec les standards existants. En effet, IMIP permet de prolonger la durée d'utilisation d'équipements à plusieurs interfaces grâce à sa gestion efficace de l'énergie.
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
Les réseaux maillés sans fil (RMSF), grâce à leurs caractéristiques avantageuses, sont considérés comme une solution efficace pour le support des services de voix, vidéo et de données dans les réseaux de prochaine génération. Le standard IEEE 802.16-d a spécifié pour les RMSF, à travers son mode maillé, deux mécanismes de planifications de transmission de données; à savoir la planification centralisée et la planification distribuée. Dans ce travail, on a évalué le support de la qualité de service (QdS) du standard en se focalisant sur la planification distribuée. Les problèmes du système dans le support du trafic de voix ont été identifiés. Pour résoudre ces problèmes, on a proposé un protocole pour le support de VoIP (AVSP) en tant qu’extension au standard original pour permettre le support de QdS au VoIP. Nos résultats préliminaires de simulation montrent qu’AVSP offre une bonne amélioration au support de VoIP.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
La navigation repose en majeure partie sur la vision puisque ce sens nous permet de rassembler des informations spatiales de façon simultanée et de mettre à jour notre position par rapport à notre environnement. Pour plusieurs aveugles qui se fient à l’audition, le toucher, la proprioception, l’odorat et l’écholocation pour naviguer, sortir à l’extérieur de chez soi peut représenter un défi considérable. Les recherches sur le circuit neuronal de la navigation chez cette population en particulier s’avèrent donc primordiales pour mieux adapter les ressources aux handicapés visuels et réussir à les sortir de leur isolement. Les aveugles de naissance constituent aussi une population d’intérêt pour l’étude de la neuroplasticité. Comme leur cerveau s’est construit en absence d’intrant visuel, la plupart des structures reliées au sens de la vue sont réduites en volume par rapport à ceux de sujets voyants. De plus, leur cortex occipital, une région normalement dédiée à la vision, possède une activité supramétabolique au repos, ce qui peut représenter un territoire vierge pouvant être recruté par les autres modalités pour exécuter diverses tâches sensorielles. Plusieurs chercheurs ont déjà démontré l’implication de cette région dans des tâches sensorielles comme la discrimination tactile et la localisation auditive. D’autres changements plastiques de nature intramodale ont aussi été observés dans le circuit neuronal de la navigation chez ces aveugles. Par exemple, la partie postérieure de l’hippocampe, impliquée dans l’utilisation de cartes mentales, est réduite en volume alors que la section antérieure est élargie chez ces sujets. Bien que ces changements plastiques anatomiques aient bel et bien été observés chez les aveugles de naissance, il reste toutefois à les relier avec leur aspect fonctionnel. Le but de la présente étude était d’investiguer les corrélats neuronaux de la navigation chez l’aveugle de naissance tout en les reliant avec leurs habiletés spatio-cognitives. La première étude comportementale a permis d’identifier chez les aveugles congénitaux une difficulté d’apprentissage de routes tactiles construites dans des labyrinthes de petite échelle. La seconde étude, employant la technique d’imagerie par résonance magnétique fonctionnelle, a relié ces faiblesses au recrutement de régions cérébrales impliquées dans le traitement d’une perspective égocentrique, comme le lobule pariétal supérieur droit. Alors que des sujets voyants aux yeux bandés excellaient dans la tâche des labyrinthes, ces derniers recrutaient des structures impliquées dans un traitement allocentrique, comme l’hippocampe et le parahippocampe. Par ailleurs, la deuxième étude a confirmé le recrutement du cortex occipital dans une tâche de navigation chez les aveugles seulement. Ceci confirme l’implication de la plasticité intermodale dans des tâches cognitives de plus haut niveau, comme la navigation.
Resumo:
Le rapport occidental moderne au sacré s’est transformé de façon importante au 20e siècle avec le processus de sécularisation. Cette désagrégation d’un sacré traditionnel laisse un vide – principalement existentiel et spirituel – là où auparavant certains contenus associés au sacré permettaient de se positionner dans et face à l’universel, c’est-à-dire d’occuper une place dans le monde et les institutions qui l’organisent et d’investir cette place d’un sens compris, accepté et partagé autant individuellement que collectivement. De toute évidence, un tel processus d’effritement ne s’opère pas sans restes et la littérature est un espace qui recueille ces vestiges d’un sacré en transformation, d’un sacré qui fait l’objet d’une quête. L’écriture de Cioran représente un lieu exemplaire où sont concentrés ces vestiges et elle est aussi l’outil ou le médium par lequel la quête s’effectue. Son écriture tiraillée, pétrie d’un malaise existentiel et d’un doute profond, témoigne d’un refus, pensé comme une incapacité, à souscrire aux visions traditionnelles, surannées, du sacré. Généralement considérée par la critique comme inclassable – ni tout à fait philosophique, ni tout à fait littéraire – l’œuvre de Cioran souligne pourtant l’importance de la littérature comme modalité de l’esprit. Cette œuvre met en lumière le rôle de la littérature pour la pensée dans la mesure où elle est un espace qui permet d’accueillir la pensée en quête d’un sacré hors-cadre, en même temps qu’elle se fait le moyen d’une recherche plus libre, plus personnelle, du sacré. La littérature devient donc le réceptacle autant que le moyen d’une quête pleinement existentielle, une quête qui n’est ni représentée ni confessée, mais bien mise en scène, c’est-à-dire dramatisée. Le « je » qu’on retrouve partout dans l’œuvre de Cioran n’est pas le « je » d’une confession, mais bien un « je » narratif qui n’équivaut pas au « je » de l’écrivain. C’est précisément dans le décalage lié à la dramatisation qu’apparaît le paradoxe propre au savoirparticulier que porte la littérature: soit ce caractère personnel, incarné, particulier qui devient le véhicule d’une expérience universelle dans la mesure où elle a le pouvoir ou le potentiel d’abriter l’expérience personnelle d’un lecteur qui performe, pour lui-même, le texte. En ce sens, écriture et lecture sont """! imbriquées, comme deux faces d’une même réalité, dans cette quête d’un sacré qui se produit chez Cioran dans un espace d’exception, en dehors des institutions. À partir de l’exemplarité de l’œuvre cioranienne, cette thèse propose une réflexion qui porte sur la littérature comme mode d’inscription des vestiges du sacré ainsi que comme manifestation et moyen d’une quête d’un sacré débarrassé des balises institutionnelles, et qui tente de mettre en lumière le type de savoir propre à la littérature sous l’angle précis de la dramatisation littéraire dans le contexte particulier de cette quête.
Resumo:
Ce mémoire de maîtrise est une recherche exploratoire sur les expériences de localisation vécues dans l’espace urbain montréalais par des sujets en relation à l’information dite « de localisation ». La localisation est un processus d’orientation spatiale où l’emplacement d’un lieu dans l’espace est un problème à résoudre. Cette exploration est basée sur la théorisation de l’information proposée par Bateson (1972) et le développement du concept de dispositif par Belin (2002) et Agamben (2007) à la suite de Foucault, la localisation étant le concept empirique exploratoire. Le processus de localisation est investigué quant à son caractère médiatique : l’information de localisation est le medium qui, en étant un résultat et une cause de l’action, donne forme à ce processus mené par l’effort. Un travail de terrain ethnométhodologique déployé par le biais d’observations empiriques et d’entrevues qualitatives permet d’identifier certaines conditions qui rendent possibles, dans la vie quotidienne, les relations entre l’information de localisation, l’espace urbain et un sujet. Étant majoritairement vécue lors de déplacements présents, futurs ou passés, la localisation est ainsi conceptualisée en tant que wayfinding : l’action de déterminer quelles voies ou trajets emprunter pour se rendre d’un point A à un point B. Ce mémoire est en réalité une problématisation ouverte qui vise à explorer et identifier certains enjeux qui sont au cœur des processus de localisation dans l’espace urbain montréalais. Si « [l]e fait humain par excellence », comme le souligne Leroi-Gouhran (1965) « est peut-être moins la création de l’outil que la domestication du temps et de l’espace » (p. 139), le fait d’habiter en un certain temps et en un certain espace est en soi une relation problématique de confiance. Le vivant et le non-vivant habitent des espaces aménagés qui sont continuellement transformés par leur détermination mutuelle. En partant du constat que l’environnement construit se déploie en étant produit et aménagé dans des dispositions où certains de nos gestes sont délégués, peut-on envisager être libre sans (se) faire confiance ?
Resumo:
Cet essai fut écrit sur le mode de la promenade, d’une promenade accompagnée par les voix, des voix. Parmi elles, celle de Colette, de certains de ses personnages, celles contenues en moi. L’écriture a été libre, a tenté de l’être au moins, en se séparant de l’idée qu’un but précis, qu’une destination finale devait être atteinte. Il s’agissait de me laisser guider par l’errance des mots, par le rythme que prend la plume quand elle pense. De Colette, je ne dis rien, ou presque. Mon but étant de l’entendre, c’est en tant que lectrice que j’ai pris place dans cette réflexion, lectrice amoureuse, c’est-à-dire, guidée par l’En-Amour, conçu comme personnage conceptuel. C’est donc de ce point de vue que les textes ont été abordés, afin de laisser place à la vie, à la mouvance, à ce qui grouille dans l’œuvre colettienne. De cette manière, il me semblait possible d’entrer réellement en relation avec les personnages, mais aussi avec la représentation que je me faisais de l’auteure. Il me fallait garder la poésie de l’écriture de Colette, y entrelacer la mienne et tenter ainsi de donner des mots à une sorte de silencieuse oralité. Et le chemin s’est poursuivi, jusqu’à une vérité relative, vérité de l’En-Amour, donnée et mise en forme par les récits colettiens et leurs sous-entendus. De cette façon, je voyais la possibilité de redonner foi et valeur au(x) discours amoureux comme potentiel(s) de vérité.
Resumo:
Composé de fragments narratifs et poétiques, C’est ici que le verbe habiter s’est déchiré retrace le parcours d’un jeune homme de retour dans sa ville natale, Québec. En déambulant à travers les rues, mais également à travers sa propre mémoire, le narrateur trouvera sur son chemin le point de rupture entre passé et présent. C’est ici que le verbe habiter s’est déchiré élabore une réflexion sur ces lieux et ces époques qui, même révolus, semblent ne jamais vouloir nous quitter, le tout dans une écriture où le silence est parfois aussi éloquent que la parole. Comme son nom l’indique, Sudbury : l’habitabilité de la poésie chez Patrice Desbiens est un essai traitant de la poésie comme espace d’habitation dans Sudbury de Patrice Desbiens, une œuvre mettant en scène le quotidien d’une petite ville du nord de l’Ontario. Face à ce lieu froid et désert où rien ne semble vouloir subsister, dans cette ville qu’il décrit à la fois comme factice, violente et inhabitable, Desbiens semble croire que seule l’écriture est authentique et porteuse d’une vérité. Dès lors, en signant son recueil Sudbury, le nom de cette ville qu’il habite, le poète ne se pose-t-il pas comme le véritable auteur des lieux? Ne donne-t-il pas un sens à ce qui, auparavant, en était dépourvu? N’y a-t-il pas, au final, substitution de l’espace urbain oppressant par celui, plus hospitalier, de la poésie?
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
La création cinématographique de l’étudiant qui accompagne ce mémoire sous la forme d’un DVD est disponible à la Médiathèque de la Bibliothèque des lettres et sciences humaines sous le titre : She is Lars.(http://atrium.umontreal.ca/notice/UM-ALEPH002343877)
Resumo:
À l’intérieur de la cellule sillonnent d’innombrables molécules, certaines par diffusion et d’autres sur des routes moléculaires éphémères, empruntées selon les directives spécifiques de protéines responsables du trafic intracellulaire. Parmi celles-ci, on compte les sorting nexins, qui déterminent le sort de plusieurs types de protéine, comme les récepteurs, en les guidant soit vers des voies de dégradation ou de recyclage. À ce jour, il existe 33 membres des sorting nexins (Snx1-33), tous munies du domaine PX (PHOX-homology). Le domaine PX confère aux sorting nexins la capacité de détecter la présence de phosphatidylinositol phosphates (PIP), sur la surface des membranes lipidiques (ex : membrane cytoplasmique ou vésiculaire). Ces PIPs, produits de façon spécifique et transitoire, recrutent des protéines nécessaires à la progression de processus cellulaires. Par exemple, lorsqu’un récepteur est internalisé par endocytose, la région avoisinante de la membrane cytoplasmique devient occupée par PI(4,5)P2. Ceci engendre le recrutement de SNX9, qui permet la progression de l’endocytose en faisant un lien entre le cytoskelette et le complexe d’endocytose. Les recherches exposées dans cette thèse sont une description fonctionnelle de deux sorting nexins peux connues, Snx11 et Snx30. Le rôle de chacun de ces gènes a été étudié durant l’embryogenèse de la grenouille (Xenopus laevis). Suite aux résultats in vivo, une approche biomoléculaire et de culture cellulaire a été employée pour approfondir nos connaissances. Cet ouvrage démontre que Snx11 est impliqué dans le développement des somites et dans la polymérisation de l’actine. De plus, Snx11 semble influencer le recyclage de récepteurs membranaires indépendamment de l’actine. Ainsi, Snx11 pourrait jouer deux rôles intracellulaires : une régulation actine-dépendante du milieu extracellulaire et le triage de récepteurs actine-indépendant. De son côté, Snx30 est impliqué dans la différentiation cardiaque précoce par l’inhibition de la voie Wnt/β-catenin, une étape nécessaire à l’engagement d’une population de cellules du mésoderme à la ligné cardiaque. L’expression de Snx30 chez le Xénope coïncide avec cette période critique de spécification du mésoderme et le knockdown suscite des malformations cardiaques ainsi qu’à d’autres tissus dérivés du mésoderme et de l’endoderme. Cet ouvrage fournit une base pour des études futures sur Snx11 et Snx30. Ces protéines ont un impact subtil sur des voies de signalisation spécifiques. Ces caractéristiques pourraient être exploitées à des fins thérapeutiques puisque l’effet d’une interférence avec leurs fonctions pourrait être suffisant pour rétablir un déséquilibre cellulaire pathologique tout en minimisant les effets secondaires.
Resumo:
L’objectif principal de cette thèse de doctorat en composition consiste en la conceptualisation et création d’une oeuvre pour guitare électrique et dispositif électronique se situant à un point de rencontre stylistique entre le free jazz, la musique électro glitch et le drone métal. Le présent texte vise principalement à expliciter la démarche de création de cette oeuvre, intitulée feedback. À la suite du chapitre d'introduction qui décrit l'origine et les objectifs de ce projet de composition, le premier chapitre est consacré à une réflexion sur l'improvisation musicale. En partant d'une description générale de cette pratique et de ses origines, cinq manifestations de l'improvisation qui ont influencé l’oeuvre y sont décrites. Dans le deuxième chapitre est présentée l'hyperguitare qui a été développée pour la pièce ainsi que la description de ses composantes matérielles et logicielles. Dans le troisième chapitre sont décrits le contexte de création, le rôle de l’improvisation dans le processus de création et la description technique des quatre oeuvres composées en amont de feedback. Le quatrième chapitre est dédié à la pièce feedback inspirée de l'œuvre cinématographique et littéraire Fight Club et imprégnée, sur le plan stylistique, de la culture rock, du free jazz et de la musique électroacoustique glitch. En conclusion sont présentés les nouveaux objectifs que ces recherches ont engendrés.