15 resultados para end-to-end testing, javascript, application web, single-page application
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
"Mémoire présenté à la Faculté des études supérieures En vue de l'obtention du grade de maîtrise en droit"
Resumo:
This paper studies seemingly unrelated linear models with integrated regressors and stationary errors. By adding leads and lags of the first differences of the regressors and estimating this augmented dynamic regression model by feasible generalized least squares using the long-run covariance matrix, we obtain an efficient estimator of the cointegrating vector that has a limiting mixed normal distribution. Simulation results suggest that this new estimator compares favorably with others already proposed in the literature. We apply these new estimators to the testing of purchasing power parity (PPP) among the G-7 countries. The test based on the efficient estimates rejects the PPP hypothesis for most countries.
Resumo:
Soit (M,ω) un variété symplectique fermée et connexe.On considère des sous-variétés lagrangiennes α : L → (M,ω). Si α est monotone, c.- à-d. s’il existe η > 0 tel que ημ = ω, Paul Biran et Octav Conea ont défini une version relative de l’homologie quantique. Dans ce contexte ils ont déformé l’opérateur de bord du complexe de Morse ainsi que le produit d’intersection à l’aide de disques pseudo-holomorphes. On note (QH(L), ∗), l’homologie quantique de L munie du produit quantique. Le principal objectif de cette dissertation est de généraliser leur construction à un classe plus large d’espaces. Plus précisément on considère soit des sous-variétés presque monotone, c.-à-d. α est C1-proche d’un plongement lagrangian monotone ; soit les fibres toriques de variétés toriques Fano. Dans ces cas non nécessairement monotones, QH(L) va dépendre de certains choix, mais cela sera irrelevant pour les applications présentées ici. Dans le cas presque monotone, on s’intéresse principalement à des questions de déplaçabilité, d’uniréglage et d’estimation d’énergie de difféomorphismes hamiltoniens. Enfin nous terminons par une application combinant les deux approches, concernant la dynamique d’un hamiltonien déplaçant toutes les fibres toriques non-monotones dans CPn.
Resumo:
That study attempted to elaborate the problematic of [Leigh Hunt's] position within the London literary and political scene between the years 1805 and1828, the contributions he made to British literature and journalism, and his public standing at the end of the romantic period. Since Hunt's life is obviously too complex to be rendered fully in any single study, the idea was not to attempt an exhaustive history, but rather to present a starting point for further inquiry into Hunt's career as a writer and public figure under the reign of Queen Victoria. [...]
Resumo:
We consider a probabilistic approach to the problem of assigning k indivisible identical objects to a set of agents with single-peaked preferences. Using the ordinal extension of preferences, we characterize the class of uniform probabilistic rules by Pareto efficiency, strategy-proofness, and no-envy. We also show that in this characterization no-envy cannot be replaced by anonymity. When agents are strictly risk averse von-Neumann-Morgenstern utility maximizers, then we reduce the problem of assigning k identical objects to a problem of allocating the amount k of an infinitely divisible commodity.
Resumo:
Although Insurers Face Adverse Selection and Moral Hazard When They Set Insurance Contracts, These Two Types of Asymmetrical Information Have Been Given Separate Treatments Sofar in the Economic Literature. This Paper Is a First Attempt to Integrate Both Problems Into a Single Model. We Show How It Is Possible to Use Time in Order to Achieve a First-Best Allocation of Risks When Both Problems Are Present Simultaneously.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Introduction : Les pressions sont fortes envers les professionnels de la santé pour qu’ils appliquent une pratique factuelle. Toutefois, un écart important demeure entre les résultats des recherches et la réalité clinique. Par son aspect interactif, le Web 2.0 peut contribuer à l’application des données probantes en facilitant l’accès et l’échange de connaissances. Objectif : Ce projet de recherche s’inscrit dans une étude visant à élaborer une plateforme informatisée pour les professionnels travaillant avec la clientèle ayant subi un accident vasculaire cérébral (AVC). L’objectif de la présente étude est de décrire la perception des professionnels de la santé face à l’introduction du Web 2.0 dans leur pratique. Méthode : Un devis de recherche qualitatif avec une approche phénoménologique a été utilisé. Des entrevues individuelles semi-structurées ont été menées auprès de 24 professionnels et gestionnaires. Résultats : Les personnes interviewées étaient toutes des femmes avec un âge moyen de 45 ans (± 18). Le transfert des connaissances est l’utilité du Web 2.0 qui émerge des participants comme étant la plus importante. Les répondants ont également exprimé avoir besoin d'une plateforme conviviale. Les résultats soulignent également un paradoxe lié au temps. En effet, les répondants estiment que le Web 2.0 pourrait leur permettre de sauver du temps, cependant ils affirment qu'ils n'auront pas le temps de l'utiliser. Conclusion : Bien que le Web 2.0 demeure un outil de transfert de connaissances peu intégré dans la pratique, les professionnels travaillant avec la clientèle AVC perçoivent généralement positivement son introduction dans leur pratique.
Resumo:
L’objectif de cette étude est de vérifier si un ciment ostéoconducteur résorbable utilisé comme technique de fixation de greffons ostéochondraux permet d'obtenir une stabilité initiale supérieure à celle obtenue avec la technique de mosaicplastie originalement décrite. Il s’agit d’une étude biomécanique effectuée sur des paires de fémurs cadavériques bovins. Pour chaque paire de fémurs, des greffons ostéochondraux autologues ont été insérés et stabilisés au moyen d’un ciment biorésorbable (Kryptonite, DRG inc.) sur un fémur alors qu’au fémur controlatéral, les greffons ont été implantés par impaction selon la technique usuelle de mosaicplastie. Des greffons uniques ainsi que des greffons en configuration groupée ont été implantés et soumis à une évaluation biomécanique. Les charges axiales nécessaires pour enfoncer les greffons de 1, 2 et 3 mm ont été comparées en fonction de la technique de stabilisation utilisée, ciment ou impaction, pour chaque configuration de greffons. Les résultats démontrent que les greffons ostéochondraux cimentés uniques et groupés ont une stabilité initiale supérieure à celle de greffons non cimentés sur des spécimens cadavériques bovins. L’obtention d’une plus grande stabilité initiale par cimentation des greffons ostéochondraux pourrait permettre une mise en charge précoce post-mosaicplastie et mener à une réhabilitation plus rapide.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.
Resumo:
Étude de cas / Case study
Resumo:
Site web associé au mémoire: http://daou.st/JSreal
Resumo:
La vie commence par la fusion des gamètes pour générer un zygote, dans lequel les constituants à la fois de l'ovocyte et des spermatozoïdes sont partagés au sein d'un syncytium. Le syncytium consiste en des cellules ou tissus dans lesquels des cellules nucléées individuelles distinctes partagent un cytoplasme commun. Alors que l’avantage du syncytium durant la fécondation est tout à fait évident, les syncytia se produisent également dans de nombreux contextes de développement différents dans les plantes, les champignons et dans le règne animal, des insectes aux humains, pour des raisons qui ne sont pas immédiatement évidentes. Par exemple, la lignée germinale de nombreuses espèces de vertébrés et d'invertébrés, des insectes aux humains, présente une structure syncytiale, suggérant que les syncytia constituent des phases conservées de développement de la lignée germinale. Malgré la prévalence commune des syncytia, ces derniers ont cependant confondu les scientifiques depuis des décennies avec des questions telles que la façon dont ils sont formés et maintenus en concurrence avec leurs homologues diploïdes, et quels sont les avantages et les inconvénients qu'ils apportent. Cette thèse va décrire l'utilisation de la lignée germinale syncytiale de C. elegans afin d'approfondir notre compréhension de l'architecture, la fonction et le mode de formation des tissus syncytiaux. Les cellules germinales (CGs) dans la lignée germinale de C. elegans sont interconnectées les unes aux autres par l'intermédiaire de structures appelées des anneaux de CG. En utilisant l'imagerie des cellules vivantes, nous avons d'abord analysé l'architecture syncytiale de la lignée germinale au long du développement et démontré que la maturation de l'anneau de CG se produit progressivement au cours de la croissance des larves et que les anneaux de CG sont composés de myosine II, de l'anilline canonique ANI-1, et de la courte isoforme d’anilline ANI-2, qui n'a pas les domaines de liaison à l’actine et à la myosine, depuis le premier stade larvaire, L1. Parmi les composants de l'anneau de CG, ANI-2 est exprimé au cours du développement et exclusivement enrichi entre les deux CGs primordiales (CGPs) au cours de l'embryogenèse de C. elegans, indiquant qu’ANI-2 est un composant bona fide des anneaux de CG. Nous avons en outre montré que les anneaux de CG sont largement absents dans les animaux mutants pour ani-2, montrant que leur maintien repose sur l'activité d'ANI-2. Contrairement à cela, nous avons trouvé que la déplétion d’ANI-1 a augmenté à la fois le diamètre des anneaux de CG et la largeur du rachis. Fait intéressant, la déplétion d’ANI-1 dans les mutants d’ani-2 a sauvé les défauts d'anneaux de CG des gonades déficientes en ani-2, ce qui suggère que l'architecture syncytiale de la lignée germinale de C. elegans repose sur un équilibre de l'activité de ces deux protéines Anilline. En outre, nous avons montré que lors de leur entrée à l'âge adulte, les mutants ani-2 présentent de sévères défauts de multinucléation des CGs qui découlent de l'effondrement des membranes de séparation des CGs individuelles. Cette multinucléation a coïncidé avec le début de la diffusion cytoplasmique, dont le blocage réduit la multinucléation des gonades mutantes pour ani-2, suggérant que les anneaux de CG résistent au stress mécanique associé au processus de diffusion cytoplasmique. En accord avec cela, nous avons trouvé aussi que la gonade peut soutenir la déformation élastique en réponse au stress mécanique et que cette propriété repose sur la malléabilité des anneaux de CGs. Dans une étude séparée afin de comprendre le mécanisme de formation du syncytium, nous avons suivi la dynamique de division de la cellule précurseur de la lignée germinale, P4 en deux CGP dans l’embryon de C. elegans. Nous avons démontré que les CGPs commencent la cytocinèse de manière similaire aux cellules somatiques, en formant un sillon de clivage, qui migre correctement et transforme ainsi l'anneau contractile en anneau de « midbody ring » (MBR), une structure qui relie de manière transitoire les cellules en division. Malgré cela, les CGPs, contrairement à leurs homologues somatiques, ne parviennent pas à accomplir la dernière étape de la cytocinèse, qui est la libération abscission-dépendante du MBR. Au lieu de cela, le MBR persiste à la frontière entre les CGPs en division et subit une réorganisation et une maturation pour se transformer finalement en structures en forme d'anneau qui relient les cellules en division. Nous montrons en outre que les composants du MB/MBR; UNC-59Septin, CYK-7, ZEN-4Mklp1, RHO-1RhoA sont localisés à des anneaux de CG au long du développement de la lignée germinale du stade L1 à l'âge adulte, ce qui suggère que les anneaux de CG sont dérivés des MBR. Bien qu'il reste encore beaucoup à faire pour comprendre pleinement le mécanisme précis de la formation du syncytium, le maintien, ainsi que la fonction du syncytium, nos résultats appuient un modèle dans lequel la stabilisation du MBR et la cytocinèse incomplète pourraient être une option conservée dans l’évolution pour la formation du syncytium. En outre, notre travail démontre que les régulateurs de la contractilité peuvent jouer un rôle dans la maturation et l’élasticité de l'anneau de CG au cours du développement de la lignée germinale, fournissant un ajout précieux pour une plus ample compréhension de la syncytiogenèse et de sa fonction.