16 resultados para Easy Java Simulations

em Université de Montréal, Canada


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Affiliation: Département de biochimie, Faculté de médecine, Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ces dernières années, les technologies sans fil ont connu un essor fulgurant. Elles ont permis la mise en place de réseaux sans fil à hautes performances. Les réseaux maillées sans fil (RMSF) sont une nouvelle génération de réseaux sans fil qui offrent des débits élevés par rapport aux réseaux Wi-Fi (Wireless Fidelity) classiques et aux réseaux ad-hoc. Ils présentent de nombreux avantages telles que leur forte tolérance aux pannes, leur robustesse, leur faible coût etc. Les routeurs des RMSF peuvent disposer de plusieurs interfaces radio et chaque interface peut opérer sur plusieurs canaux distincts, c’est des RMSF multiples-radios, multiples-canaux. Ce type de réseau peut accroître de manière considérable les performances des RMSF. Cependant plusieurs problèmes subsistent et doivent être résolus notamment celui du routage. Le routage dans les RMSF demeure un défi majeur. Le but des protocoles de routage est de trouver les meilleures routes i.e. des routes qui maximisent les débits et minimisent les délais, lors de l’acheminement du trafic. La qualité des routes dans les RMSF peut être fortement affectée par les interférences, les collisions, les congestions etc. Alors les protocoles doivent être en mesure de détecter ces problèmes pour pouvoir en tenir compte lors de la sélection des routes. Plusieurs études ont été dédiées aux métriques et aux protocoles de routage dans les RMSF afin de maximiser les performances de celles ci. Mais la plupart ne prennent pas en considération toutes les contraintes telles que les interférences, le problème des stations cachées etc. Ce mémoire propose une nouvelle métrique de routage pour RMSF. Nous avons mis en place une nouvelle métrique de routage pour RMSF appelée MBP (Metric Based on Probabilities). Cette métrique est destinée aux RMSF mono-radio ou multiples-radios. Elle permet d’éviter les routes à forte ii interférence. Les résultats des simulations ont montré que MBP présente des améliorations par rapport à certaines métriques : ETT, WCETT et iAWARE qui sont connues dans le domaine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les simulations ont été implémentées avec le programme Java.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fibrillation auriculaire, l'arythmie la plus fréquente en clinique, affecte 2.3 millions de patients en Amérique du Nord. Pour en étudier les mécanismes et les thérapies potentielles, des modèles animaux de fibrillation auriculaire ont été développés. La cartographie électrique épicardique à haute densité est une technique expérimentale bien établie pour suivre in vivo l'activité des oreillettes en réponse à une stimulation électrique, à du remodelage, à des arythmies ou à une modulation du système nerveux autonome. Dans les régions qui ne sont pas accessibles par cartographie épicardique, la cartographie endocardique sans contact réalisée à l'aide d'un cathéter en forme de ballon pourrait apporter une description plus complète de l'activité auriculaire. Dans cette étude, une expérience chez le chien a été conçue et analysée. Une reconstruction électro-anatomique, une cartographie épicardique (103 électrodes), une cartographie endocardique sans contact (2048 électrodes virtuelles calculées à partir un cathéter en forme de ballon avec 64 canaux) et des enregistrements endocardiques avec contact direct ont été réalisés simultanément. Les systèmes d'enregistrement ont été également simulés dans un modèle mathématique d'une oreillette droite de chien. Dans les simulations et les expériences (après la suppression du nœud atrio-ventriculaire), des cartes d'activation ont été calculées pendant le rythme sinusal. La repolarisation a été évaluée en mesurant l'aire sous l'onde T auriculaire (ATa) qui est un marqueur de gradient de repolarisation. Les résultats montrent un coefficient de corrélation épicardique-endocardique de 0.8 (expérience) and 0.96 (simulation) entre les cartes d'activation, et un coefficient de corrélation de 0.57 (expérience) and 0.92 (simulation) entre les valeurs de ATa. La cartographie endocardique sans contact apparait comme un instrument expérimental utile pour extraire de l'information en dehors des régions couvertes par les plaques d'enregistrement épicardique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s’intéresse à la modélisation magnétohydrodynamique des écoulements de fluides conducteurs d’électricité multi-échelles en mettant l’emphase sur deux applications particulières de la physique solaire: la modélisation des mécanismes des variations de l’irradiance via la simulation de la dynamo globale et la reconnexion magnétique. Les variations de l’irradiance sur les périodes des jours, des mois et du cycle solaire de 11 ans sont très bien expliquées par le passage des régions actives à la surface du Soleil. Cependant, l’origine ultime des variations se déroulant sur les périodes décadales et multi-décadales demeure un sujet controversé. En particulier, une certaine école de pensée affirme qu’une partie de ces variations à long-terme doit provenir d’une modulation de la structure thermodynamique globale de l’étoile, et que les seuls effets de surface sont incapables d’expliquer la totalité des fluctuations. Nous présentons une simulation globale de la convection solaire produisant un cycle magnétique similaire en plusieurs aspects à celui du Soleil, dans laquelle le flux thermique convectif varie en phase avec l’ ́energie magnétique. La corrélation positive entre le flux convectif et l’énergie magnétique supporte donc l’idée qu’une modulation de la structure thermodynamique puisse contribuer aux variations à long-terme de l’irradiance. Nous analysons cette simulation dans le but d’identifier le mécanisme physique responsable de la corrélation en question et pour prédire de potentiels effets observationnels résultant de la modulation structurelle. La reconnexion magnétique est au coeur du mécanisme de plusieurs phénomènes de la physique solaire dont les éruptions et les éjections de masse, et pourrait expliquer les températures extrêmes caractérisant la couronne. Une correction aux trajectoires du schéma semi-Lagrangien classique est présentée, qui est basée sur la solution à une équation aux dérivées partielles nonlinéaire du second ordre: l’équation de Monge-Ampère. Celle-ci prévient l’intersection des trajectoires et assure la stabilité numérique des simulations de reconnexion magnétique pour un cas de magnéto-fluide relaxant vers un état d’équilibre.