921 resultados para Adaptive design, D-optimal design, MCMC, Pharmacokinetics
Resumo:
Accelerated life testing (ALT) is widely used to obtain reliability information about a product within a limited time frame. The Cox s proportional hazards (PH) model is often utilized for reliability prediction. My master thesis research focuses on designing accelerated life testing experiments for reliability estimation. We consider multiple step-stress ALT plans with censoring. The optimal stress levels and times of changing the stress levels are investigated. We discuss the optimal designs under three optimality criteria. They are D-, A- and Q-optimal designs. We note that the classical designs are optimal only if the model assumed is correct. Due to the nature of prediction made from ALT experimental data, attained under the stress levels higher than the normal condition, extrapolation is encountered. In such case, the assumed model cannot be tested. Therefore, for possible imprecision in the assumed PH model, the method of construction for robust designs is also explored.
Resumo:
UANL
Resumo:
Affiliation: Claudia Kleinman, Nicolas Rodrigue & Hervé Philippe : Département de biochimie, Faculté de médecine, Université de Montréal
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Le design urbain, dimension de la pratique urbanistique, consiste principalement en la manipulation de la forme urbaine selon une démarche ciblée et encadrée. Les approches sont aussi nombreuses que diversifiées. On peut néanmoins les classer en deux catégories : les approches visant la forme urbaine en tant qu‟objet qui contient l‟organisation formelle de la ville et celles qui visent le travail sur la forme urbaine afin d‟organiser la dynamique urbaine humaine. Les deux types d‟approches soutiennent différentes démarches d‟aménagement qui contribuent à développer la forme urbaine et la dynamique des lieux. Parmi celles-ci se trouve la vision de type empirique, laquelle vise l‟expérience urbaine à l‟échelle du piéton. Les écrits et les théories à ce sujet sont variés et pertinents. La présente recherche porte sur la transposition des prescriptions empiriques dans la planification d‟un projet qui intègre une démarche de design urbain. Au moyen d‟une étude de cas, la Cité multimédia à Montréal, il s‟agit de comprendre plus spécifiquement comment le canevas maître du design urbain, soit l‟espace public, est étudié et reformulé et ce, en accordant une attention particulière pour la dimension empirique du futur aménagement. Quelles sont les balises ou les composantes qui permettent à la dimension empirique de se déployer dans la conception d‟un projet urbain qui vise une reformulation de la forme urbaine?
Resumo:
En raison de sa force explicative et opérationnelle, la théorie du choix rationnel est utilisée au sein de plusieurs disciplines des sciences sociales. Alors que la majorité des économistes conçoivent la théorie du choix rationnel comme un processus de maximisation de l’utilité, la portée de ce modèle est le sujet de nombreuses critiques. Pour plusieurs, certaines préférences ne peuvent être modulées à l’intérieur de ce cadre. Dans ce mémoire, trois conceptions alternatives de la théorie du choix rationnel sont présentées : la rationalité comme présence virtuelle, la rationalité comme mécanisme intentionnel et la rationalité en tant que science du choix. Une analyse critique de celles-ci est effectuée. En design institutionnel, ces trois conceptions de la rationalité offrent des perspectives distinctes. La première met l’emphase sur les motivations non-égocentriques. La seconde mise sur l’aspect adaptatif du processus. La rationalité jouant un rôle privilégié, mais non exclusif, les mécanismes causaux doivent également être considérés. La troisième implique de formuler des règles institutionnels différentes dépendamment du modèle de l’agent rationnel qui est mis de l’avant. L’établissement de règles institutionnelles varie en fonction de la conception adoptée parmi ces théories du choix rationnel.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Pour respecter les droits auteur, la version electronique de cette thèse a été dépouillée de ses documents visuels et audio-visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
La présente thèse porte sur l'utilité de la théorie de la fonctionnelle de la densité dans le design de polymères pour applications photovoltaïques. L'étude porte d'abord sur le rôle des calculs théoriques pour la caractérisation des polymères dans le cadre de collaborations entre la théorie et l'expérience. La stabilité et les niveaux énergétiques de certaines molécules organiques sont étudiés avant et après la sulfuration de leurs groupements carbonyles, un procédé destiné à diminuer le band gap. Les propriétés de dynamique électronique, de séparation des porteurs de charges et de spectres de vibrations Raman sont également explorées dans un polymère à base de polycarbazole. Par la suite, l'utilité des calculs théoriques dans le design de polymères avant leurs synthèses est considérée. La théorie de la fonctionnelle de la densité est étudiée dans le cadre du modèle de Scharber afin de prédire l'efficacité des cellules solaires organiques. Une nouvelle méthode de design de polymères à faible band gaps, basée sur la forme structurale aromatique ou quinoide est également présentée, dont l'efficacité surpasse l'approche actuelle de donneur-accepteur. Ces études sont mises à profit dans l'exploration de l'espace moléculaire et plusieurs candidats de polymères aux propriétés électroniques intéressantes sont présentés.
Resumo:
Les cellules dendritiques (DC) sont parmi les premières cellules à rencontrer le virus d’immunodéficience humaine (VIH) au niveau des muqueuses. De plus, le fait que les DC sont, de manière directe ou indirecte par le virus et ses composantes, altérées tant par leur nombre, leur phénotype et leur fonction suggère leur implication dans les dérégulations des cellules B. Selon cette hypothèse, des études longitudinales impliquant des individus infectés au VIH-1 présentant différents profils de progression clinique menées dans notre laboratoire ont démontré que les altérations des cellules B sont concomitantes à une augmentation de l’expression de BLyS/BAFF dans le sang ainsi que par les DC myéloïdes (mDC) sanguines. De plus, lors de travaux antérieurs utilisant le modèle murin VIH-transgénique, les altérations des cellules B ont démontré une implication des DC et d’un excès de BLyS/BAFF, et ce, dépendamment du facteur négatif du VIH (Nef). Dans cette optique, nous investiguons dans cette présente étude l’implication de Nef dans la modulation du phénotype des DC ainsi que dans les dérégulations des cellules B. Chez tous les patients virémiques infectés au VIH-1, nous avons détecté la présence de Nef dans le plasma ainsi qu’au niveau des mDC et de leurs précurseurs d’origine monocytaire, tout au long du suivi de la progression clinique et au-delà de la thérapie antirétrovirale (ART). La surexpression de BLyS/BAFF est associée à la présence de Nef au niveau des mDC et de leur précurseur.. Des essais in vitro ont permis de démontrer l’induction d’un phénotype proinflammatoire par des mDC dérivés de monocytes lorsqu’en présence de Nef soluble, via l’augmentation de l’expression de BLyS/BAFF et de TNF-α, et où cet effet est bloqué par l’ajout de l’acide rétinoïque. Nos résultats suggèrent donc que Nef est impliquée dans le déclenchement et la persistance des dérégulations des cellules B retrouvées chez les individus infectés au VIH-1. Basé sur nos observations, une thérapie adjointe impliquant le blocage de BLyS/BAFF et/ou Nef pourrait contribuer au contrôle de l’inflammation et des altérations des cellules B. De plus, la quantification de Nef post-ART pourrait s’avérer utile dans l’évaluation du statut des réservoirs. Précédemment, nous avons démontré que les dérégulations des cellules B sanguines de ces mêmes individus présentant un profil de progression rapide et classique sont accompagnées par l’augmentation de la fréquence d’une population partageant des caractéristiques des cellules B transitionnelles immatures (TI) et des cellules B de la zone marginale (ZM), que nous avons nommé les cellules B précurseur de la ZM. Toutefois, cette population est préservée chez les contrôleurs élites, chez qui nous avons trouvé une diminution significative de la fréquence des cellules B de la ZM présentant des marqueurs phénotypiques plus matures. Récemment, ces cellules ont été associées à un potentiel de fonction régulatrice (Breg), motivant ainsi notre poursuite, dans cette étude, de la caractérisation de ces cellules B. Comme pour les individus non infectés au VIH-1, nous avons démontré que les cellules B matures de la ZM contrôlent leur capacité de production d’IL-10 chez les contrôleurs élites, contrairement à une augmentation chez les progresseurs rapides et classiques. Aussi, les cellules B précurseur de la ZM des contrôleurs élites fournissent une expression importante de LT-α lorsque comparés aux individus non infectés au VIH-1, alors que cet apport de LT-α est attribué aux cellules B TI chez les progresseurs. Le contrôle de la progression clinique semble associé à un ratio en faveur de LT-α vs IL-10 au niveau des cellules B précurseur de la ZM. Nos résultats suggèrent qu’un maintien de l’intégrité du potentiel régulateur ainsi qu’une expression augmentée de LT-α par les cellules B de première ligne, telles les populations de la ZM, sont impliqués dans le contrôle de la progression clinique du VIH-1, possiblement par leur contribution à la modulation et l’homéostasie immunitaire. De telles populations doivent être considérées lors de l’élaboration de vaccins, ces derniers cherchant à générer une réponse protectrice de première ligne et adaptative.
Resumo:
Le système de santé d'aujourd'hui fait appel à de nombreuses technologies de l'information nommées TIS (Technologies de l’Information en Santé). Celles-ci ont donné naissance à de nouvelles formes d’interaction médecin-patient et ont complexifié l'approche thérapeutique dite « centrée sur le patient ». Les TIS promettent une plus grande efficacité et l’augmentation de la satisfaction des patients par le biais d’une meilleure compréhension de la maladie pour le patient. Or, elles peuvent également devenir des sources de conflit pour le professionnel de la santé, étant donné leur utilisation en dehors des rencontres cliniques ainsi que leur tendance à agir comme des barrières communicationnelles lors des consultations. Cette recherche vise a étudier les critères de design nécessaires à la conception d’un TIS pouvant améliorer la relation médecin-patient et donc, faciliter la communication et améliorer l’alliance thérapeutique. L’étude utilise une approche centrée sur l’utilisateur et vise donc à comprendre les besoins et les attentes des médecins et des patients. En étudiant les nouvelles approches en santé et les TIS, il a été possible de comprendre le contexte et les besoins des utilisateurs en terme de communication. Ces derniers sont primordiaux au processus dit centré sur l’utilisateur. Le faible taux de rétention du discours du médecin devient une barrière communicationnelle importante, tout comme le temps pressurisé. La recherche nous montre que l’ajout d’un outil virtuel de vulgarisation peut, à l’aide de média visuels (tel que des modélisations, des animations 3D et des dessins), grandement aider la relation médecin-patient.
Resumo:
Ce document s’inscrit dans la foulée des préoccupations mondiales sur le devenir des villes au XXIe siècle. Il questionne les façons de faire qui contribuent à un développement de qualité des cadres de vie des citoyens. Les processus d’idéation de type atelier et charrette sont retenus en regard de leurs valeurs mobilisatrices et consensuelles qui répondent aux principes du développement durable. La problématique posée concerne l’adaptation de leur structure de fonctionnement au contexte local dans lequel il s’applique et de leur performance à induire les résultats escomptés. Une analyse comparative de trois études de cas révèle que le processus d’idéation se singularise en fonction des modalités de communication nécessaires pour progresser dans la démarche de planification des projets et conjointement à ceci, confirme que leur performance réside en leur capacité de rassembler l’ensemble des acteurs du projet en un même lieu. À l’issue de notre étude, nous fournissons un procédurier préliminaire pour diriger la mise en œuvre de processus d’idéation localement.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.