8 resultados para component isolation, system call interpositioning, hardware virtualization, application isolation
em Université de Montréal, Canada
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Les souches d’Escherichia coli pathogènes aviaires (APEC) sont responsables d’infections respiratoires et de septicémies chez la volaille. Le régulon Pho est contrôlé conjointement par le système à deux composantes PhoBR et par le système de transport spécifique du phosphate (Pst). Afin de déterminer l’implication de PhoBR et du système Pst dans la pathogenèse de la souche APEC O78 χ7122, différentes souche mutantes phoBR et pst ont été testées pour divers traits de virulence in vivo et in vitro. Les mutations menant à l’activation constitutive du régulon Pho rendaient les souches plus sensibles au peroxyde d’hydrogène et au sérum de lapin comparativement à la souche sauvage. De plus, l’expression des fimbriae de type 1 était affectée chez ces souches. L’ensemble des mutants Pho-constitutifs étaient aussi significativement moins virulents que la souche sauvage dans un modèle de coinfection de poulet, incluant les souches avec un système Pst fonctionnel. De plus, l’inactivation du régulateur PhoB chez un mutant Pst restaure la virulence. Par ailleurs, l’inactivation de PhoB n’affecte pas la virulence de la souche χ7122 dans notre modèle. De manière intéressante, le degré d’atténuation des souches mutantes corrèle directement avec le niveau d’activation du régulon Pho. Globalement, les résultats indiquent que l’activation du régulon Pho plutôt que le transport du phosphate via le système Pst joue un rôle majeur dans l’atténuation des APEC.
Resumo:
Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Les systèmes bactériens de sécrétion de type IV (T4SS) sont constitués d’un ensemble de 8 à 12 protéines conservées. Ces dernières sont utilisées lors de la translocation de protéines, la translocation de complexes ADN-protéines mais aussi pour le transport de ces derniers au travers de la membrane cellulaire. Les T4SS, en tant que facteurs de virulence pour beaucoup de pathogènes comme Brucella suis, sont donc d’excellents modèles cibles pour le développement de médicaments d’antivirulence. Ces médicaments, en privant le pathogène de son facteur essentiel de virulence : le T4SS, constituent une alternative ou encore une amélioration des traitements antibiotiques utilisés actuellement. VirB8, un facteur d’assemblage conservé dans le T4SS, forme des dimères qui sont importants pour la fonction des T4SS dans ces pathogènes. De par ses interactions multiples, VirB8 est un excellent modèle pour l’analyse des facteurs d’assemblage mais aussi en tant que cible de médicaments qui empêcheraient son interaction avec d’autres protéines et qui, in fine, désarmeraient les bactéries en les privant de leur fonctions essentielles de virulence. À ce jour, nous savons qu’il existe un équilibre monomère-dimère et un processus d’homodimerization de VirB8 dont l’importance est vitale pour la fonctionnement biologique des T4SSs. En se basant sur des essais quantitatifs d’interaction, nous avons identifié (i) des sites potentiels d’interaction avec d’autres protéines VirB du T4SS mais aussi (ii) isolé des petites molécules inhibitrices afin de tester la fonction protéique de VirB8. Afin de déterminer les acides aminés importants pour l’hétérodimérization de VirB8 avec VirB10, nous avons effectué des expériences de mutagenèse aléatoire, de phage display et d’arrimage moléculaire in silico. Ces expériences ont démontré l’importance de trois acides aminés localisés sur le feuillet β : R160, S162, T164 et I165. Ces derniers seraient importants pour l’association de VirB8 avec VirB10 étant donné que leur mutagenèse entraine une diminution de la formation du complexe VirB8-VirB10. L’objectif actuel de notre projet de recherche est de pouvoir mieux comprendre mais aussi d’évaluer le rôle de VirB8 dans l’assemblage du T4SS. Grace à un méthode de criblage adaptée à partir de la structure de VirB8, nous avons pu identifié une petite molécule inhibitrice BAR-068, qui aurait un rôle prometteur dans l’inhibition du T4SS. Nous avons utilisé la spectroscopie par fluorescence, l’essai à deux hybrides, le cross-linking et la cristallographie afin de déterminer le mécanisme d'interaction existant entre VirB8 et BAR-068. Ces travaux pourraient permettre de nombreuses avancées, notamment en termes de compréhension des mécanismes d’inhibition du T4SS. Notre objectif ultime est de pouvoir caractériser la séquence d’évènements essentiels à l’assemblage et au fonctionnement du T4SS. De manière globale, notre projet de recherche permettrait de révéler les grands principes d’assemblage des protéines membranaires, les processus de sécrétion de protéines chez les bactéries mais aussi de proposer une nouvelle stratégie lors du développement de drogues antimicrobiennes.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.