686 resultados para Problème de tournée de véhicule


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise est une recherche exploratoire sur les expériences de localisation vécues dans l’espace urbain montréalais par des sujets en relation à l’information dite « de localisation ». La localisation est un processus d’orientation spatiale où l’emplacement d’un lieu dans l’espace est un problème à résoudre. Cette exploration est basée sur la théorisation de l’information proposée par Bateson (1972) et le développement du concept de dispositif par Belin (2002) et Agamben (2007) à la suite de Foucault, la localisation étant le concept empirique exploratoire. Le processus de localisation est investigué quant à son caractère médiatique : l’information de localisation est le medium qui, en étant un résultat et une cause de l’action, donne forme à ce processus mené par l’effort. Un travail de terrain ethnométhodologique déployé par le biais d’observations empiriques et d’entrevues qualitatives permet d’identifier certaines conditions qui rendent possibles, dans la vie quotidienne, les relations entre l’information de localisation, l’espace urbain et un sujet. Étant majoritairement vécue lors de déplacements présents, futurs ou passés, la localisation est ainsi conceptualisée en tant que wayfinding : l’action de déterminer quelles voies ou trajets emprunter pour se rendre d’un point A à un point B. Ce mémoire est en réalité une problématisation ouverte qui vise à explorer et identifier certains enjeux qui sont au cœur des processus de localisation dans l’espace urbain montréalais. Si « [l]e fait humain par excellence », comme le souligne Leroi-Gouhran (1965) « est peut-être moins la création de l’outil que la domestication du temps et de l’espace » (p. 139), le fait d’habiter en un certain temps et en un certain espace est en soi une relation problématique de confiance. Le vivant et le non-vivant habitent des espaces aménagés qui sont continuellement transformés par leur détermination mutuelle. En partant du constat que l’environnement construit se déploie en étant produit et aménagé dans des dispositions où certains de nos gestes sont délégués, peut-on envisager être libre sans (se) faire confiance ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour but de montrer l’impact du paradigme géométrique sur l’évolution de la dialectique dans le Ménon. La première partie de cette recherche est consacrée à la dialectique des premiers dialogues, l’elenchos. Cette pratique de la philosophie est ensuite comparée à la dialectique du Ménon qui est caractérisée par l’introduction de la notion de réminiscence. La seconde partie de cette étude concerne les deux passages géométriques du Ménon : le problème de la duplication du carré et la méthode hypothétique. Le premier passage permet à Platon de défendre la possibilité de la recherche scientifique, alors que le second (inspiré de l’analyse géométrique) est présenté comme un nouveau modèle pour mener à bien l’enquête philosophique. Cette méthode, qui consiste à réduire la difficulté d’un problème en postulant des hypothèses, permet notamment de passer de ce qui est logiquement second (de la qualité: « la vertu s’enseigne-t-elle? ») à ce qui est logiquement premier (à l’essence: « qu’est-ce que la vertu? »).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction – Dissocié un trouble psychiatrique primaire (TPP) concomitant à un problème d’abus de substances d’une psychose induite par consommation de substance (PICS) peut être une tâche difficile puisque plusieurs symptômes sont similaires. La dichotomie entre les symptômes négatifs et les symptômes positifs de la schizophrénie a été suggéré comme étant un indicateur puisque les symptômes négatifs ne sont pas caractéristiques d’un double diagnostic (Potvin, Sepehry, & Stip, 2006). Objectif – Cette étude explore la possibilité de distinguer des sous-groupes au sein de notre échantillon en utilisant le fonctionnement cognitif en vue d’identifier des facteurs qui permettraient un meilleur défférentiel entre un TPP concomitant à un problème d’abus de substance d’une psychose induite par consommation de méthamphétamines (MA). L’hypothèse stipule que les individus avec un TPP présenteraient des déficits cognitifs différents comparativement aux individus avec une PICS. Méthode – Les données utilisés font parties d’une étude longitudinale qui s’est déroulée à Vancouver, CB, Canada. 172 utilsateurs de MA et présentant une psychose ont été recruté. L’utilisation de substances, la sévérité des symptômes et des déficits cognitifs ont été évalué. Résultats – Des analyses par regroupement ont révélé deux profiles: les individus du Groupe 1 ont une performance inférieure au score total du Gambling task (M=-28,1) ainsi qu’un pourcentage de rétention inférieur au Hopkins Verbal Learning Test – Revised (HVLT- R; M=63) comparativement à ceux du Groupe 2. Les individus du Groupe 1 ont plus de symptômes négatifs, t=2,29, p<0.05 et ont plus tendance à avoir reçu un diagnostic psychiatrique, X2(3) = 16.26, p< 0.001. Conclusion – Les résultats suggèrent que des facteurs cognitifs pourraient aider à identifier un TPP concomitant à l’abus de MA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche en santé mentale reconnaît plusieurs habiletés aux travailleurs sociaux. Cependant, lorsqu’il est question de médication, élément central du plan de traitement en santé mentale, on constate que l’on attribue surtout aux travailleurs sociaux le rôle de veiller à l’observance de ce traitement. Pourtant, la recherche scientifique montre que prendre des médicaments est une expérience complexe et comporte des impacts psychosociaux. Pour les intervenants sociaux, ce contexte constitue une opportunité d’explorer avec les personnes qu’ils accompagnent, les différentes facettes de cette expérience. Cette opportunité n’est pas seulement remarquée par les professionnels mais aussi par des voix de la marge, celles de personnes qui ont vécu un problème de santé mentale et qui ont vu la médication entrer dans leur vie. C’est à partir de cette perspective que l’approche de la Gestion autonome de la médication (GAM) a été élaborée et permet de considérer les dimensions expérientielles et psychosociales de la prise de médicaments. La GAM propose, par des pratiques d’accompagnement individuel ou de groupe, de soutenir l’usager pour qu’il puisse porter un regard critique sur sa médication, s’assurer que celle-ci soit bien au service de sa qualité de vie et apporter des changements en conséquence. Cette étude réalisée auprès de 19 intervenants sociaux ayant participé à une formation sur la GAM, s’intéresse à leurs pratiques en lien avec la médication psychiatrique et à l’accueil qu’ils ont réservé à la GAM. Un état des connaissances par rapport à l’intervention sociale et la médication y est présenté ainsi qu’une description détaillée de la GAM. Des conclusions sont tirées sur la formation GAM et sur la formation des travailleurs sociaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est consacré au problème de la place de l’herméneutique dans l’œuvre d’Emmanuel Levinas. Au premier abord, l’œuvre semble présenter une forte ambivalence quant à la valeur que le philosophe accorde aux catégories herméneutiques. D’abord, dans les œuvres proprement philosophiques, Levinas présente une critique sévère de la compréhension dans laquelle il décèle un geste de totalisation et d’appropriation du sens contre lequel il élèvera une pensée de l’éthique comme « philosophie première ». D’autre part, un autre pan du corpus levinassien, celui des Lectures talmudiques, est consacré au déploiement d’une herméneutique des textes religieux de la tradition juive où Levinas fait puissamment intervenir les catégories éthiques propres à sa philosophie au sein de son activité exégétique. L’un des paradoxes intéressants que nous présente donc l’œuvre levinassienne est celui d’une philosophie s’érigeant en bonne partie sur une critique de la catégorie centrale de l’herméneutique, la compréhension, et qui ne se décline pas moins elle-même en une théorie de l’interprétation des textes. Afin de résoudre ce paradoxe, il nous faut d’abord exposer la critique de la compréhension qui est consubstantielle au projet philosophique de Levinas. En nous appuyant sur quelques textes centraux de son œuvre, nous expliciterons à la fois le déficit éthique de la compréhension que pointe Levinas et les possibilités de sens au nom desquelles cette critique s’accomplit. Nous verrons ainsi ce qui conduit Levinas à suggérer qu’autrui, en son visage, témoigne d’un sens qui ferait exception à la structure gnoséologique du sensé que suppose l’herméneutique. Dans un deuxième temps, nous tenterons de cerner les raisons qui peuvent légitiment conduire Levinas à faire usage, dans le contexte de son herméneutique talmudique, des « concepts » nés de sa critique de la compréhension. L’étude du rapport entre éthique et herméneutique, entre texte et visage, nous conduira à identifier le principe directeur de l’herméneutique levinassienne et à articuler la façon dont il se rattache à l’éthique du visage. Finalement, nous tenterons de faire valoir la pertinence philosophique de l’herméneutique levinassienne en étudiant la manière dont elle peut rendre compte de phénomènes fondamentaux liés à l’interprétation des textes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le surpoids (embonpoint et obésité) chez l’enfant est un problème préoccupant qui prend de plus en plus d’ampleur. Le rôle du parent dans cette problématique est prédominant, puisqu’il assure la disponibilité des aliments, choisit les mets présentés, joue le rôle de modèle dans l’acte alimentaire et interagit avec l’enfant durant les prises alimentaires pour guider son comportement alimentaire. Le parent offre et façonne l’environnement dans lequel évolue l’enfant. Cette thèse explore le rôle de la mère dans cet environnement. Le parent utilise diverses pratiques alimentaires pour guider l’alimentation de l’enfant. Certaines sont douces, comme encourager positivement l’enfant à essayer un aliment (ex. Goûtes-y, moi je trouve ça très bon!) et d’autres plus coercitives (ex. Tu ne sors pas de table sans avoir terminé ton assiette). Les interactions parent-enfant lors de la prise alimentaire sont susceptibles d’avoir différentes conséquences sur l’alimentation de l’enfant, modifiant possiblement les apports alimentaires, les préférences, la néophobie et le statut pondéral. Les interactions parent-enfant en général, donc hors du contexte précis de l’alimentation, peuvent aussi influencer les comportements alimentaires de l’enfant. L’objectif général de cette thèse est d’explorer les relations entre les interactions parent-enfant en général, aussi nommées « styles parentaux » (SP), les interactions parent-enfant dans le contexte alimentaire, portant le nom de «styles parentaux alimentaires» (SPA), les stratégies alimentaires utilisées par les parents pour guider l’alimentation de l’enfant, nommées « pratiques alimentaires parentales » (PAP), les comportements alimentaires de l’enfant et le statut pondéral de ce dernier. Cette thèse comprend 4 objectifs spécifiques. D’abord, d’examiner les relations entre les SP, les SPA et les PAP. Dans un deuxième temps, les relations entre les SPA, le comportement alimentaire de l’enfant (préférence et fréquence de consommation) et le statut pondéral de l’enfant seront explorées. Puis, l’existence de relations entre l’usage de PAP et le comportement alimentaire de l’enfant sera évaluée. Finalement, les relations entre les attitudes de la mère à l’égard de son poids et de celui de son enfant et du comportement néophobique de l’enfant seront explorées. Cent vingt-deux mères d’enfants d’âge préscolaire, de 3 à 5 ans, ont été recrutées par des milieux de garde de l’île de Montréal et ont complété et retourné un questionnaire auto-administré portant sur le style parental, style parental alimentaire, les PAP, les fréquences de consommation de l’enfant, les préférences de l’enfant pour certains aliments et groupe d’aliments, la néophobie de l’enfant, le poids et la taille de l’enfant, le régime actuel de la mère, la perception du poids de l’enfant, la préoccupation face au poids de l’enfant ainsi que la description du profil familial. Les SP, les SPA et les PAP montrent des corrélations. Les SPA, plus particulièrement les deux échelles qui les composent (exigence et sensibilité) montrent des corrélations avec la consommation et la préférence pour certains aliments. Des différences sont aussi notées entre les différents SPA et le statut pondéral de l’enfant et certains comportements alimentaires. La présente thèse suggère une implication de trois concepts, soient les SP, les SPA et les PAP, dans la dynamique alimentaire de la dyade mère-enfant. Des relations importantes entre les SPA et les préférences alimentaires sont suggérées. Les futures recherches dans ce domaine devront évaluer l’impact relatif des PAP, des SP et des SPA sur le comportement alimentaire (consommation et préférence) et le poids de l’enfant. Une intervention efficace visant des changements de comportements alimentaires auprès des familles devra adresser à la fois les PAP, mais aussi les SP et les SPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La bactérie Salmonella enterica sérovar Typhi (S. Typhi) provoque la fièvre typhoïde chez les humains et constitue un problème de santé publique important. La majorité de nos connaissances sur la pathogenèse de cette bactérie provient du modèle de fièvre entérique chez la souris causée par le sérovar Typhimurium. Peu d’études se sont penchées sur les facteurs de virulence uniques au sérovar Typhi, ni sur la possibilité que les pseudogènes retrouvés dans son génome puissent être fonctionnels. Le fimbria stg, unique au sérovar Typhi, renferme un codon d’arrêt TAA prématuré dans le gène stgC qui code pour le placier responsable de l’assemblage des sous-unités fimbriaires à la surface de la bactérie. Ainsi, le fimbria stg a été classifié dans la liste des pseudogènes non-fonctionnels. Les objectifs de cette étude étaient d’évaluer l’implication du fimbria stg lors de l’interaction avec les cellules humaines, puis de vérifier l’importance du pseudogène stgC lors de la biogenèse fimbriaire. Dans une première partie, la transcription de stg a été évaluée à l’aide d’une fusion lacZ. Malgré des niveaux d’expression observés généralement faibles en milieu riche, la croissance en milieu minimal a favorisé la transcription de l’opéron. La délétion complète de l’opéron fimbriaire stgABCD du génome de S. Typhi a été réalisée par échange allélique, puis a été complémentée sur un plasmide. Il a été démontré que la présence de stg chez S. Typhi, S. Typhimurium et E. coli contribue à une adhérence accrue sur les cellules épithéliales humaines. De plus, ce fimbria semble agir comme une structure anti-phagocytaire lors de l’interaction avec des macrophages humains. Ainsi, l’opéron stg semble fonctionnel, malgré son codon d’arrêt prématuré, puisque des phénotypes ont été observés. La seconde partie de cette étude consistait à vérifier le rôle joué par le pseudogène stgC dans la biogenèse du fimbria. Différentes variantes de l’opéron ont été générées, clonées dans un vecteur inductible à l’arabinose, puis transformées dans la souche afimbriaire d’E. coli ORN172. La translocation de la sous-unité fimbriaire StgD à la surface de la bactérie a été évaluée chez ces différents mutants par immunobuvardage de type Western. Cette expérience a permis de démontrer que le pseudogène stgC est essentiel pour l’exportation de la sous-unité StgD à la surface. L’ajout d’une étiquette de 6-histidines en C-terminal de StgC a permis de confirmer la traduction complète du gène, malgré le codon d’arrêt TAA prématuré. Le séquençage peptidique a révélé l’insertion d’une tyrosine à ce codon. Une fusion traductionnelle avec la protéine verte fluorescente a révélé qu’environ 0.8% de l’ARNm peut être traduit et permet la production complète du placier. Ce projet a permis la caractérisation d’un facteur de virulence unique à S. Typhi et constitue une étape de plus vers la compréhension de ses mécanismes de pathogenèse. Il s’agit de la première démonstration chez les bactéries de la fonctionnalité d’un gène interrompu prématurément par un codon d’arrêt TAA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques.