16 resultados para Object manipulation

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La thérapie germinale est une avenue médicale qui est loin de pouvoir être appliquée de manière sécuritaire et responsable car les connaissances médicales actuelles sont insuffisantes. De surcroît, l'encadrement normatif qui l'entoure est unanime et clame la non-acceptabilité de son application humaine. Certains instruments adoptent une approche rigide en la prohibant formellement, d'autres adoptent une approche flexible en demeurant ouverts à une éventuelle application. Il y a donc divergence quant à la légitimité de cette technique. La médecine moderne doit reposer sur des principes directeurs issus de diverses sources, empruntées au droit et à l'éthique. Les principes retenus pour examiner la légitimité de la thérapie germinale sont tirés, d'une part, des droits et libertés fondamentales: ce sont les principes fondamentaux de dignité, de liberté, d'égalité. D'autre part, ils sont issus des règles d'éthique de la recherche: plus particulièrement le principe de bienfaisance (nonmalfaisance) et celui du respect de la personne. La perspective d'une éventuelle application humaine de la thérapie germinale ne porte pas nécessairement atteinte aux principes fondamentaux, dépendamment du genre d'application qui est envisagé. Une application restreinte, appliquée dans des circonstances particulières et en vue de soulager ou d'éliminer certaines formes de détresses et de souffrances, pourrait être conforme aux principes qui soutiennent les droits et libertés fondamentales. La thérapie germinale soulève des questions éthiques difficiles et parfois inédites, notamment l'extension des risques aux générations futures et l'obligation d'un suivi à long terme pour des descendants qui n'auront pas eux-mêmes donné leur consentement à cette «thérapie». La thérapie germinale est présentement non acceptable mais ne devrait pas faire l'objet d'une prohibition totale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper revisits manipulation via capacities in centralized two-sided matching markets. Sönmez (1997) showed that no stable mechanism is nonmanipulable via capacities. We show that non-manipulability via capacities can be equivalently described by two types of non-manipulation via capacities: non-Type-I-manipulability meaning that no college with vacant positions can manipulate by dropping some of its empty positions; and non-Type-II-manipulability meaning that no college with no vacant positions can manipulate by dropping some of its filled positions. Our main result shows that the student-optimal stable mechanism is the unique stable mechanism which is non-Type-I-manipulable via capacities and independent of truncations. Our characterization supports the use of the student-optimal stable mechanism in these matching markets because of its limited manipulability via capacities by colleges.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans les situations du quotidien, nous manipulons fréquemment des objets sans les regarder. Pour effectuer des mouvements vers une cible précise avec un objet à la main, il est nécessaire de percevoir les propriétés spatiales de l’objet. Plusieurs études ont démontré que les sujets peuvent discriminer entre des longueurs d'objet différentes sans l’aide des informations visuelles et peuvent adapter leurs mouvements aux nouvelles caractéristiques inertielles produites lors de la manipulation d’un objet. Dans cette étude, nous avons conduit deux expérimentations afin d’évaluer la capacité des sujets à adapter leurs mouvements d’atteinte à la longueur et à la forme perçues des objets manipulés sur la base unique des sensations non visuelles (sensations haptiques). Dans l'expérience 1, dix sujets devaient exécuter des mouvements d’atteintes vers 4 cibles tridimensionnelles (3D) avec un objet à la main. Trois objets de longueur différente ont été utilisés (pointeurs: 12.5, 17.5, 22.5 cm). Aucune connaissance de la position de la main et de l’objet par rapport à la cible n’était disponible pendant et après les mouvements vers les cibles 3D. Ainsi, lorsque comparé avec les erreurs spatiales commises lors des atteintes manuelles sans pointeur, l’erreur spatiale de chacun des mouvements avec pointeur reflète la précision de l’estimation de la longueur des pointeurs. Nos résultats indiquent que les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec un objet en comparaison avec la condition sans pointeur. Cependant, de façon intéressante, ils ont maintenu le même niveau de précision à travers les trois conditions avec des objets de différentes longueurs malgré une différence de 10 cm entre l’objet le plus court et le plus long. Dans l'expérience 2, neuf sujets différents ont effectué des mouvements d’atteinte vers les mêmes cibles utilisant cette fois-ci deux objets en forme de L (objet no.1 : longueur de 17,5 cm et déviation à droite de 12,5 cm – objet no.2 : longueur de 17,5 cm et déviation à droite de 17,5 cm). Comme c’était le cas lors de l'expérience 1, les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec les objets et cette augmentation était similaire entre les deux conditions avec les objets en forme de L. Une observation frappante de l’expérience 2 est que les erreurs de direction n’ont pas augmenté de façon significative entre les conditions avec objet en forme de L et la condition contrôle sans objet. Ceci démontre que les participants ont perçu de façon précise la déviation latérale des objets sans jamais avoir eu de connaissances visuelles de la configuration des objets. Les résultats suggèrent que l’adaptation à la longueur et à la forme des objets des mouvements d’atteinte est principalement basée sur l’intégration des sensations haptiques. À notre connaissance, cette étude est la première à fournir des données quantitatives sur la précision avec laquelle le système haptique peut permettre la perception de la longueur et de la forme d’un objet tenu dans la main afin d’effectuer un mouvement précis en direction d’une cible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le design urbain, dimension de la pratique urbanistique, consiste principalement en la manipulation de la forme urbaine selon une démarche ciblée et encadrée. Les approches sont aussi nombreuses que diversifiées. On peut néanmoins les classer en deux catégories : les approches visant la forme urbaine en tant qu‟objet qui contient l‟organisation formelle de la ville et celles qui visent le travail sur la forme urbaine afin d‟organiser la dynamique urbaine humaine. Les deux types d‟approches soutiennent différentes démarches d‟aménagement qui contribuent à développer la forme urbaine et la dynamique des lieux. Parmi celles-ci se trouve la vision de type empirique, laquelle vise l‟expérience urbaine à l‟échelle du piéton. Les écrits et les théories à ce sujet sont variés et pertinents. La présente recherche porte sur la transposition des prescriptions empiriques dans la planification d‟un projet qui intègre une démarche de design urbain. Au moyen d‟une étude de cas, la Cité multimédia à Montréal, il s‟agit de comprendre plus spécifiquement comment le canevas maître du design urbain, soit l‟espace public, est étudié et reformulé et ce, en accordant une attention particulière pour la dimension empirique du futur aménagement. Quelles sont les balises ou les composantes qui permettent à la dimension empirique de se déployer dans la conception d‟un projet urbain qui vise une reformulation de la forme urbaine?

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus de l’immunodéficience humaine de type 1 (VIH-1), l’agent étiologique du SIDA, est un rétrovirus complexe arborant plusieurs protéines accessoires : Nef, Vif, Vpr, et Vpu. Celles-ci sont impliquées dans la modulation de la réplication virale, dans l’évasion immunitaire et dans la progression de la pathogenèse du SIDA. Dans ce contexte, il a été démontré que la protéine virale R (Vpr) induit un arrêt de cycle cellulaire en phase G2. Le mécanisme par lequel Vpr exerce cette fonction est l’activation, ATR (Ataxia telangiectasia and Rad3 related)-dépendante, du point de contrôle de dommage à l’ADN, mais les facteurs et mécanismes moléculaires directement impliqués dans cette activité demeurent inconnus. Afin d’identifier de nouveaux facteurs cellulaires interagissant avec Vpr, nous avons utilisé une purification d’affinité en tandem (TAP) pour isoler des complexes protéiques natifs contenant Vpr. Nous avons découvert que Vpr s’associait avec CRL4A(VprBP), un complexe cellulaire d’E3 ubiquitine ligase, comprenant les protéines Cullin 4A, DDB1 (DNA damage-binding protein 1) et VprBP (Vpr-binding protein). Nos études ont mis en évidence que le recrutement de la E3 ligase par Vpr était nécessaire mais non suffisant pour l’induction de l’arrêt de cycle cellulaire en G2, suggérant ainsi que des événements additionnels seraient impliqués dans ce processus. À cet égard, nous apportons des preuves directes que Vpr détourne les fonctions de CRL4A(VprBP) pour induire la polyubiquitination de type K48 et la dégradation protéosomale de protéines cellulaires encore inconnues. Ces événements d’ubiquitination induits par Vpr ont été démontrés comme étant nécessaire à l’activation d’ATR. Finalement, nous montrons que Vpr forme des foyers ancrés à la chromatine co-localisant avec VprBP ainsi qu’avec des facteurs impliqués dans la réparation de l’ADN. La formation de ces foyers représente un événement essentiel et précoce dans l’induction de l’arrêt de cycle cellulaire en G2. Enfin, nous démontrons que Vpr est capable de recruter CRL4A(VprBP) au niveau de la chromatine et nous apportons des preuves indiquant que le substrat inconnu ciblé par Vpr est une protéine associée à la chromatine. Globalement, nos résultats révèlent certains des ménanismes par lesquels Vpr induit des perturbations du cycle cellulaire. En outre, cette étude contribue à notre compréhension de la modulation du système ubiquitine-protéasome par le VIH-1 et son implication fonctionnelle dans la manipulation de l’environnement cellulaire de l’hôte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’immunothérapie tumorale à médiation cellulaire est un traitement qui utilise le système immunitaire des patients afin d’induire une réponse des lymphocytes T CD8+ (T CD8+) contre la tumeur. Cette réponse est produite suite à la reconnaissance des antigènes par les T CD8+. Ces cibles sont appelées antigènes tumoraux (TAA) et définies comme des protéines exprimées par les cellules cancéreuses mais absentes des tissus normaux. Par une approche bio-informatique, notre laboratoire a identifié Dickkopf-1 (DKK1), une protéine inhibitrice de la voie de Wnt, comme un TAA potentiel. Une immunothérapie à médiation cellulaire efficace requiert l’identification de TAA candidats pertinents. Le traitement de patients par immunothérapie pourrait également être améliorées par l’augmentation de la puissance d’action anti-tumorale ainsi que la persistante des T CD8+ spécifiques aux TAA. Ce projet de doctorat se divise en deux parties : 1- La caractérisation de l’expression de DKK1 dans les cancers communs et la détermination de son immunogénicité afin de valider sa candidature comme TAA. 2- La reprogrammation des T CD8+, de patients atteints d’un cancer commun, vers un phénotype moins différentié afin d’augmenter leur potentiel anti-tumoral et leur persistance. Dans le premier objectif, nous avons caractérisé l’expression de DKK1 dans le cancer du sein et dans d’autres cancers communs. Le profil d’expression de DKK1 a été étudié par RT-PCR et par ELISA dans plusieurs lignées cellulaires de cancer et dans les tissus normaux. L’expression de DKK1 a aussi été étudiée dans des échantillons cliniques provenant de cancers du sein, du poumon et du rein. Trente pourcents (30%) des tumeurs provenant d’un cancer du sein exprimaient DKK1. La moitié des tumeurs DKK1(+) était triple négative, donc pas de récepteurs d’œstrogène et de progestérone et était Her-2/neu(-) (ces patientes ont des possibilités de traitements très restreintes). De plus, 50% des échantillons cliniques de tumeurs du poumon et 30% des tumeurs de rein exprimaient DKK1. Les observations effectuées dans le cancer du poumon ont été, par la suite, corroborées par d'autres groupes qui ont montré une corrélation entre l'expression de DKK1 et un mauvais pronostic. Après avoir confirmée l’expression de DKK1 dans les cancers communs, justifiant ainsi sa candidature comme TAA, nous avons évalué l’immunogénicité de DKK1. Pour ce faire, nous avons effectué des stimulations in vitro de cellules mononucléées du sang périphérique (PBMC) de patient(e)s atteint(e)s d’un cancer du sein ou du poumon avec des peptides dérivés de DKK1 pouvant être présentés par les complexes majeurs d’histocompatibilité (CMH) HLA-A*0201. Des clones de T CD8+ reconnaissant un peptide de DKK1 ont été identifiés et isolés. Par essai multiplex et cytométrie de flux intracellulaire, la polyfonctionnalité d’un ces clones T CD8+ spécifiques à DKK1 a été étudiée et a révélée un profil effecteur, renforçant ainsi la candidature de DKK1 comme TAA. Dans l’ensemble, les résultats obtenus dans cette première partie de thèse suggèrent une possible utilisation de DKK1 en immunothérapie contre les cancers communs, attribuable à son expression dans ces cancers et la possibilité de faire proliférer des T CD8+ effecteurs spécifiques à DKK1 à partir de sang de patients. Dans la seconde partie de cette thèse, je décrirai la manipulation in vitro des T CD8+ de patients atteints d’un cancer commun, afin d’augmenter la force et la durée de leurs fonctions anti-tumorales. Il a été démontré que des lymphocytes moins différentiés sont capables d’une réponse immunologique plus efficace et durable. Nous avons basé ce projet sur l’utilisation d’un inhibiteur pharmacologique de la GSK-3, pour activer de la voie de Wnt chez les T CD8+ et ainsi leur conférer un phénotype moins différentié, partageant des caractéristiques de la cellule naïve et de la cellule mémoire. Des cultures de T CD8+, spécifiques à des antigènes viraux, en présence de l’inhibiteur ont permis d’augmenter la sécrétion d’interféron (IFN)- et leur activité cytotoxique. Ces résultats indiquent un effet de l’activation de la voie de Wnt sur la fonction des T CD8+. Ces observations sont rapportées pour la première fois chez les T CD8+ humains et suggèrent une nouvelle stratégie, applicables à l’immunothérapie du cancer, afin de prolonger la persistance des cellules ainsi que leur activité anti-tumorale. En conclusion, ces travaux de recherche ont mené à la réalisation d’une étape très importante dans la validation de la candidature de DKK1 comme TAA pour les cancers communs, soit la démonstration de son expression dans ces cancers et son absence dans les tissus normaux dérivés d’organes importants. Ces travaux ont également mené à la démonstration de l’immunogénicité de DKK1, par l’identification d’un peptide de DKK1 reconnu par les T CD8+. De plus, l’étude de la polyfonctionnalité des T CD8+ spécifiques à DKK1 a révélée un profil effecteur favorable pour l’obtention d’une réponse anti-tumorale efficace. Ces découvertes pourraient servir à l’élaboration d’une stratégie d’immunothérapie à médiation cellulaire pour les cancers communs. Pour sa part, l’étude phénotypique et fonctionnelle de la modulation de la voie de Wnt dans les T CD8+ a donné lieu à l’observation d’un phénotype encore jamais rapporté chez l’humain, conférant aux T CD8+ un aspect moins différentié avec des caractéristiques propre à un phénotype mémoire. Ces résultats sont pertinents dans l’amélioration de l’immunothérapie du cancer, passant par l’augmentation de la persistance des lymphocytes. En résumé, les résultats présentés dans cette thèse de doctorat fournissent des évidences indéniables quant à la validation de DKK1 comme TAA pour une immunothérapie à médiation cellulaire des cancers communs. Ces résultats fournissent également des preuves quant à la pertinence de la reprogrammation des T CD8+ par l’activation de la voie de la voie de Wnt, afin de générer des lymphocytes médiateurs plus efficaces pour ce type de thérapie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La production biologique d'hydrogène (H2) représente une technologie possible pour la production à grande échelle durable de H2 nécessaire pour l'économie future de l'hydrogène. Cependant, l'obstacle majeur à l'élaboration d'un processus pratique a été la faiblesse des rendements qui sont obtenus, généralement autour de 25%, bien en sous des rendements pouvant être atteints pour la production de biocarburants à partir d'autres processus. L'objectif de cette thèse était de tenter d'améliorer la production d'H2 par la manipulation physiologique et le génie métabolique. Une hypothèse qui a été étudiée était que la production d'H2 pourrait être améliorée et rendue plus économique en utilisant un procédé de fermentation microaérobie sombre car cela pourrait fournir la puissance supplémentaire nécessaire pour une conversion plus complète du substrat et donc une production plus grande d'H2 sans l'aide de l'énergie lumineuse. Les concentrations optimales d’O2 pour la production de H2 microaérobie ont été examinées ainsi que l'impact des sources de carbone et d'azote sur le processus. La recherche présentée ici a démontré la capacité de Rhodobacter capsulatus JP91 hup- (un mutant déficient d’absorption-hydrogénase) de produire de l'H2 sous condition microaérobie sombre avec une limitation dans des quantités d’O2 et d'azote fixé. D'autres travaux devraient être entrepris pour augmenter les rendements d'H2 en utilisant cette technologie. De plus, un processus de photofermentation a été créé pour améliorer le rendement d’H2 à partir du glucose à l'aide de R. capsulatus JP91 hup- soit en mode non renouvelé (batch) et / ou en conditions de culture en continu. Certains défis techniques ont été surmontés en mettant en place des conditions adéquates de fonctionnement pour un rendement accru d'H2. Un rendement maximal de 3,3 mols de H2/ mol de glucose a été trouvé pour les cultures en batch tandis que pour les cultures en continu, il était de 10,3 mols H2/ mol de glucose, beaucoup plus élevé que celui rapporté antérieurement et proche de la valeur maximale théorique de 12 mols H2/ mol de glucose. Dans les cultures en batch l'efficacité maximale de conversion d’énergie lumineuse était de 0,7% alors qu'elle était de 1,34% dans les cultures en continu avec un rendement de conversion maximum de la valeur de chauffage du glucose de 91,14%. Diverses autres approches pour l'augmentation des rendements des processus de photofermentation sont proposées. Les résultats globaux indiquent qu'un processus photofermentatif efficace de production d'H2 à partir du glucose en une seule étape avec des cultures en continu dans des photobioréacteurs pourrait être développé ce qui serait un processus beaucoup plus prometteur que les processus en deux étapes ou avec les co-cultures étudiés antérieurément. En outre, l'expression hétérologue d’hydrogenase a été utilisée comme une stratégie d'ingénierie métabolique afin d'améliorer la production d'H2 par fermentation. La capacité d'exprimer une hydrogénase d'une espèce avec des gènes de maturation d'une autre espèce a été examinée. Une stratégie a démontré que la protéine HydA orpheline de R. rubrum est fonctionnelle et active lorsque co-exprimée chez Escherichia coli avec HydE, HydF et HydG provenant d'organisme différent. La co-expression des gènes [FeFe]-hydrogénase structurels et de maturation dans des micro-organismes qui n'ont pas une [FeFe]-hydrogénase indigène peut entraîner le succès dans l'assemblage et la biosynthèse d'hydrogénase active. Toutefois, d'autres facteurs peuvent être nécessaires pour obtenir des rendements considérablement augmentés en protéines ainsi que l'activité spécifique des hydrogénases recombinantes. Une autre stratégie a consisté à surexprimer une [FeFe]-hydrogénase très active dans une souche hôte de E. coli. L'expression d'une hydrogénase qui peut interagir directement avec le NADPH est souhaitable car cela, plutôt que de la ferrédoxine réduite, est naturellement produit par le métabolisme. Toutefois, la maturation de ce type d'hydrogénase chez E. coli n'a pas été rapportée auparavant. L'opéron hnd (hndA, B, C, D) de Desulfovibrio fructosovorans code pour une [FeFe]-hydrogénase NADP-dépendante, a été exprimé dans différentes souches d’E. coli avec les gènes de maturation hydE, hydF et hydG de Clostridium acetobutylicum. L'activité de l'hydrogénase a été détectée in vitro, donc une NADP-dépendante [FeFe]-hydrogénase multimérique active a été exprimée avec succès chez E. coli pour la première fois. Les recherches futures pourraient conduire à l'expression de cette enzyme chez les souches de E. coli qui produisent plus de NADPH, ouvrant la voie à une augmentation des rendements d'hydrogène via la voie des pentoses phosphates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications importantes au niveau de la présentation clinique de cette condition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio‐visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.