66 resultados para plateforme


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: Définir l’effet des lipides et du traitement de la dyslipidémie sur les cancers de la prostate et de la vessie en utilisant différents devis d’étude et en tenant compte de la présence de plusieurs biais, particulièrement le biais du temps immortel. Devis: Le premier volet utilise un devis rétrospectif de type cas témoins. Un questionnaire semi-quantitatif de fréquence de consommation alimentaire validé a été utilisé. Le génotype COX2 de neuf polymorphisme nucléotidique unique (SNP) a été mesuré avec une plateforme Taqman. Des modèles de régression logistique non conditionnelle ont été utilisés pour comparer le risque de diagnostic d’un cancer de la prostate et l’interaction. Le deuxième volet utilise un devis rétrospectif de type cohorte basée sur les données administratives de la Régie de l’assurance-maladie du Québec (RAMQ). Des modèles de régression de Cox ont été employés pour mesurer l’association entre les statines et l’évolution du cancer de la vessie. Le troisième volet, porte un regard méthodologique sur le biais du temps immortel en examinant sa présence dans la littérature oncologique. Son importance est illustrée avec les données de la cohorte du deuxième volet, et les méthodes de correction possibles son appliquées. Résultats: L’étude du premier volet démontre qu’une diète riche en acides gras oméga-3 d’origine marine était fortement associée à un risque diminué de cancer de la prostate agressif (p<0.0001 pour la tendance). Le ratio de cote pour le cancer de la prostate du quartile supérieur d’oméga-3 était de 0.37 (IC 95% = 0.25 à 0.54). L’effet diététique était modifié par le génotype COX-2 SNP rs4648310 (p=0.002 pour l’interaction). En particulier, les hommes avec faible apport en oméga-3 et la variante rs4648310 avait un risque accru de cancer de la prostate (ratio de cote = 5.49, IC 95%=1.80 à 16.7), effet renversé par un apport en oméga-3 plus grand. L’étude du deuxième volet a observé que l’utilisation de statines est associée à une diminution du risque de progression du cancer de la vessie (risque relatif = 0.44, IC 95% = 0.20 à 0.96, p=0.039). Cette association était encore plus forte pour le décès de toute cause (HR = 0.57, 95% CI = 0.43 to 0.76, p=0.0001). L’effet des statines semble être dose-dépendant. L’étude du troisième volet démontre que le biais du temps immortel est fréquent et important dans les études épidémiologiques oncologiques. Il comporte plusieurs aspects dont certains sont mieux prévenus au stade du choix du devis d’étude et différentes méthodes statistiques permettent un contrôle de ce biais. Conclusion: 1) Une diète riche en oméga-3 aurait un effet protecteur pour le cancer de la prostate. 2) L’utilisation de statines aurait un effet protecteur sur la progression du cancer non invasif de la vessie. Les lipides semblent avoir un effet sur les cancers urologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phosphorylation est une modification post-traductionnelle omniprésente des protéines Cette modification est ajoutée et enlevée par l’activité enzymatique respective des protéines kinases et phosphatases. Les kinases Erk1/2 sont au cœur d’une voie de signalisation importante qui régule l’activité de protéines impliquées dans la traduction, le cycle cellulaire, le réarrangement du cytosquelette et la transcription. Ces kinases sont aussi impliquées dans le développement de l’organisme, le métabolisme du glucose, la réponse immunitaire et la mémoire. Différentes pathologies humaines comme le diabète, les maladies cardiovasculaires et principalement le cancer, sont associées à une perturbation de la phosphorylation sur les différents acteurs de cette voie. Considérant l’importance biologique et clinique de ces deux kinases, connaître l’étendue de leur activité enzymatique pourrait mener au développement de nouvelles thérapies pharmacologiques. Dans ce contexte, l’objectif principal de cette thèse était de mesurer l’influence de cette voie sur le phosphoprotéome et de découvrir de nouveaux substrats des kinases Erk1/2. Une étude phosphoprotéomique de cinétique d’inhibition pharmacologique de la voie de signalisation Erk1/2 a alors été entreprise. Le succès de cette étude était basé sur trois technologies clés, soit l’enrichissement des phosphopeptides avec le dioxyde de titane, la spectrométrie de masse haut débit et haute résolution, et le développement d’une plateforme bio-informatique nommée ProteoConnections. Cette plateforme permet d’organiser les données de protéomique, évaluer leur qualité, indiquer les changements d’abondance et accélérer l’interprétation des données. Une fonctionnalité distinctive de ProteoConnections est l’annotation des sites phosphorylés identifiés (kinases, domaines, structures, conservation, interactions protéiques phospho-dépendantes). Ces informations ont été essentielles à l’analyse des 9615 sites phosphorylés sur les 2108 protéines identifiées dans cette étude, soit le plus large ensemble rapporté chez le rat jusqu’à ce jour. L’analyse des domaines protéiques a révélé que les domaines impliqués dans les interactions avec les protéines, les acides nucléiques et les autres molécules sont les plus fréquemment phosphorylés et que les sites sont stratégiquement localisés pour affecter les interactions. Un algorithme a été implémenté pour trouver les substrats potentiels des kinases Erk1/2 à partir des sites identifiés selon leur motif de phosphorylation, leur cinétique de stimulation au sérum et l’inhibition pharmacologique de Mek1/2. Une liste de 157 substrats potentiels des kinases Erk1/2 a ainsi été obtenue. Parmi les substrats identifiés, douze ont déjà été rapportés et plusieurs autres ont des fonctions associées aux substrats déjà connus. Six substrats (Ddx47, Hmg20a, Junb, Map2k2, Numa1, Rras2) ont été confirmés par un essai kinase in vitro avec Erk1. Nos expériences d’immunofluorescence ont démontré que la phosphorylation de Hmg20a sur la sérine 105 par Erk1/2 affecte la localisation nucléocytoplasmique de cette protéine. Finalement, les phosphopeptides isomériques positionnels, soit des peptides avec la même séquence d’acides aminés mais phosphorylés à différentes positions, ont été étudiés avec deux nouveaux algorithmes. Cette étude a permis de déterminer leur fréquence dans un extrait enrichi en phosphopeptides et d’évaluer leur séparation par chromatographie liquide en phase inverse. Une stratégie analytique employant un des algorithmes a été développée pour réaliser une analyse de spectrométrie de masse ciblée afin de découvrir les isomères ayant été manqués par la méthode d’analyse conventionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude vise à évaluer l'exposition professionnelle au bruit des travailleurs d'une plateforme gazière en Algérie et à mettre en évidence des déterminants influençant cette exposition. Des groupes d'exposition homogène (GEH) ont été constitués sur la base de ressemblances quant à l'exposition au bruit, aux titres d'emploi et aux lieux de travail. Deux stratégies d'échantillonnage ont été suivies, la première selon la norme internationale ISO 9612 : 2009 et la seconde selon la stratégie aléatoire de l'AIHA. Pour les deux approches, les niveaux de bruit (Lex, 8h, niveaux d'exposition au bruit pondéré (A) ajustés à une journée de travail de 8 heures) des opérateurs et des superviseurs étaient généralement > 85 dB(A) alors que pour les techniciens-tableau, les niveaux de bruit (Lex, 8h) étaient en tout temps < 85 dB(A). Pour les trois GEH du titre d'emploi des maintenanciers, il y a eu régulièrement des dépassements de la valeur de référence. Plusieurs travailleurs oeuvrant sur les plateformes gazières sont exposés à des niveaux importants de bruit et sont à risque de développer des problèmes auditifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette thèse est de développer une plateforme d’immobilisation d’enzymes efficace pour application en biopile. Grâce à la microencapsulation ainsi qu’au choix judicieux des matériaux polymériques pour la fabrication de la plateforme d’immobilisation, l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode serait amélioré. Du même coup, les biopiles employant cette plateforme d’immobilisation d’enzymes pourrait voir leur puissance délivrée être grandement augmentée et atteindre les niveaux nécessaires à l’alimentation d’implants artificiels pouvant remplacer des organes telque le pancréas, les reins, le sphincter urinaire et le coeur. Dans un premier temps, le p-phénylènediamine a été employé comme substrat pour la caractérisation de la laccase encapsulée dans des microcapsules de poly(éthylèneimine). La diffusion de ce substrat à travers les microcapsules a été étudiée sous diverses conditions par l’entremise de son oxidation électrochimique et enzymatique afin d’en évaluer sa réversibilité et sa stabilité. La voltampérométrie cyclique, l’électrode à disque tournante (rotating disk electrode - RDE) et l’électrode à O2 ont été les techniques employées pour cette étude. Par la suite, la famille des poly(aminocarbazoles) et leurs dérivés a été identifée pour remplacer le poly(éthylèneimine) dans la conception de microcapsules. Ces polymères possèdent sur leurs unités de répétition (mono- ou diamino) des amines primaires qui seraient disponibles lors de la polymérisation interfaciale avec un agent réticulant tel qu’un chlorure de diacide. De plus, le 1,8-diaminocarbazole (unité de répétition) possède, une fois polymérisé, les propriétés électrochimiques recherchées pour un transfert d’électrons efficace entre l’enzyme et l’électrode. Il a toutefois été nécessaire de développer une route de synthèse afin d’obtenir le 1,8-diaminocarbazole puisque le protocole de synthèse disponible dans la littérature a été jugé non viable pour être utilisé à grande échelle. De plus, aucun protocole de synthèse pour obtenir du poly(1,8-diaminocarbazole) directement n’a été trouvé. Ainsi, deux isomères de structure (1,6 et 1,8-diaminocarbazole) ont pu être synthétisés en deux étapes. La première étape consistait en une substitution électrophile du 3,6-dibromocarbazole en positions 1,8 et/ou 1,6 par des groupements nitro. Par la suite, une réaction de déhalogénation réductive à été réalisée en utilisant le Et3N et 10% Pd/C comme catalyseur dans le méthanol sous atmosphère d’hydrogène. De plus, lors de la première étape de synthèse, le composé 3,6-dibromo-1-nitro-carbazole a été obtenu; un monomère clé pour la synthèse du copolymère conducteur employé. Finalement, la fabrication de microcapsules conductrices a été réalisée en incorporant le copolymère poly[(9H-octylcarbazol-3,6-diyl)-alt-co-(2-amino-9H-carbazol-3,6-diyl)] au PEI. Ce copolymère a pu être synthétisé en grande quantité pour en permettre son utilisation lors de la fabrication de microcapsules. Son comportement électrochimique s’apparentait à celui du poly(1,8-diaminocarbazole). Ces microcapsules, avec laccase encapsulée, sont suffisamment perméables au PPD pour permettre une activité enzymatique détectable par électrode à O2. Par la suite, la modification de la surface d’une électrode de platine a pu être réalisée en utilisant ces microcapsules pour l’obtention d’une bioélectrode. Ainsi, la validité de cette plateforme d’immobilisation d’enzymes développée, au cours de cette thèse, a été démontrée par le biais de l’augmentation de l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avénement des réseaux sociaux, tel que Facebook, MySpace et LinkedIn, a fourni une plateforme permettant aux individus de rester facilement connectés avec leurs amis, leurs familles ou encore leurs collègues tout en les encourageant activement à partager leurs données personnelles à travers le réseau. Avec la richesse des activités disponibles sur un réseau social, la quantité et la variété des informations personnelles partagées sont considérables. De plus, de part leur nature numérique, ces informations peuvent être facilement copiées, modifiées ou divulguées sans le consentement explicite de leur propriétaire. Ainsi, l’information personnelle révélée par les réseaux sociaux peut affecter de manière concrète la vie de leurs utilisateurs avec des risques pour leur vie privée allant d’un simple embarras à la ruine complète de leur réputation, en passant par l’usurpation d’identité. Malheureusement, la plupart des utilisateurs ne sont pas conscients de ces risques et les outils mis en place par les réseaux sociaux actuels ne sont pas suffisants pour protéger efficacement la vie privée de leurs utilisateurs. En outre, même si un utilisateur peut contrôler l’accès à son propre profil, il ne peut pas contrôler ce que les autres révèlent à son sujet. En effet, les “amis” d’un utilisateur sur un réseau social peuvent parfois révéler plus d’information à son propos que celui-ci ne le souhaiterait. Le respect de la vie privée est un droit fondamental pour chaque individu. Nous pré- sentons dans cette thèse une approche qui vise à accroître la prise de conscience des utilisateurs des risques par rapport à leur vie privée et à maintenir la souveraineté sur leurs données lorsqu’ils utilisent un réseau social. La première contribution de cette thèse réside dans la classification des risques multiples ainsi que les atteintes à la vie privée des utilisateurs d’un réseau social. Nous introduisons ensuite un cadre formel pour le respect de la vie privée dans les réseaux sociaux ainsi que le concept de politique de vie privée (UPP). Celle-ci définie par l’utilisateur offre une manière simple et flexible de spécifier et communiquer leur attentes en terme de respect de la vie privée à d’autres utilisateurs, tiers parties ainsi qu’au fournisseur du réseau social. Par ailleurs, nous dé- finissons une taxonomie (possiblement non-exhaustive) des critères qu’un réseau social peut intégrer dans sa conception pour améliorer le respect de la vie privée. En introduisant le concept de réseau social respectueux de la vie privée (PSNS), nous proposons Privacy Watch, un réseau social respectueux de la vie privée qui combine les concepts de provenance et d’imputabilité afin d’aider les utilisateurs à maintenir la souveraineté sur leurs données personnelles. Finalement, nous décrivons et comparons les différentes propositions de réseaux sociaux respectueux de la vie privée qui ont émergé récemment. Nous classifions aussi ces différentes approches au regard des critères de respect de la vie privée introduits dans cette thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), Université de Montréal, sous la direction de Mme Audrey Laplante dans le cadre du cours SCI6850 Recherche individuelle, à l'automne 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un papier bioactif est obtenu par la modification d’un papier en y immobilisant une ou plusieurs biomolécules. La recherche et le développement de papiers bioactifs est en plein essor car le papier est un substrat peu dispendieux qui est déjà d’usage très répandu à travers le monde. Bien que les papiers bioactifs n’aient pas connus de succès commercial depuis la mise en marche de bandelettes mesurant le taux de glucose dans les années cinquante, de nombreux groupes de recherche travaillent à immobiliser des biomolécules sur le papier pour obtenir un papier bioactif qui est abordable et possède une bonne durée de vie. Contrairement à la glucose oxidase, l’enzyme utilisée sur ces bandelettes, la majorité des biomolécules sont très fragiles et perdent leur activité très rapidement lorsqu’immobilisées sur des papiers. Le développement de nouveaux papiers bioactifs pouvant détecter des substances d’intérêt ou même désactiver des pathogènes dépend donc de découverte de nouvelles techniques d’immobilisation des biomolécules permettant de maintenir leur activité tout en étant applicable dans la chaîne de production actuelle des papiers fins. Le but de cette thèse est de développer une technique d’immobilisation efficace et versatile, permettant de protéger l’activité de biomolécules incorporées sur des papiers. La microencapsulation a été choisie comme technique d’immobilisation car elle permet d’enfermer de grandes quantités de biomolécules à l’intérieur d’une sphère poreuse permettant leur protection. Pour cette étude, le polymère poly(éthylènediimine) a été choisi afin de générer la paroi des microcapsules. Les enzymes laccase et glucose oxidase, dont les propriétés sont bien établies, seront utilisées comme biomolécules test. Dans un premier temps, deux procédures d’encapsulation ont été développées puis étudiées. La méthode par émulsion produit des microcapsules de plus petits diamètres que la méthode par encapsulation utilisant un encapsulateur, bien que cette dernière offre une meilleure efficacité d’encapsulation. Par la suite, l’effet de la procédure d’encapsulation sur l’activité enzymatique et la stabilité thermique des enzymes a été étudié à cause de l’importance du maintien de l’activité sur le développement d’une plateforme d’immobilisation. L’effet de la nature du polymère utilisé pour la fabrication des capsules sur la conformation de l’enzyme a été étudié pour la première fois. Finalement, l’applicabilité des microcapsules de poly(éthylèneimine) dans la confection de papiers bioactifs a été démontré par le biais de trois prototypes. Un papier réagissant au glucose a été obtenu en immobilisant des microcapsules contenant l’enzyme glucose oxidase. Un papier sensible à l’enzyme neuraminidase pour la détection de la vaginose bactérienne avec une plus grande stabilité durant l’entreposage a été fait en encapsulant les réactifs colorimétriques dans des capsules de poly(éthylèneimine). L’utilisation de microcapsules pour l’immobilisation d’anticorps a également été étudiée. Les avancées au niveau de la plateforme d’immobilisation de biomolécules par microencapsulation qui ont été réalisées lors de cette thèse permettront de mieux comprendre l’effet des réactifs impliqués dans la procédure de microencapsulation sur la stabilité, l’activité et la conformation des biomolécules. Les résultats obtenus démontrent que la plateforme d’immobilisation développée peut être appliquée pour la confection de nouveaux papiers bioactifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie fut marquée par l’avènement des sites de réseautage social ouvrant la voie à une nouvelle façon de communiquer. Avec 900 millions d’utilisateurs, Facebook est de loin le plus populaire de ces sites (Facebook, 2013). Les caractéristiques propres à cette plateforme, telles que l’information présente en ligne de même que la nature publique des interactions, imposent une réflexion sur son potentiel social. Nombre d’auteurs suggèrent que l’utilisation de Facebook pourrait mener à une augmentation du capital social et plus précisément du capital social de type bridging. Basée sur cette théorisation du réseau social établie par Putnam (2001), cette recherche s’est interrogée sur la participation de Facebook à la restructuration du réseau social chez les jeunes universitaires. Ainsi, 176 étudiants nouvellement arrivés à l’Université de Montréal furent interrogés à l’aide d’un questionnaire et d’entrevues. Cette façon de procéder permit de comparer les interactions que les étudiants ont en ligne aux interactions qu’ils ont en face-à-face. Il ressort de cette recherche que Facebook permet de fixer les liens sociaux naissants et facilite la formation de groupes dans un nouvel environnement. De plus, l’utilisation de cette plateforme accompagne le jeune tout au long de son parcours social et s’inscrit ainsi dans un processus évolutif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quoique très difficile à résoudre, le problème de satisfiabilité Booléenne (SAT) est fréquemment utilisé lors de la modélisation d’applications industrielles. À cet effet, les deux dernières décennies ont vu une progression fulgurante des outils conçus pour trouver des solutions à ce problème NP-complet. Deux grandes avenues générales ont été explorées afin de produire ces outils, notamment l’approche logicielle et matérielle. Afin de raffiner et améliorer ces solveurs, de nombreuses techniques et heuristiques ont été proposées par la communauté de recherche. Le but final de ces outils a été de résoudre des problèmes de taille industrielle, ce qui a été plus ou moins accompli par les solveurs de nature logicielle. Initialement, le but de l’utilisation du matériel reconfigurable a été de produire des solveurs pouvant trouver des solutions plus rapidement que leurs homologues logiciels. Cependant, le niveau de sophistication de ces derniers a augmenté de telle manière qu’ils restent le meilleur choix pour résoudre SAT. Toutefois, les solveurs modernes logiciels n’arrivent toujours pas a trouver des solutions de manière efficace à certaines instances SAT. Le but principal de ce mémoire est d’explorer la résolution du problème SAT dans le contexte du matériel reconfigurable en vue de caractériser les ingrédients nécessaires d’un solveur SAT efficace qui puise sa puissance de calcul dans le parallélisme conféré par une plateforme FPGA. Le prototype parallèle implémenté dans ce travail est capable de se mesurer, en termes de vitesse d’exécution à d’autres solveurs (matériels et logiciels), et ce sans utiliser aucune heuristique. Nous montrons donc que notre approche matérielle présente une option prometteuse vers la résolution d’instances industrielles larges qui sont difficilement abordées par une approche logicielle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les acides biliaires sont reconnus comme des tensioactifs d’origine biologique potentiellement applicables dans le domaine pharmaceutique. Leurs structures en font une plateforme idéale pour l’obtention de nouvelles architectures polymères. Des composés synthétisés par polymérisation anionique de dérivés d’oxirane comme l’oxyde d’éthylène, offre des dérivés amphiphiles pegylés démontrant des propriétés d’agrégation intéressantes en vue d’une amélioration de la biocompatibilité et de la capacité d’encapsulation médicamenteuse. Une large gamme d’acides biliaires pegylés (BA(EGn)x) a été préparée avec comme objectif premier leurs applications dans la formulation de principes actifs problématiques. Pour cela, une caractérisation rigoureuse du comportement de ces dérivés (modulation de la longueur (2 < n < 19) et du nombre de bras (2 < x < 4) de PEG) en solution a été réalisée. Dans le but d’améliorer la biodisponibilité de principes actifs lipophiles (cas de l’itraconazole), des nanoémulsions spontanées, composées de BA(EGn)x et d’acide oléique, ont été développées. L’évaluation in vitro, de la toxicité (cellulaire), et de la capacité de solubilisation des systèmes BA(EGn)x, ainsi que les paramètres pharmacocinétiques in vivo (chez le rat), suggèrent une livraison contrôlée par nos systèmes auto-assemblés lors de l’administration orale et intraveineuse. Aussi, la synthèse de copolymères en blocs en étoile à base d’acide cholique pegylés a été effectuée par polymérisation anionique par addition d’un second bloc au caractère hydrophobe de poly(éther d’allyle et de glycidyle) (CA(EGn-b-AGEm)4). Selon le ratio de blocs hydrophiles-hydrophobes CA(EGn-b-AGEm)4, des réponses thermiques en solution (LCST) ont été observées par un point de trouble (Cp) entre 8 oC et 37 oC. Un mécanisme de formation d’agrégats en plusieurs étapes est suggéré. La thiolation des allyles des PAGE permet une fonctionnalisation terminale à haute densité, comparable aux dendrimères. Les caractérisations physico-chimiques des CA(EGn-b-AGEm-NH2)4 et CA(EGn-b-AGEm-COOH)4 indiquent la formation de structures auto-assemblées en solution, sensibles à la température ou au pH. Cette fonctionnalisation élargie le domaine d’application des dérivés d’acides biliaires pegylés en étoile vers la transfection d’ADN, la livraison de siRNA thérapeutiques ou encore à une sélectivité de livraison médicamenteux (ex. sensibilité au pH, greffage ligands).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Site web associé au mémoire: http://daou.st/JSreal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire porte sur la conception et le développement de deux antennes RF utilisées en imagerie par résonance magnétique. Ces antennes ont pour but de guider le futur développement d’une plateforme d’imagerie multi-animal qui servira les chercheurs du nouveau CRCHUM. Plus spécifiquement, ces antennes ont été conçues pour l’imagerie du proton à 1.5T. La première utilise une birdcage de type lowpass pour la partie émettrice et utilise 8 éléments de surface pour la partie réceptrice. La seconde antenne est une birdcage de type lowpass polarisée circulairement qui est utilisée à la fois pour l’émission et pour la réception. Cette dernière a présenté de bonnes performances, générant des images avec un SNR élevé et avec une bonne homogénéité, la rendant une bonne candidate pour la future plateforme. La première a présenté quelques problèmes au niveau de la désyntonisation de la birdcage et du couplage entre les éléments. Dans le cas où ces problèmes venaient à être surmontés, cette antenne aurait l’avantage de pouvoir utiliser des techniques d’imagerie parallèle et possiblement d’avoir un SNR plus élevé.