66 resultados para plateforme
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.
Resumo:
Entailing of phosphorus exchanges in most bio-chemicals as a key factor in disease, increases researcher’s interest to develop the technologies capable of detecting this metabolite. Phosphorus magnetic resonance spectroscopy is able to detect key metabolites in a non-invasive manner. Particularly, it offers the ability to measure the dynamic rate of phosphocreatine(PCr) degeneration through the exercise and recovery. This metric as a valid indication of mitochondrial oxidative metabolism in muscle, differentiate between normal and pathological state. To do magnetic resonance imaging and spectroscopy, clinical research tools provide a wide variety of anatomical and functional contrasts, however they are typically restricted to the tissues containing water or hydrogen atoms and they are still blind to the biochemicals of other atoms of interests. Through this project we intended to obtain the phosphorus spectrum in human body – specificadenerativelly in muscle – using 31P spectroscopy. To do so a double loop RF surface coil, tuned to phosphorus frequency, is designed and fabricated using bench work facilities and then validated through in vitro spectroscopy using 3 Tesla Siemens scanner. We acquired in vitro as well as in vivo phosphorus spectrum in a 100 mM potassium phosphate phantom and human calf muscle in rest-exercise-recovery phase in a 3T MR scanner. The spectrum demonstrates the main constituent in high-energy phosphate metabolism. We also observed the dynamic variation of PCr for five young healthy subjects who performed planter flexions using resistance band during exercise and recovery. The took steps in this project pave the way for future application of spectroscopic quantification of phosphate metabolism in patients affected by carotid artery disease as well as in age-matched control subjects.
Resumo:
La mémoire immunitaire permet à l’organisme de se souvenir de tous les agents pathogènes rencontrés afin de pouvoir monter une réponse immunitaire plus rapide et plus efficace en cas de réinfection. Après la phase de contraction de la réponse primaire, les lymphocytes T CD8 mémoires survivent grâce à la présence de cytokines telle que l’interleukine 15 (IL-15). Ces cellules permettent aussi au système immunitaire de contrôler les virus latents n’ayant pas été totalement éliminés de l’hôte. Les situations de stress chronique affectent le système immunitaire provoquant la réactivation des virus latents. Des titres viraux élevés de virus de la famille Herspeviridea ont été observés chez les astronautes à leur retour de mission, suggérant que les hormones libérées en situation de stress auraient un impact négatif sur les lymphocytes T CD8+ mémoires. Un modèle de stress chronique in vitro chez la souris a été élaboré en ajoutant de la corticostérone à des lymphocytes T CD8+ mémoires. Il a ainsi été démontré que l’hormone de stress avait un effet pro-apoptotique sur ces cellules et que cet effet était partiellement inhibé par l’IL-15. Des cibles moléculaires ont aussi été identifiées afin de suivre la fonction immunitaire mémoire lors des vols spatiaux à l’aide du cytomètre en flux Microflow1, une nouvelle plateforme portative de diagnostic biomédical. Les résultats des tests en laboratoire puis dans la Station Spatiale Internationale (SSI) démontrent qu’il sera possible de suivre la fonction immunitaire mémoire et les marqueurs de stress en temps réel lors des vols spatiaux.
Resumo:
Les modèles animaux d’arthrose permettent d’évaluer le potentiel d’agents thérapeutiques en phase préclinique de développement. Le présent ouvrage tient compte du chien comme modèle d’arthrose naturelle (chez l’animal de compagnie) ou expérimentale (par sectionnement chirurgical du ligament croisé crânial). Au sein des expérimentations, la force de réaction au sol verticale maximale, mesurée lors de l’analyse cinétique de la locomotion, est proposée comme témoin d’effets fonctionnels et structuraux sur ces modèles d’arthrose. Sur un modèle canin d’arthrose naturelle, le seuil de changement minimal détectable a été déterminé. Les changements au dysfonctionnement locomoteur peuvent désormais être cernés en s’affranchissant de la marge d’erreur inhérente à la mesure de la force verticale maximale. Il en découle l’identification de répondants lors d’essais cliniques entrepris chez le chien arthrosique. Une analyse rétrospective a, par la suite, déterminé un taux de répondants de 62.8% et d’une taille d’effet de 0.7 pour des approches thérapeutiques actuellement proposées aux chiens arthrosiques. Cette analyse détermina également que la démonstration d’une réponse thérapeutique était favorisée en présence d’un fort dysfonctionnement locomoteur. Sur un modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial, la force verticale maximale a démontré une relation inverse avec certains types de lésions arthrosiques évaluées à l’aide d’imagerie par résonance magnétique. Également, la sensibilité de la force verticale maximale a été mise en évidence envers la détection d’effets structuraux, au niveau de l’os sous-chondral, par un agent anti-résorptif (le tiludronate) sur ce même modèle. Les expérimentations en contexte d’arthrose naturelle canine permettent de valider davantage les résultats d’essais cliniques contrôlés utilisant la force verticale maximale comme critère d’efficacité fonctionnelle. Des évidences cliniques probantes nécessaires à la pratique d’une médecine basée sur des faits sont ainsi escomptées. En contexte d’arthrose expérimentale, la pertinence d’enregistrer le dysfonctionnement locomoteur est soulignée, puisque ce dernier est en lien avec l’état des structures. En effectuant l’analyse de la démarche, de pair avec l’évaluation des structures, il est escompté de pouvoir établir la répercussion de bénéfices structurels sur l’inconfort articulaire. Cet ouvrage suggère qu’une plateforme d’investigations précliniques, qui combine le modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial à un essai clinique chez le chien arthrosique, soit un moyen de cerner des bénéfices structuraux ayant des impacts fonctionnels. Le potentiel inférentiel de ces modèles canins d’arthrose vers l’Homme serait ainsi favorisé en utilisant la force verticale maximale.
Resumo:
Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
Au Canada, la prévalence de l'intimidation par les pairs (IPP) est estimée à environ 20 %. L'IPP est associée à de nombreuses difficultés sur le rendement scolaire et le fonctionnement émotionnel, cognitif et comportemental de la victime. Afin de s'investir dans la lutte contre l'IPP, le Québec a promulgué en 2012 la Loi visant à lutter contre l'intimidation et la violence à l'école. Ainsi, les écoles ont pour obligation d'instaurer un plan d'action contre l'intimidation. Toutefois, les services d'aide aux victimes sont parfois limités. C'est pourquoi l'application mobile « +Fort » a été développée. +Fort vise à soutenir les victimes d'IPP à réduire leurs expériences et à prévenir les difficultés associées. Le présent mémoire a trois objectifs: (1) décrire l'expérience des victimes d'IPP ayant utilisé +Fort pendant quatre semaines, (2) effectuer une première appréciation de l'utilité de +Fort à partir des récits des victimes et (3) décrire comment +Fort soutien les jeunes à réduire leurs expériences d'intimidation. Des entrevues semi-dirigées ont été menées auprès de 12 victimes d'IPP (12 à 16 ans) de la région de Montréal puis analysées thématiquement. Les résultats suggèrent que +Fort agirait comme un facilitateur dans les démarches de changement des victimes pour réduire l'IPP. Les ressources offertes par +Fort procureraient aussi une impression de soutien aux victimes qui influencerait ensuite leur désir et leur motivation à entreprendre des actions pour que cesse l'intimidation. Ainsi, les technologies mobiles représenteraient une plateforme attrayante pour soutenir le mieux-être des jeunes vivant de l'intimidation.
Resumo:
Aussi disponible en accès libre sur la plateforme « Parcours numériques » : http://parcoursnumeriques-pum.ca/.
Resumo:
La fonction de contrôle d’absence de danger ("safety check") activée par Facebook lors des attentats terroristes à Paris, nous a permis d’accéder à un ultérieur niveau d’intimité, nous entrelaçant encore une fois de plus au réseau dont nous faisons partie et qui fait autant partie de nous. Le rôle assumé par la plateforme de Zuckerberg pendant cette nuit de terreur pose autant de questions philosophiques sur la relation entre individuel et collectif que de problèmes politiques sur l’institutionnalisation d’une entreprise privée, forte d’une infrastructure transversale aux limites de l’appartenance nationale de tout un chacun, et qui aujourd’hui, hors du web, n’a pas de compétiteurs dans une capacité de plus en plus cruciale : celle de nous saisir en tant qu'éléments d’un réseau.
Resumo:
Notre recherche a pour objectif général de proposer l’adaptation du concept de la relation d’échange superviseur-subordonné (leader-member exchange ou LMX) à la nouvelle réalité du travail à distance. Il s’agit d’étudier la relation d’échange qui se développe entre le superviseur et le subordonné travaillant à distance. Plus précisément, nous visons à définir et à développer une échelle de mesure valide et fiable du concept du LMX à distance. Jusqu’à présent, aucune définition de cette relation d’échange superviseur-subordonné n'a été proposée et aucune échelle de mesure n'a été développée. Dans l’étude que nous proposons, la notion de la distance n’est pas considérée comme un élément contextuel, mais plutôt un élément indissociable du concept lui-même, contrairement à certaines études qui ont examiné la distance comme modérateur de la relation entre le LMX et ses résultantes (Bligh et Riggio, 2012; Brunelle, 2013). À cet effet, cette étude constitue la première sur le sujet. Étant donné l'importance du LMX à distance pour les travailleurs à distance et dont le nombre atteindrait plus de 50 % d’ici 2020 (ITIF, CAS et CoreNet Global), il est primordial de comprendre et d'analyser la relation d’échange superviseur-subordonné à distance afin de mieux comprendre sa nature et son processus de développement, ce qui permettra aux parties de la dyade superviseur-subordonné de mieux s’adapter à cette nouvelle réalité de travail et de développer des relations d’échanges de qualité. Cette recherche aidera les superviseurs travaillant à distance à mieux gérer leur potentiel humain. Pour cerner ce sujet de recherche, nous avons fait une revue approfondie de la littérature traitant du LMX traditionnel et de la notion de distance, et ce, afin de pouvoir proposer une définition du concept du LMX à distance. En outre, nous avons fait appel aux recommandations de la littérature portant sur la psychométrie et nous avons réalisé une étude exploratoire de nature qualitative pour développer son échelle de mesure. Nous avons donc effectué des entrevues individuelles semi-dirigées auprès de trente professeurs d’une université canadienne. Ces entrevues ont été analysées avec le logiciel qualitatif spécialisé Nvivo et ont permis de présenter une première échelle de mesure du LMX à distance composée de sept dimensions et de 27 indicateurs. En somme, nous avons tenu à acquérir une meilleure compréhension de ce phénomène qui est très répandu dans les organisations modernes et à offrir une plateforme théorique et pratique que les chercheurs pourront utiliser pour enrichir leurs connaissances sur le concept du LMX à distance. Enfin, notre étude permettra aux superviseurs et aux subordonnés de comprendre l'importance de développer et de maintenir des relations de qualité conduisant à des résultats organisationnels et personnels positifs.
Resumo:
La plupart des études sur l'étiquetage social porte sur une plateforme ou un type de plateforme précis, ce qui limite la portée de leurs résultats. Cette étude explore et compare les pratiques d'étiquetage social de quatre plateformes--Goodreads, un catalogue de bibliothèque publique, Last.fm et WordPress--au moyen d'une étude de cas multiples et emboîtés. Le contenu généré par les utilisateurs, principalement les étiquettes ou "tags", lié au livre Casino royale de Ian Fleming ou à ses produits dérivés ou associés (p. ex. : chanson thème, film, billet de blogue) a été analysé avec une approche qualitative et inductive. L'analyse révèle que le contenu généré par les utilisateurs des quatre plateformes mettait l'emphase sur les événements historiques associés au livre tout en fournissant de nombreux points d'accès plus subjectifs : recommandation, ton, ambiance, opinion, expérience de lecture, d'écoute ou de visionnement. On remarque par ailleurs des différences entre les étiquettes associées au livre et à ses produits dérivés : alors que le contenu généré par les utilisateurs en lien avec le produit d'origine dans les catalogues de bibliothèques et dans Goodreads portait essentiellement sur le livre, les étiquettes attribuées par les utilisateurs aux produits dérivés dans Last.fm (la chanson thème du film) et WordPress (des billets de blogues sur le livre ou le film) renvoyaient souvent à d'autres produits culturels, incluant des livres, de la musique et des films.
Resumo:
Ce projet de recherche mené en collaboration industrielle avec St-Jean Photochimie Inc. / PCAS Canada vise le développement et la caractérisation de dérivés dipyrrométhène pour des applications dans le domaine du photovoltaïque. La quête du récoltage des photons se situant dans le proche-infrarouge a été au centre des modifications structurales explorées afin d’augmenter l’efficacité de conversion des cellules solaires de type organique et à pigments photosensibles. Trois familles de composés intégrant le motif dipyrrométhène ont été synthétisées et caractérisées du point de vue spectroscopique, électrochimique, structural ainsi que par modélisation moléculaire afin d’établir des relations structures-propriétés. La première famille comporte six azadipyrrométhènes au potentiel de coordination tétradentate sur des centres métalliques. Le développement d’une nouvelle voie synthétique asymétrique combinée à l’utilisation d’une voie symétrique classique ont permis d’obtenir l’ensemble des combinaisons de substituants possibles sur les aryles proximaux incluant les noyaux 2-hydroxyphényle, 2-méthoxyphényle et 2- pyridyle. La modulation du maximum d’absorption dans le rouge a pu être faite entre 598 et 619 nm. De même, la présence de groupements méthoxyle ou hydroxyle augmente l’absorption dans le violet (~410 nm) tel que démontré par modélisation. La caractérisation électrochimique a montré que les dérivés tétradentates étaient en général moins stables aux processus redox que leur contre-parti bidentate. La deuxième famille comporte dix dérivés BODIPY fusionnés de façon asymétrique en position [b]. L’aryle proximal a été modifié de façon systématique afin de mieux comprendre l’impact des substituents riches en électron et de la fusion de cycles aromatiques. De plus, ces dérivés ont été mis en relation avec une vaste série de composés analogues. Les résultats empiriques ont montré que les propriétés optoélectroniques de la plateforme sont régies par le degré de communication électronique entre l’aryle proximal, le pyrrole sur lequel il est attaché et le noyau indolique adjacent à ce dernier. Les maximums d’absorption dans le rouge sont modulables entre 547 et 628 nm et la fluorescence des composés se situe dans le proche- infrarouge. L’un des composé s’est révélé souhaitable pour une utilisation en photovoltaïque ainsi qu’à titre de sonde à pH. La troisième famille comporte cinq complexes neutres de RuII basés sur des polypyridines et portant un ligand azadipyrrométhène cyclométalé. Les composés ont montré une forte absorption de photons dans la région de 600 à 800 nm (rouge à proche- infrarouge) et qui a pu être étendue au-delà de 1100 nm dans le cas des dérivés portant un ligand terpyridine. L’analyse des propriétés optoélectroniques de façon empirique et théorique a montré un impact significatif de la cyclométalation et ouvert la voie pour leur étude en tant que photosensibilisateurs en OPV et en DSSC. La capacité d’un des complexes à photo-injecter un électron dans la bande de conduction du semi-conducteur TiO2 a été démontré en collaboration avec le groupe du Pr Gerald J. Meyer à University of North Carolina at Chapel Hill, premier pas vers une utilisation dans les cellules solaires à pigments photosensibles. La stabilité des complexes en solution s’est toutefois avérée problématique et des pistes de solutions sont suggérées basées sur les connaissances acquises dans le cadre de cette thèse.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels. La version intégrale du mémoire a été déposée à la Division de la gestion des documents et des archives.
Resumo:
Les peptides et protéines extracteurs de lipides (PEL) se lient aux membranes lipidiques puis en extraient des lipides en formant de plus petits auto-assemblages, un phénomène qui peut aller jusqu'à la fragmentation des membranes. Dans la nature, cette extraction se produit sur une gamme de cellules et entraîne des conséquences variées, comme la modification de la composition de la membrane et la mort de la cellule. Cette thèse se penche sur l’extraction lipidique, ou fragmentation, induite par le peptide mélittine et la protéine Binder-of-SPerm 1 (BSP1) sur des membranes lipidiques modèles. Pour ce faire, des liposomes de différentes compositions sont préparés et incubés avec la mélittine ou la BSP1. L'association aux membranes est déterminée par la fluorescence intrinsèque des PEL, tandis que l'extraction est caractérisée par une plateforme analytique combinant des tests colorimétriques et des analyses en chromatographie en phase liquide et spectrométrie de masse (LCMS). La mélittine fait partie des peptides antimicrobiens cationiques, un groupe de PEL très répandu chez les organismes vivants. Ces peptides sont intéressants du point du vue médical étant donné leur mode d’action qui vise directement les lipides des membranes. Plusieurs de ceux-ci agissent sur les membranes des bactéries selon le mécanisme dit « en tapis », par lequel ils s’adsorbent à leur surface, forment des pores et ultimement causent leur fragmentation. Dans cette thèse, la mélittine est utilisée comme peptide modèle afin d’étudier le mécanisme par lequel les peptides antimicrobiens cationiques fragmentent les membranes. Les résultats montrent que la fragmentation des membranes de phosphatidylcholines (PC) est réduite par une déméthylation graduelle de leur groupement ammonium. L'analyse du matériel fragmenté révèle que les PC sont préférentiellement extraites des membranes, dû à un enrichissement local en PC autour de la mélittine à l'intérieur de la membrane. De plus, un analogue de la mélittine, dont la majorité des résidus cationiques sont neutralisés, est utilisé pour évaluer le rôle du caractère cationique de la mélittine native. La neutralisation augmente l'affinité du peptide pour les membranes neutres et anioniques, réduit la fragmentation des membranes neutres et augmente la fragmentation des membranes anioniques. Malgré les interactions électrostatiques entre le peptide cationique et les lipides anioniques, aucune spécificité lipidique n'est observée dans l'extraction. La BSP1 est la protéine la plus abondante du liquide séminal bovin et constitue un autre exemple de PEL naturel important. Elle se mélange aux spermatozoïdes lors de l’éjaculation et extrait des lipides de leur membrane, notamment le cholestérol et les phosphatidylcholines. Cette étape cruciale modifie la composition lipidique de la membrane du spermatozoïde, ce qui faciliterait par la suite la fécondation de l’ovule. Cependant, le contact prolongé de la protéine avec les spermatozoïdes endommagerait la semence. Cette thèse cherche donc à approfondir notre compréhension de ce délicat phénomène en étudiant le mécanisme moléculaire par lequel la protéine fragmente les membranes lipidiques. Les résultats des présents travaux permettent de proposer un mécanisme d’extraction lipidique en 3 étapes : 1) L'association à l’interface des membranes; 2) La relocalisation de l’interface vers le cœur lipidique; 3) La fragmentation des membranes. La BSP1 se lie directement à deux PC à l'interface; une quantité suffisante de PC dans les membranes est nécessaire pour permettre l'association et la fragmentation. Cette liaison spécifique ne mène généralement pas à une extraction lipidique sélective. L'impact des insaturations des chaînes lipidiques, de la présence de lysophosphatidylcholines, de phosphatidyléthanolamine, de cholestérol et de lipides anioniques est également évalué. Les présentes observations soulignent la complexe relation entre l'affinité d'un PEL pour une membrane et le niveau de fragmentation qu'il induit. L'importance de la relocalisation des PEL de l'interface vers le cœur hydrophobe des membranes pour permettre leur fragmentation est réitérée. Cette fragmentation semble s'accompagner d'une extraction lipidique préférentielle seulement lorsqu'une séparation de phase est induite au niveau de la membrane, nonobstant les interactions spécifiques PEL-lipide. Les prévalences des structures amphiphiles chez certains PEL, ainsi que de la fragmentation en auto-assemblages discoïdaux sont discutées. Finalement, le rôle des interactions électrostatiques entre les peptides antimicrobiens cationiques et les membranes bactériennes anioniques est nuancé : les résidus chargés diminueraient l'association des peptides aux membranes neutres suite à l'augmentation de leur énergie de solvatation.
Resumo:
Travail présenté à Dahlia Kairy Dans le cadre du cours PHT-6123 Travail d’intégration