996 resultados para Streaming Applications


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2010 dans le cadre des cours SCI6112 L’évaluation des archives sous la direction du professeur Yvon Lemay et SCI6314 Gestion avancée des services d'information sous la direction de Carole Brouillette.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le sujet général de cette thèse est l’étude de la fonctionnalisation covalente des nanotubes de carbone (CNT) et son application en électronique. Premièrement, une introduction au sujet est présentée. Elle discute des propriétés des CNT, des différentes sortes de fonctionnalisation covalente ainsi que des principales techniques de caractérisation utilisées au cours de la thèse. Deuxièmement, les répercussions de la fonctionnalisation covalente sur les propriétés des nanotubes de carbone monoparoi (SWNT) sont étudiées. Deux types de fonctionnalisation sont regardés, soit le greffage de groupements phényles et le greffage de groupements dichlorométhylènes. Une diminution de l’absorption optique des SWNT dans le domaine du visible-proche infrarouge est observée ainsi qu’une modification de leur spectre Raman. De plus, pour les dérivés phényles, une importante diminution de la conductance des nanotubes est enregistrée. Troisièmement, la réversibilité de ces deux fonctionnalisations est examinée. Il est montré qu’un recuit permet de résorber les modifications structurales et retrouver, en majorité, les propriétés originales des SWNT. La température de défonctionnalisation varie selon le type de greffons, mais ne semble pas affectée par le diamètre des nanotubes (diamètre examinés : dérivés phényles, Ømoyen= 0,81 nm, 0,93 nm et 1,3 nm; dérivés dichlorométhylènes, Ømoyen = 0,81 nm et 0,93 nm). Quatrièmement, la polyvalence et la réversibilité de la fonctionnalisation covalente par des unités phényles sont exploitées afin de développer une méthode d’assemblage de réseaux de SWNT. Celle-ci, basée sur l’établissement de forces électrostatiques entre les greffons des SWNT et le substrat, est à la fois efficace et sélective quant à l’emplacement des SWNT sur le substrat. Son application à la fabrication de dispositifs électroniques est réalisée. Finalement, la fonctionnalisation covalente par des groupements phényles est appliquée aux nanotubes de carbone à double paroi (DWNT). Une étude spectroscopique montre que cette dernière s’effectue exclusivement sur la paroi externe. De plus, il est démontré que la signature électrique des DWNT avant et après la fonctionnalisation par des groupements phényles est caractéristique de l’agencement nanotube interne@ nanotube externe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les cyclopropanes sont des motifs d’une grande importance puisqu’ils sont présents dans plusieurs molécules biologiquement actives en plus d’être de puissants intermédiaires dans la synthèse de molécules complexes. Au cours de cet ouvrage, nous avons développé une nouvelle méthode générale pour la synthèse d’ylures d’iodonium de malonates, soit d’importants précurseurs d’esters cyclopropane-1,1-dicarboxyliques. Ainsi, à l’aide de ces ylures, une méthode très efficace pour la synthèse d’esters cyclopropane-1,1-dicarboxyliques racémiques a été développée. Des travaux ont aussi été entrepris pour la synthèse énantiosélective de ces composés. Par ailleurs, les esters cyclopropane-1,1-dicarboxyliques ont été utilisés dans le développement de deux nouvelles méthodologies, soit dans une réaction de cycloaddition (3+3) avec des imines d’azométhines et dans la formation d’allènes par l’addition-1,7 de cuprates. Nous avons aussi poursuivi l’étude synthétique du cylindrocyclophane F impliquant l’utilisation de cyclopropanes pour le contrôle des centres chiraux. Ainsi l’addition-1,5 d’un cuprate sur un ester cyclopropane-1,1-dicarboxylique a été utilisée comme l’une des étapes clés de notre synthèse. L’autre centre chiral a pu être contrôlé par l’hydrogénolyse sélective d’un cyclopropylméthanol. Ces études ont, par ailleurs, mené au développement d’une nouvelle réaction d’arylcyclopropanation énantiosélective utilisant des carbénoïdes de zinc générés in situ à partir de réactifs diazoïques. Cette méthode permet d’accéder très efficacement aux cyclopropanes 1,2,3-substitués. De plus, nous avons développé la première réaction de Simmons-Smith catalytique en zinc menant à un produit énantioenrichi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Soit (M, ω) une variété symplectique. Nous construisons une version de l’éclatement et de la contraction symplectique, que nous définissons relative à une sous-variété lagrangienne L ⊂ M. En outre, si M admet une involution anti-symplectique ϕ, et que nous éclatons une configuration suffisament symmetrique des plongements de boules, nous démontrons qu’il existe aussi une involution anti-symplectique sur l’éclatement ~M. Nous dérivons ensuite une condition homologique pour les surfaces lagrangiennes réeles L = Fix(ϕ), qui détermine quand la topologie de L change losqu’on contracte une courbe exceptionnelle C dans M. Finalement, on utilise ces constructions afin d’étudier le packing relatif dans (ℂP²,ℝP²).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le sujet principal de cette thèse porte sur les mesures de risque. L'objectif général est d'investiguer certains aspects des mesures de risque dans les applications financières. Le cadre théorique de ce travail est celui des mesures cohérentes de risque telle que définie dans Artzner et al (1999). Mais ce n'est pas la seule classe de mesure du risque que nous étudions. Par exemple, nous étudions aussi quelques aspects des "statistiques naturelles de risque" (en anglais natural risk statistics) Kou et al (2006) et des mesures convexes du risque Follmer and Schied(2002). Les contributions principales de cette thèse peuvent être regroupées selon trois axes: allocation de capital, évaluation des risques et capital requis et solvabilité. Dans le chapitre 2 nous caractérisons les mesures de risque avec la propriété de Lebesgue sur l'ensemble des processus bornés càdlàg (continu à droite, limité à gauche). Cette caractérisation nous permet de présenter deux applications dans l'évaluation des risques et l'allocation de capital. Dans le chapitre 3, nous étendons la notion de statistiques naturelles de risque à l'espace des suites infinies. Cette généralisation nous permet de construire de façon cohérente des mesures de risque pour des bases de données de n'importe quelle taille. Dans le chapitre 4, nous discutons le concept de "bonnes affaires" (en anglais Good Deals), pour notamment caractériser les situations du marché où ces positions pathologiques sont présentes. Finalement, dans le chapitre 5, nous essayons de relier les trois chapitres en étendant la définition de "bonnes affaires" dans un cadre plus large qui comprendrait les mesures de risque analysées dans les chapitres 2 et 3.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire décrit la synthèse, la caractérisation spectroscopique et l’étude de la réactivité catalytique d’une nouvelle série de complexes pinceurs de Ni(II) formés à partir du ligand POCOPPh (P,C,P-2,6-{Ph2PO}2C6H4), très peu étudié dans le cas du nickel. Les études décrites dans ce mémoire examinent l’effet des substituants des phosphines sur les propriétés spectroscopiques et électrochimiques ainsi que les activités catalytiques. La synthèse du ligand a été améliorée par rapport à la procédure connue dans la littérature en diminuant le temps de réaction à 30 min et la température jusqu'à température ambiante. Les composés pinceur (P,C,P-2,6-{Ph2PO}2C6H3)NiX ont été obtenus avec des rendements variant entre 60% et 88%. Le premier complexe a été synthétisé en faisant réagir le précurseur NiBr2(NCCH3)x avec le ligand POCOPPh pour donner (POCOPPh)NiBr. Ce dernier réagit par la suite avec les sels d’argent et de potassium pour donner 4 nouveaux complexes soient : (POCOPPh)NiCN, (POCOPPh)NiOTf, (POCOPPh)NiOAc et (POCOPPh)NiONO2 (OTf = triflate et OAc = acetate). Vu la réactivité limitée du dérivé bromure, le dérivé (POCOPPh)NiOTf a été utilisé pour la préparation du composé (POCOPPh)NiCCPh. Le dérivé Ni-OTf a été utilisé également pour la synthèse des complexes (POCOPPh)NiR qui ont été détectés par RMN. Ces complexes (POCOPPh)NiR ont montré une stabilité trop faible et donnent des nouveaux complexes de type (POCOPPh)NiX en échangeant l’halogène avec le Mg ou de type (POCOPPh)NiOH en s’hydrolysant. Les espèces cationiques [(POCOPPh)NiNCR][OTf] (R= Me, CHCH2, CHCHMe, C(Me)CH2, NCCH2CH2N(Ph)H) ont été obtenues facilement et avec des bon rendements à partir du (POCOPPh)NiOTf. Tous les composés obtenus ont été caractérisés par la spectroscopie RMN (1H, 13C{1H}, 31P{1H}, 19F{1H}), la spectroscopie IR et la spectroscopie UV-vis. L’analyse élémentaire et l’analyse par la diffraction des rayons X, dont le but est de résoudre la structure à l’état solide, ont été utilisées pour la plupart des complexes. Des études de voltampérométrie cyclique ont été menées pour déterminer la densité électronique des centres métalliques et l’effet des phosphines sur cette propriété électrochimique. Dans le but de déterminer l’effet des substituants des phosphines sur l’activité catalytique des complexes, nous avons évalué les réactivités catalytiques des deux complexes (POCOPPh)NiOTf et (POCOPi-Pr)NiOTf dans la réaction d’hydroamination des oléfines activés et plus spécifiquement l’acrylonitrile. Après optimisation des conditions expérimentales, on a constaté que la réactivité des deux composés sont similaires mais une grande différence apparaît après l’ajout des additifs. En effet, le complexe (POCOPi-Pr)NiOTf donne une bonne activité catalytique en présence de la triéthylamine, tandis que cette activité diminue considérablement en présence d’eau, contrairement au complexe (POCOPPh)NiOTf qui est plus actif en présence d’eau. Dans le cas du complexe (POCOPPh)NiOTf, on a pu montrer que la base se coordonne au nickel dans le produit formé après la réaction d’hydroamination, ce qui diminue l’activité de ce complexe dans certains cas. Également on a exploré la réaction de l’addition du lien O-H sur l’acrylonitrile, et étonnamment le complexe (POCOPPh)NiOTf est beaucoup plus actif que son homologue (POCOPi-Pr)NiOTf dans le cas des alcools aromatiques. Par contre, les alcools aliphatiques restent un défi majeur pour ce genre de complexe. Le mécanisme de cette réaction qui a été proposé montre que l’alcoolyse passe par les deux intermédiaires (POCOPPh)NiOAr et [(POCOPPh)NiOAr][HOAr] mais l’isolation de ces intermédiaires observés par RMN semble être difficile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire décrit la synthèse et l’utilité de complexes Cu-NHC. En premier lieu, la synthèse de complexes de cuivre porteurs de ligand(s) de type carbène-N-hétérocyclique (NHC) via une génération décarboxylative de carbènes sera présentée. En effet, de précédents rapports font état de l’utilisation de carboxylates d’imidazol(in)ium en tant que précurseurs carbéniques sous conditions thermolytiques. Ainsi, la présente étude montre l’utilisation de ces espèces zwitterioniques pour la synthèse de complexes de cuivre(I) mono- et bis-NHC comportant divers substituants et contre-ions. Une seconde partie du projet se concentrera sur l’évaluation de complexes Cu-NHC en tant que catalyseurs pour la synthèse de 2,2’-binaphtols via une réaction de couplage oxydatif de naphtols. L’objectif de ce projet de recherche est d’étudier les effets de variations structurales de différents complexes Cu-NHC afin de construire un processus catalytique plus efficace. Les effets de la structure du catalyseur sur la réaction de couplage ont été évalués en variant son contre-ion, le nombre de ligands NHC se coordonnant au cuivre, ainsi que la nature des substituants du ligand.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal