26 resultados para Biotechnological applications
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LLM en maîtrise option recherche axe Droit, Biotechnologies et Société"
Resumo:
Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2010 dans le cadre des cours SCI6112 L’évaluation des archives sous la direction du professeur Yvon Lemay et SCI6314 Gestion avancée des services d'information sous la direction de Carole Brouillette.
Resumo:
Le sujet général de cette thèse est l’étude de la fonctionnalisation covalente des nanotubes de carbone (CNT) et son application en électronique. Premièrement, une introduction au sujet est présentée. Elle discute des propriétés des CNT, des différentes sortes de fonctionnalisation covalente ainsi que des principales techniques de caractérisation utilisées au cours de la thèse. Deuxièmement, les répercussions de la fonctionnalisation covalente sur les propriétés des nanotubes de carbone monoparoi (SWNT) sont étudiées. Deux types de fonctionnalisation sont regardés, soit le greffage de groupements phényles et le greffage de groupements dichlorométhylènes. Une diminution de l’absorption optique des SWNT dans le domaine du visible-proche infrarouge est observée ainsi qu’une modification de leur spectre Raman. De plus, pour les dérivés phényles, une importante diminution de la conductance des nanotubes est enregistrée. Troisièmement, la réversibilité de ces deux fonctionnalisations est examinée. Il est montré qu’un recuit permet de résorber les modifications structurales et retrouver, en majorité, les propriétés originales des SWNT. La température de défonctionnalisation varie selon le type de greffons, mais ne semble pas affectée par le diamètre des nanotubes (diamètre examinés : dérivés phényles, Ømoyen= 0,81 nm, 0,93 nm et 1,3 nm; dérivés dichlorométhylènes, Ømoyen = 0,81 nm et 0,93 nm). Quatrièmement, la polyvalence et la réversibilité de la fonctionnalisation covalente par des unités phényles sont exploitées afin de développer une méthode d’assemblage de réseaux de SWNT. Celle-ci, basée sur l’établissement de forces électrostatiques entre les greffons des SWNT et le substrat, est à la fois efficace et sélective quant à l’emplacement des SWNT sur le substrat. Son application à la fabrication de dispositifs électroniques est réalisée. Finalement, la fonctionnalisation covalente par des groupements phényles est appliquée aux nanotubes de carbone à double paroi (DWNT). Une étude spectroscopique montre que cette dernière s’effectue exclusivement sur la paroi externe. De plus, il est démontré que la signature électrique des DWNT avant et après la fonctionnalisation par des groupements phényles est caractéristique de l’agencement nanotube interne@ nanotube externe.
Resumo:
Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.
Resumo:
Les cyclopropanes sont des motifs d’une grande importance puisqu’ils sont présents dans plusieurs molécules biologiquement actives en plus d’être de puissants intermédiaires dans la synthèse de molécules complexes. Au cours de cet ouvrage, nous avons développé une nouvelle méthode générale pour la synthèse d’ylures d’iodonium de malonates, soit d’importants précurseurs d’esters cyclopropane-1,1-dicarboxyliques. Ainsi, à l’aide de ces ylures, une méthode très efficace pour la synthèse d’esters cyclopropane-1,1-dicarboxyliques racémiques a été développée. Des travaux ont aussi été entrepris pour la synthèse énantiosélective de ces composés. Par ailleurs, les esters cyclopropane-1,1-dicarboxyliques ont été utilisés dans le développement de deux nouvelles méthodologies, soit dans une réaction de cycloaddition (3+3) avec des imines d’azométhines et dans la formation d’allènes par l’addition-1,7 de cuprates. Nous avons aussi poursuivi l’étude synthétique du cylindrocyclophane F impliquant l’utilisation de cyclopropanes pour le contrôle des centres chiraux. Ainsi l’addition-1,5 d’un cuprate sur un ester cyclopropane-1,1-dicarboxylique a été utilisée comme l’une des étapes clés de notre synthèse. L’autre centre chiral a pu être contrôlé par l’hydrogénolyse sélective d’un cyclopropylméthanol. Ces études ont, par ailleurs, mené au développement d’une nouvelle réaction d’arylcyclopropanation énantiosélective utilisant des carbénoïdes de zinc générés in situ à partir de réactifs diazoïques. Cette méthode permet d’accéder très efficacement aux cyclopropanes 1,2,3-substitués. De plus, nous avons développé la première réaction de Simmons-Smith catalytique en zinc menant à un produit énantioenrichi.
Resumo:
Soit (M, ω) une variété symplectique. Nous construisons une version de l’éclatement et de la contraction symplectique, que nous définissons relative à une sous-variété lagrangienne L ⊂ M. En outre, si M admet une involution anti-symplectique ϕ, et que nous éclatons une configuration suffisament symmetrique des plongements de boules, nous démontrons qu’il existe aussi une involution anti-symplectique sur l’éclatement ~M. Nous dérivons ensuite une condition homologique pour les surfaces lagrangiennes réeles L = Fix(ϕ), qui détermine quand la topologie de L change losqu’on contracte une courbe exceptionnelle C dans M. Finalement, on utilise ces constructions afin d’étudier le packing relatif dans (ℂP²,ℝP²).
Resumo:
Le développement fulgurant noté dans le domaine des biotechnologies peut être attribué, sinon essentiellement du moins partiellement, à l’utilisation des ressources génétiques (RG) et des savoirs traditionnels (ST) acquis sur ces ressources. Ces ressources et ces savoirs sont, notamment, utilisés dans le cadre d’inventions biotechnologiques qui peuvent s’avérer concluantes et faire l’objet de demande de protection par brevet. Ce développement ne s’est tout de même pas réalisé sans heurts majeurs, il l’a été au prix de tumultueuses oppositions. En effet, la découverte progressive de la valeur commerciale et scientifique de telles ressources et de tels savoirs a fait naître des intérêts et attisé des rivalités qui ont fini par opposer fournisseurs et utilisateurs de ces matériels. Force est de constater que parmi leurs divergences, celle qui se rapporte au partage des avantages fait l’objet de discussions des plus âpres qui soient dans le domaine. Une solution qui a été, aussi, envisagée a porté sur les régimes d’accès et de partage des avantages. Ce partage des avantages, les pays fournisseurs espèrent le réaliser par le biais de l’obligation de divulguer l’origine des RG et des ST dans les demandes de brevets. L’application d’une telle exigence connaît des limites en ce sens qu’elle est d’application territoriale. C’est sur la base d’un tel constat que les pays fournisseurs envisagent d’en faire une obligation reconnue et applicable à un niveau international. Dans le cadre de cette étude, nous essaierons de démontrer que l’obligation de divulguer l’origine des RG et des ST dans les demandes de brevets, telle qu’elle est actuellement appliquée, ne constitue pas un moyen pertinent qui permettrait d’en arriver à un partage juste et équitable des avantages.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Le sujet principal de cette thèse porte sur les mesures de risque. L'objectif général est d'investiguer certains aspects des mesures de risque dans les applications financières. Le cadre théorique de ce travail est celui des mesures cohérentes de risque telle que définie dans Artzner et al (1999). Mais ce n'est pas la seule classe de mesure du risque que nous étudions. Par exemple, nous étudions aussi quelques aspects des "statistiques naturelles de risque" (en anglais natural risk statistics) Kou et al (2006) et des mesures convexes du risque Follmer and Schied(2002). Les contributions principales de cette thèse peuvent être regroupées selon trois axes: allocation de capital, évaluation des risques et capital requis et solvabilité. Dans le chapitre 2 nous caractérisons les mesures de risque avec la propriété de Lebesgue sur l'ensemble des processus bornés càdlàg (continu à droite, limité à gauche). Cette caractérisation nous permet de présenter deux applications dans l'évaluation des risques et l'allocation de capital. Dans le chapitre 3, nous étendons la notion de statistiques naturelles de risque à l'espace des suites infinies. Cette généralisation nous permet de construire de façon cohérente des mesures de risque pour des bases de données de n'importe quelle taille. Dans le chapitre 4, nous discutons le concept de "bonnes affaires" (en anglais Good Deals), pour notamment caractériser les situations du marché où ces positions pathologiques sont présentes. Finalement, dans le chapitre 5, nous essayons de relier les trois chapitres en étendant la définition de "bonnes affaires" dans un cadre plus large qui comprendrait les mesures de risque analysées dans les chapitres 2 et 3.