53 resultados para Lantern projection


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode IIM (Immersed Interface Method) permet d'étendre certaines méthodes numériques à des problèmes présentant des discontinuités. Elle est utilisée ici pour étudier un fluide incompressible régi par les équations de Navier-Stokes, dans lequel est immergée une membrane exerçant une force singulière. Nous utilisons une méthode de projection dans une grille de différences finies de type MAC. Une dérivation très complète des conditions de saut dans le cas où la viscosité est continue est présentée en annexe. Deux exemples numériques sont présentés : l'un sans membrane, et l'un où la membrane est immobile. Le cas général d'une membrane mobile est aussi étudié en profondeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire se veut une réflexion sur la place de l'interprétation dans un travail de traduction d’œuvres poétiques. La réflexion s'articule premièrement autour de l'exemple d'Ezra Pound, traducteur de poèmes chinois classiques. Elle se poursuit par une exploration des possibilités interprétatives contenues dans le langage lui-même, pour se conclure par une expérience subjective de traduction. J'ai choisi de traduire trois poèmes de Xi Chuan, poète chinois appartenant au mouvement de la poésie obscure. La poésie obscure est un courant littéraire contemporain, qui se poursuit encore aujourd'hui sous l'appellation de poésie post-obscure. Les travaux de Xi Chuan sont un exemple de la recherche d'une nouvelle forme d'expression pour les poètes chinois contemporains, soit l'émergence de la voix subjective, phénomène directement relié à une prise de position face au passé traditionnel et au désir d’émancipation et d’autonomie de l’expression littéraire. Cette place qu’occupe le poète obscur entre le nouveau et l'ancien permet à l'individu d’interpréter d’une manière plus personnelle le présent. De la même manière, le traducteur doit rompre avec le passé (soit le texte de départ) pour permettre l’interprétation et la projection du nouveau texte dans l’avenir (soit dans la langue d’arrivée).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de territoire n’aura jamais suscité autant de débats et de passions. Son devenir mobilise à bien des égards la construction collective d’un dessein se matérialisant par des formes qui informent des forces tout autant que par des forces qui investissent des formes lesquelles traduisent les valeurs du moment. Par conséquent, cette projection dans un avenir partagé amène des exigences sociales en matière d’édification du projet de territoire mettant à l’ordre du jour la complexité d’une telle entreprise. L’enchevêtrement d’actions et de logiques qui s’y opèrent et qui s’y expriment pour en élaborer, dans la plus grande incertitude, les contours d’un futur souhaité nous presse de s’y prononcer : la construction complexe d’un dessein territorial s’exhibant nous interpelle quant à son évaluation voire quant à sa reformulation. Parmi les modalités d’expression qui permettent une telle délibération, il y a l’énoncé visuel. Médiation discursive privilégiée, elle autorise l’élaboration et la mise en scène collective d’un devenir territorial possible. Or depuis quelques années, au couple projet / représentation, vient se superposer une autre médiation, celle du numérique. Portée par le développement des technologies de l’information, celle-ci s’invite dans le champ de l’édification du projet de territoire. En s’alliant avec la puissance de l’image, elle recompose les représentations d’un dessein territorial collectivement formulé, ouvrant un nouvel espace d’actions à l’occasion d’une démarche de planification. Démarche de plus en plus complexe. De surcroit, la présente recherche tient cette complexité non comme un mot «fourre-tout» ou une tare dont il faudrait se débarrasser, mais se résout à l’affronter en s’inscrivant dans un paradigme en pleine gestation, celui de la «pensée complexe». La fécondité autant conceptuelle qu’opératoire d’une telle inscription permettra de jeter un regard renouvelé sur une pratique à travers une de ses modalités discursives à la fois la plus manifeste et la moins questionnée, à savoir l’énoncé visuel. En fin de compte, les représentations notamment celles construites et véhiculées par le numérique sauront-elles rendre compte et relever le défi de l’édification collective d’un projet de territoire qui se pose dans toute sa complexité ? Telle est en substance le questionnement dont cette recherche s’attellera à apporter des éléments de réponse et à esquisser de nouvelles perspectives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode de projection et l'approche variationnelle de Sasaki sont deux techniques permettant d'obtenir un champ vectoriel à divergence nulle à partir d'un champ initial quelconque. Pour une vitesse d'un vent en haute altitude, un champ de vitesse sur une grille décalée est généré au-dessus d'une topographie donnée par une fonction analytique. L'approche cartésienne nommée Embedded Boundary Method est utilisée pour résoudre une équation de Poisson découlant de la projection sur un domaine irrégulier avec des conditions aux limites mixtes. La solution obtenue permet de corriger le champ initial afin d'obtenir un champ respectant la loi de conservation de la masse et prenant également en compte les effets dûs à la géométrie du terrain. Le champ de vitesse ainsi généré permettra de propager un feu de forêt sur la topographie à l'aide de la méthode iso-niveaux. L'algorithme est décrit pour le cas en deux et trois dimensions et des tests de convergence sont effectués.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières décennies, la popularité des plantes médicinales s’est accrue auprès des civilisations occidentales de sorte que la quantité de plantes récoltées, la plupart provenant de populations sauvages, a grandement augmenté. Dans ce contexte, l’objectif principal de mon mémoire est d’évaluer l’impact de la récolte de deux plantes médicinales (Sarracenia purpurea et Rhododendron groenlandicum) utilisées par la Nation Crie du Nord du Québec. Pour y parvenir, des parcelles expérimentales, simulant différentes intensités de récolte (S. purpurea) et différentes méthodes de récolte (R. groenlandicum), ont été mises en place, puis des suivis annuels de la reprise ont été réalisés. Les résultats obtenus suggèrent que les techniques de récolte chez R. groenlandicum devraient exclure les nouvelles pousses, leur exploitation causant une forte mortalité. Par ailleurs, chez S. purpurea, la récolte de 20 % des individus semble peu dommageable, mais critique lorsque plus de 50 % des plants sont récoltés. Un modèle démographique pour S. purpurea a aussi été construit à partir des observations de terrain. Ce modèle a permis de réaliser des projections temporelles en variant les taux de récoltes ainsi que les intervalles entre les récoltes. Les résultats indiquent qu’une récolte de 20 % des individus est acceptable une fois tous les 20 ans. Pour une récolte plus régulière, 5 % tous les trois ans serait soutenable. Mon projet permettra d’assurer une exploitation soutenable de deux plantes médicinales ayant un grand potentiel pour le traitement du diabète de type II.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’habenula, un noyau épithalamique, est située au centre de la voie dorsale diencéphalique. Cette voie relie les structures limbiques et les ganglions de la base aux cellules monoaminergiques du mésencéphale. En particulier, l’habenula latérale (HbL) projette directement aux cellules dopaminergiques et GABAergiques de l’aire tegmentale ventrale (ATV). L’ATV est le site d’origine de la voie mésolimbique dopaminergique, une voie impliquée de façon cruciale dans la manifestation des comportements dirigés. L’importance de cette projection habenulaire pour le comportement demeure encore méconnue. Ainsi, l’objectif de cette étude est d’approfondir notre compréhension du rôle de régulation de l’HbL sur les comportements dépendants de la neurotransmission dopaminergique. MATÉRIEL ET MÉTHODES: Des rats adultes mâles Sprague-Dawley ont été anesthésiés avec de l’isofluorane et installés sur un appareil stéréotaxique. L’acide iboténique, une neurotoxine agoniste des récepteurs glutamatergiques, était infusée bilatéralement dans l’HbL (0,25 μg/0,25 μl/côté). Les rats du groupe contrôle recevaient des infusions NaCl 0,9%. Les rats de l’expérience d’autostimulation intracérébrale (ASIC) étaient aussi implantés d’une électrode monopolaire dans le mésencéphale postérieur. Un groupe de rats était testé pour leur réponse de locomotion à l’amphétamine (0; 0,5 ou 1 mg/kg, intrapéritonéal), dix jours suivant la lésion de l’HbL. La locomotion était mesurée dans des chambres d’activité, chacune équipée de deux faisceaux parallèles infrarouges. Le jour du test, les rats étaient pesés et placés dans la chambre d’activité puis leur activité locomotrice de base était mesurée pendant une heure. Les rats recevaient ensuite une dose d’amphétamine ou le véhicule (NaCl 0,9%) par voie intrapéritonéale et l’activité locomotrice était mesurée pendant deux heures supplémentaires. Un groupe de rats distinct a été utilisé dans l’expérience d’ASIC. Commençant sept jours suivant la lésion, les rats étaient entraînés à appuyer sur un levier afin de s’autoadministrer des stimulations électriques, au cours de sessions quotidiennes. Nous avons ensuite mesuré chacun des taux de réponses d’une série de stimulations aux fréquences décroissantes. À partir d’une courbe réponses-fréquences, le seuil de récompense était inféré par la fréquence de la stimulation nécessaire pour produire une réponse semi-maximale. Les seuils de récompense étaient stabilisés à un niveau similaire pour l’ensemble des rats. Enfin, l’effet sur la récompense de l’amphétamine était testé aux mêmes doses employées pour l’expérience de locomotion. RÉSULTATS: Une lésion neurotoxique de l’HbL n’a pas altéré les niveaux de base de l’activité locomotrice dans chaque groupe. Cependant, une telle lésion a potentialisé l’effet de locomotion de l’amphétamine (1 mg/kg) pendant la première heure suivant son administration, et une tendance similaire était observable pendant la seconde heure. À l’inverse, nous n’avons observé aucune interaction entre une lésion à l’HbL et l’effet amplificateur sur la récompense de l’amphétamine. CONCLUSION: Nos résultats révèlent une importante contribution fonctionnelle de l’HbL à la locomotion induite par l’activation de la voie mésolimbique dopaminergique avec une dose de 1 mg/kg d’amphétamine. À l’opposé, aucun effet sur la récompense n’a été observé. Ces résultats suggèrent que l’activation psychomotrice et l’amplifiation de la récompense produite par l’amphétamine dépendent de substrats dissociables, chacun étant différentiellement sensible à la modulation provenant de l’HbL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La progression d’un individu au travers d’un environnement diversifié dépend des informations visuelles qui lui permettent d’évaluer la taille, la forme ou même la distance et le temps de contact avec les obstacles dans son chemin. Il peut ainsi planifier en avance les modifications nécessaires de son patron locomoteur afin d’éviter ou enjamber ces entraves. Ce concept est aussi applicable lorsque le sujet doit atteindre une cible, comme un prédateur tentant d’attraper sa proie en pleine course. Les structures neurales impliquées dans la genèse des modifications volontaires de mouvements locomoteurs ont été largement étudiées, mais relativement peu d’information est présentement disponible sur les processus intégrant l’information visuelle afin de planifier ces mouvements. De nombreux travaux chez le primate suggèrent que le cortex pariétal postérieur (CPP) semble jouer un rôle important dans la préparation et l’exécution de mouvements d’atteinte visuellement guidés. Dans cette thèse, nous avons investigué la proposition que le CPP participe similairement dans la planification et le contrôle de la locomotion sous guidage visuel chez le chat. Dans notre première étude, nous avons examiné l’étendue des connexions cortico-corticales entre le CPP et les aires motrices plus frontales, particulièrement le cortex moteur, à l’aide d’injections de traceurs fluorescents rétrogrades. Nous avons cartographié la surface du cortex moteur de chats anesthésiés afin d’identifier les représentations somatotopiques distales et proximales du membre antérieur dans la partie rostrale du cortex moteur, la représentation du membre antérieur située dans la partie caudale de l’aire motrice, et enfin la représentation du membre postérieur. L’injection de différents traceurs rétrogrades dans deux régions motrices sélectionnées par chat nous a permis de visualiser la densité des projections divergentes et convergentes pariétales, dirigées vers ces sites moteurs. Notre analyse a révélé une organisation topographique distincte de connexions du CPP avec toutes les régions motrices identifiées. En particulier, nous avons noté que la représentation caudale du membre antérieur reçoit majoritairement des projections du côté rostral du sillon pariétal, tandis que la partie caudale du CPP projette fortement vers la représentation rostrale du membre antérieur. Cette dernière observation est particulièrement intéressante, parce que le côté caudal du sillon pariétal reçoit de nombreux inputs visuels et sa cible principale, la région motrice rostrale, est bien connue pour être impliquée dans les fonctions motrices volontaires. Ainsi, cette étude anatomique suggère que le CPP, au travers de connexions étendues avec les différentes régions somatotopiques du cortex moteur, pourrait participer à l’élaboration d’un substrat neural idéal pour des processus tels que la coordination inter-membre, intra-membre et aussi la modulation de mouvements volontaires sous guidage visuel. Notre deuxième étude a testé l’hypothèse que le CPP participe dans la modulation et la planification de la locomotion visuellement guidée chez le chat. En nous référant à la cartographie corticale obtenue dans nos travaux anatomiques, nous avons enregistré l’activité de neurones pariétaux, situés dans les portions des aires 5a et 5b qui ont de fortes connexions avec les régions motrices impliquées dans les mouvements de la patte antérieure. Ces enregistrements ont été effectués pendant une tâche de locomotion qui requiert l’enjambement d’obstacles de différentes tailles. En dissociant la vitesse des obstacles de celle du tapis sur lequel le chat marche, notre protocole expérimental nous a aussi permit de mettre plus d’emphase sur l’importance de l’information visuelle et de la séparer de l’influx proprioceptif généré pendant la locomotion. Nos enregistrements ont révélé deux groupes de cellules pariétales activées en relation avec l’enjambement de l’obstacle: une population, principalement située dans l’aire 5a, qui décharge seulement pendant le passage du membre au dessus del’entrave (cellules spécifiques au mouvement) et une autre, surtout localisée dans l’aire 5b, qui est activée au moins un cycle de marche avant l’enjambement (cellules anticipatrices). De plus, nous avons observé que l’activité de ces groupes neuronaux, particulièrement les cellules anticipatrices, était amplifiée lorsque la vitesse des obstacles était dissociée de celle du tapis roulant, démontrant l’importance grandissante de la vision lorsque la tâche devient plus difficile. Enfin, un grand nombre des cellules activées spécifiquement pendant l’enjambement démontraient une corrélation soutenue de leur activité avec le membre controlatéral, même s’il ne menait pas dans le mouvement (cellules unilatérales). Inversement, nous avons noté que la majorité des cellules anticipatrices avaient plutôt tendance à maintenir leur décharge en phase avec l’activité musculaire du premier membre à enjamber l’obstacle, indépendamment de sa position par rapport au site d’enregistrement (cellules bilatérales). Nous suggérons que cette disparité additionnelle démontre une fonction diversifiée de l’activité du CPP. Par exemple, les cellules unilatérales pourraient moduler le mouvement du membre controlatéral au-dessus de l’obstacle, qu’il mène ou suive dans l’ordre d’enjambement, tandis que les neurones bilatéraux sembleraient plutôt spécifier le type de mouvement volontaire requis pour éviter l’entrave. Ensembles, nos observations indiquent que le CPP a le potentiel de moduler l’activité des centres moteurs au travers de réseaux corticaux étendus et contribue à différents aspects de la locomotion sous guidage visuel, notamment l’initiation et l’ajustement de mouvements volontaires des membres antérieurs, mais aussi la planification de ces actions afin d’adapter la progression de l’individu au travers d’un environnement complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme la représentation théâtrale est une forme d’art fugitive qui, en raison de son caractère performatif, possède son propre monde fictionnel, la question de l’oposition entre représentation et réalité occupe une place centrale dans les études théâtrales. Ainsi, les œuvres scèniques d’un metteur en scène comme Frank Castorf représentent des objets d’analyse particulièrement appropriés. Parce que Castorf met d’abord l’accent sur le moment présent et la réalité de la représentation théâtrale, il est légitime de se demander quelle est la part qu’occupe la représentation d’un monde fictionel dans ses spectacles. Ce travail vise précisément à identifier l’importance qu’accorde Castorf à la performativité dans deux adaptations théâtrales des romans de Dostoïevski Les démons et l’Idiot. Comme notre société donne une place grandissante aux médias reproductibles tels que la télévision et le cinéma, et que l’être humain tend toujours davantage à se méditiaser lui-même, le théâtre comme toutes les autres formes d’art s’en trouve transformé. C’est dans cette optique que ces deux adaptations théâtrales ont donné lieu à d’autres manifestations artistiques, soit deux films et deux livres. Cet ouvrage retrace également le processus de re-représentation, c’est-à-dire du passage d’un média à un autre, dans le but d’analyser l’interrelation entre ces œuvres ainsi que de comprendre les raisons qui ont poussé le metteur en scène et son théâtre, la Volksbühne Berlin, à transposer d’abord des romans en spectacle de théâtre pour ensuite en faire des films et des livres. De plus, malgré son utilisation croissante au théâtre, la vidéo représente encore pour certains puristes un envahisseur à bannir. Elle introduirait la perte de l’essence du théâtre : le caractère performatif, qui consiste en une rencontre du public et des acteurs dans un même espace-temps. Par contre, les images vidéo-projetées en direct peuvent conserver une part de performativité puisqu’elles sont susceptibles d’influer sur le spectateur, et inversement. En prenant comme exemple l’Idiot de Frank Castorf, ce travail montre comment les caméras et leur dispositif de transmission en direct ont la capacité de se substituer aux principaux objets du spectacle théâtral : les acteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.