873 resultados para Logique spatiale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le droit de la propriété intellectuelle présente, depuis quelques années, un intérêt particulier à l'évolution de la recherche sur les plantes. Ceci s'est traduit, au plan international, par l'adoption de plusieurs instruments visant à assurer une meilleure protection des investissements consentis dans ce domaine. Il s'agit notamment de la Convention de l'UPOV, qui s'inscrit dans une logique de protection par la voie sui generis avec la possibilité de délivrance de certificat d'obtention végétale aux sélectionneurs; de l'Accord ADPIC, qui, en plus de recommander un système sui generis efficace, ouvre l'option de protection par brevet ou en définitive par le cumul des deux systèmes; de la Convention sur la Diversité Biologique (CDB) et du Traité de la FAO portant sur les ressources phytogénétiques pour l'alimentation et l'agriculture, qui, favorables aux deux précédentes formes de protection, demandent que soient prises en compte des considérations relatives aux droits souverains des pays sur leurs ressources végétales, au partage des bénéfices, etc. Au plan régional, on distingue, entre autres, l'initiative de l'Afrique, visant à assurer la protection des plantes suivant une logique partagée entre l'alignement sur les normes internationales existantes (Accord de Bangui) ou l'institution d'une autre législation originale qui reflète les réalités et préoccupations du continent (Loi modèle). Il apparaît donc qu'il existe plusieurs instruments pour cerner la même réalité. Ceci est forcément la source de quelques difficultés qui sont d'ordre conceptuel, socioéconomique, environnemental et juridique. Pour les pallier, il est important que certaines conditions soient satisfaites afin d'harmoniser les points de vue entre les différents acteurs concernés par la question et d'assurer une appropriation conséquente des instruments adoptés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formées lors de l’effondrement gravitationnel d’un nuage de gaz moléculaire, les étoiles naissantes auront différentes masses variant entre 0.08 et environ 100M . La majorité de la population stellaire de la Galaxie est constituée d’étoiles dont la masse est inférieure à environ 0.6 M . Le dernier évènement de formation stellaire dans le voisinage solaire s’est produit dans la bulle locale il y a au plus 100 millions d’années, vraisemblablement provoqué par le passage d’une onde de choc dans le bras local de la Galaxie. C’est ainsi que se formèrent de jeunes associations d’étoiles dont les membres se caractérisent en particulier par une vitesse spatiale et une position commune dans la Galaxie. Les associations jeunes étant peu densément peuplées et relativement proches du Soleil, leurs membres se font plutôt rares et dispersés sur toute la voûte céleste. Jusqu’à présent, surtout les étoiles les plus massives (brillantes) ont été répertoriées. Les étoiles jeunes de faible masse, constituant la majorité de la population, restent pour la plupart à être identifiées. Les étoiles jeunes de faible masse représentent une population clef pour contraindre les modèles évolutifs des étoiles M et des naines brunes. Elles sont également d’excellentes candidates pour chercher des exoplanètes via les techniques d’imagerie directe. Ce mémoire présente une nouvelle méthode utilisant un modèle cinématique enrichi d’une analyse statistique Bayesienne pour identifier des étoiles jeunes de faible masse dans les associations beta Pictoris, Tucana-Horologium et AB Doradus. À partir d’un échantillon de 1080 étoiles K et M, toutes comportant des indicateurs de jeunesse tels l’émission Halpha et une forte luminosité dans les rayons X, leurs propriétés cinématiques (mouvement propre) et photométriques sont analysées pour en extraire 98 candidates hautement probables membres d’une des trois associations. Une confirmation de leur statut comme membre nécessitera en particulier une mesure de leur vitesse radiale (prédit par notre analyse) et une mesure de la largeur équivalente du lithium à 6708 Å pour mieux contraindre leur âge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études ont révélé des problèmes récurrents au niveau de la performance et de la gestion des projets de reconstruction à la suite des catastrophes dans les pays en voie de développement (PEVD). Ces projets doivent faire face à des conditions de vulnérabilité des habitants, engendrées par des facteurs politiques, économiques, sociaux et culturels. Les divers participants - contraints par un accès limité à l’information - sont confrontés à travailler dans un contexte hostile ayant un niveau d’incertitude élevé. Ce niveau d’incertitude augmente les risques du projet de reconstruction, particulièrement le risque d’insatisfaction des usagers. Ce travail vise à mettre en parallèle l’analyse du système organisationnel adopté pour la conduite d’un projet de reconstruction et celle du niveau de satisfaction des usagers. Il émet l’hypothèse suivante: deux facteurs organisationnels influencent largement le niveau de satisfaction de la part des bénéficiaires d’un projet de reconstruction de logements à la suite d’un désastre en PEVD: (i) le niveau de centralisation de la prise de décisions (jumelée au manque d’information) au sein de la Multi-Organisation Temporaire (MOT); et (ii) la capacité de la structure organisationnelle de la MOT d’impliquer la participation active des usagers au niveau de la planification, de la gestion, du financement et du design du projet. Afin d’atteindre cet objectif, une recherche empirique fut menée pour analyser le cas des inondations ayant eu lieu en 2003 dans une ville dans la région du Maghreb. Le niveau de satisfaction des usagers a été déterminé grâce à des indicateurs de transfert de technologie qui se basent sur l’analyse du « Cadre Logique » - une méthode d’évaluation largement utilisée dans le domaine du développement international. Les résultats de la recherche ne visent pas à identifier une relation de cause à effet entre les deux variables étudiées (la structure organisationnelle et la satisfaction des usagers). Cependant, ils mettent en évidence certains principes du montage et de la gestion des projets qui peuvent être mis en place pour l’amélioration des pratiques de reconstruction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis l’avènement de l’agriculture productiviste, les paysages des zones d’intensification agricole des pays industrialisés ont été marqués par la perte sévère de leur diversité et la dégradation de leurs fonctions environnementales, récréatives, esthétiques et sociales. Au moment où la qualité des paysages constitue un facteur clé du dynamisme des collectivités rurales, il devient urgent de développer des stratégies d’aménagement aptes à réintroduire le caractère multifonctionnel de ces paysages. Dans ce contexte, cette thèse propose un éclairage sur les enjeux d’aménagement de ces paysages sous l’angle des approches dialectiques en paysage issues de la Holistic Landscape Ecology. En développant un modèle conceptuel des trajectoires des paysages s’inscrivant dans les approches intégrées en paysage, elle établit une double lecture des dynamiques physico-spatiale et socioculturelle des paysages des zones d’intensification agricole afin d’en arriver à qualifier les écarts entre celles-ci. Pour y parvenir, elle prend appui sur une étude de cas d’un bassin versant agricole du sud du Québec. En puisant tantôt dans l’écologie du paysage, tantôt dans la sociologie du paysage, les résultats de cette thèse soulignent d’une part le poids des forces politiques et économiques dans le façonnement de ces paysages. Mais ils révèlent également le rôle des valorisations paysagères des agriculteurs dans la modulation de ces forces. Plus encore, l’étude des dynamiques socioculturelles révèle une diversité au sein des populations locales au plan des valorisations de ces paysages et des pratiques qui les façonnent qui vient renouveler l’image d’uniformité de ces territoires. Le maintien et l’accentuation de cette diversité apparaissent susceptibles de contribuer significativement à la réintroduction du caractère multifonctionnel des paysages au sein des zones d’intensification agricole. Des pistes concrètes pour l’aménagement concluent cette thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs critiques ont été adressées à Lévinas quant à la difficulté de conjuguer le caractère infini de la responsabilité éthique, qu’il présente comme condition de possibilité de l’expérience, et la mesure de l’obligation envers autrui qui naît inévitablement dans le politique. En effet, la distinction semble si prononcée entre l’obligation éthique transcendante envers l’autre et la logique politique, univers de sens associé à l’ontologie et présenté comme violent et immanent, que l’éthique peut apparaître compromise dès qu’elle est exprimée dans un contexte social. En réponse à ces difficultés, ce mémoire vise à démontrer qu’en dépit de leur opposition fondamentale, l’ordre éthique et l’ordre ontologico-politique font partie d’une structure unique. À la lumière de l’entrée en scène du tiers et de la nécessité de justice qui l’accompagne, l’existence d’un carrefour entre ces couches de significations distinctes, mais interdépendante, peut être illustrée. De fait, la justice constitue un concept amphibologique chez Lévinas qui, participant à la fois de l’éthique et du politique, permet de mettre au jour l’ancrage a priori social de l’éthique. Cette étude présentera des réflexions critiques reliées à la discipline juridique et aux droits de l’homme, qui démontreront comment la pensée de Lévinas non seulement peut, mais doit s’ouvrir à une expression sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ: Selon Kant, il faut rendre la Critique plus compréhensible. Cela revient à doter son exposition d’un plus haut degré de lucidité (Helligkeit), c’est-à-dire combiner la clarté discursive avec une clarté intuitive. Pour ce faire, nous représentons les grandes lignes de la structure discursive de la Critique sous la forme d’un modèle emprunté à la description de la formation du caractère moral esquissé dans l’Anthropologie. Ainsi, la raison est d’abord régie par son « instinct de connaissance » (Wißbegierde, Erkenntnistrieb), qui la plonge dans un état de vacillement (Schwankender Zustand). Ensuite, elle réagit par du dégoût (Überdruß), ce rejet ouvrant la voie à l’introspection (Selbsterkenntnis) proprement critique. La raison entreprend alors une révolution de son mode de pensée spéculatif (Revolution der Denkungsart) consistant à passer, sous l’égide du devoir moral (Pflicht), de la malhonnêteté à l’honnêteté, envers soi-même ainsi qu’envers autrui. Il s’agit, en un mot, d’une « renaissance » (Wiedergeburt) morale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous étudions la recombinaison radiative des porteurs de charges photogénérés dans les puits quantiques InGaN/GaN étroits (2 nm). Nous caractérisons le comportement de la photoluminescence face aux différentes conditions expérimentales telles la température, l'énergie et la puissance de l'excitation et la tension électrique appliquée. Ces mesures montrent que l'émission provient d'états localisés. De plus, les champs électriques, présents nativement dans ces matériaux, n'ont pas une influence dominante sur la recombinaison des porteurs. Nous avons montré que le spectre d'émission se modifie significativement et subitement lorsque la puissance de l'excitation passe sous un certain seuil. L'émission possède donc deux ``phases'' dont nous avons déterminé le diagramme. La phase adoptée dépend à la fois de la puissance, de la température et de la tension électrique appliquée. Nous proposons que la phase à basse puissance soit associée à un état électriquement chargé dans le matériau. Ensuite, nous avons caractérisé la dynamique temporelle de notre échantillon. Le taux de répétition de l'excitation a une influence importante sur la dynamique mesurée. Nous concluons qu'elle ne suit pas une exponentielle étirée comme on le pensait précédemment. Elle est exponentielle à court temps et suit une loi de puissance à grand temps. Ces deux régimes sont lié à un seul et même mécanisme de recombinaison. Nous avons développé un modèle de recombinaison à trois niveaux afin d'expliquer le comportement temporel de la luminescence. Ce modèle suppose l'existence de centres de localisation où les porteurs peuvent se piéger, indépendamment ou non. L'électron peut donc se trouver sur un même centre que le trou ou sur n'importe quel autre centre. En supposant le transfert des porteurs entre centres par saut tunnel on détermine, en fonction de la distribution spatiale des centres, la dynamique de recombinaison. Ce modèle indique que la recombinaison dans les puits InGaN/GaN minces est liée à des agglomérats de centre de localisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche porte sur la théorie des parties du discours dans l’Antiquité grecque et plus particulièrement sur la réflexion entourant les conjonctions. Le premier chapitre se concentre sur la définition de la conjonction trouvée dans la Poétique d’Aristote, de même que sur les autres passages du corpus aristotélicien qui permettent de mieux cerner les contours d’une entité grammaticale encore mal définie. Le second chapitre porte sur la conjonction dans les recherches logico-grammaticales de l’école stoïcienne. La définition stoïcienne de la conjonction, de même que les différentes catégories de conjonctions identifiées par les Stoïciens sont examinées. Le rôle central des conjonctions au sein de la théorie stoïcienne des propositions complexes est souligné et met en lumière l’interrelation étroite entre la logique et la grammaire à ce point du développement de la théorie grammaticale. Le chapitre final porte sur la définition et les catégories de conjonctions trouvées dans la Tekhnè grammatikè, un bref manuel de grammaire attribué au philologue alexandrin Denys le Thrace. L’influence de la théorie stoïcienne des propositions complexes sur cette première tentative de systématisation grammaticale est mise en lumière, de même que l’interférence de préoccupations philologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers qui accompagnent le document incluent une archive .jar du zoom-éditeur (qui peut être lancé via un browser) et des exemples de z-textes réalisés avec ce logiciel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’expression « principe de précaution » fonctionne souvent comme une maxime de précaution, et non pas comme un principe universel d’action. Cet usage n’est toutefois pas celui qui est entendu par les personnes traitant de cette question dans le cadre des interrogations liées à la protection de l’environnement. Le principe de précaution, tel qu’il a été inscrit dans la Charte de l’environnement, aspire à saisir quelque chose d’important et de nouveau dans le paysage scientifique français, et à donner un outil pour gérer cette nouveauté. L’article qui suit tente à montrer que cette aspiration n’est pas accomplie avant tout pour des raisons formelles : l’idée de précaution ne peut pas être traduite en un principe constitutionnel.