471 resultados para "à propos"


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire traite des Saturnales de Macrobe, haut fonctionnaire du 5ième siècle après J.C. et encyclopédiste latin. Malgré l’opinion reçue, selon laquelle les Saturnales dépendraient presque exclusivement d’un nombre très restreint de sources, souvent copiées mot à mot, on a reconnu depuis longtemps que Macrobe remanie de son propre chef l’une de ces sources, les Propos de Table de Plutarque, dans son septième livre. Ce mémoire démontre que ce modèle, tout comme les sources mineures, latines et grecques, avec lesquelles Macrobe le complète, lui était assez familier pour servir à l’articulation d’une vision propre; les Saturnales ne peuvent donc être cités comme preuve de la décadence de leur époque. Ce mémoire fournit une traduction et un commentaire des chapitres 7.1-3 des Saturnales, avec une explication de leurs rapports avec les Propos de Table 1.1 et 2.1 de Plutarque ainsi que des éléments propre à Macrobe, afin de reconstruire sa méthode de composition et de déterminer ses attentes par rapport à son lecteur de l’empire tardif. Le commentaire est précédé d’une introduction de l’auteur, de l’œuvre, et du septième livre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La voie mésocorticolimbique est constitutée d’un ensemble d’éléments nerveux issus de l’aire tegmentaire ventrale mésencéphalique et projettant vers des régions corticales et sous-corticales. Les neurones à dopamine (DA) qui en font partie modulent plusieurs fonctions cognitives dont l’attention, l’apprentissage et la récompense. L’activité nerveuse des cellules à DA augmente lorsque l’organisme anticipe et reçoit une récompense, ainsi qu’au cours de la phase d’apprentissage des comportements d’appétence. Or, si l’activité dopaminergique de la voie mésocorticolimbique est désordonnée, voire aberrante, des stimuli neutres deviennent saillants et prennent une signification erronée. Cette anomalie fonctionnelle du système dopaminergique pourrait être à l’origine des symptômes psychotiques observés dans la schizophrénie. Cette hypothèse est renforcée par le fait que les médicaments antipsychotiques efficaces ont tous une activité antagoniste aux récepteurs à DA de type 2 (D2); les antipsychotiques dits classiques (i.e. halopéridole) possèdent une forte affinité pour les récepteurs D2 tandis que les antipsychotiques dits atypiques (i.e. clozapine) présentent une plus forte affinité pour les récepteurs à sérotonine de type 2a (5-HT2a) que pour les récepteurs D2. Les antipsychotiques atypiques semblent plus efficaces contre les symptômes négatifs (i.e. anhédonie) de la schizophrénie et induisent moins d’effets moteurs extrapyramidaux et de dysphorie que les antipsychotiques classiques. Il a été proposé que l’efficacité des antipsychotiques atypiques soit expliqué par leur double action antagoniste aux récepteurs 5-HT2a et D2. Afin de mieux comprendre les mécanismes de ces médicaments, nous avons étudié leurs effets sur la récompense en utilisant le modèle d’autostimulation intracérébrale (ASI) chez le rongeur. Le but de la première étude était d’évaluer l’effet d’un antagoniste sélectif des récepteurs 5-HT2a, le M100907, sur la récompense et sur l’atténuation de la récompense induite par l’halopéridole. L’hypothèse était que l’atténuation de la récompense induite par l’ajout du M100907 à l’halopéridole serait similaire à celle induite par la clozapine. Dans une seconde étude, l’effet sur la récompense d’un agoniste partiel aux récepteurs D2, l’OSU-6162, a été caractérisé sous deux conditions : i) en condition de base et ii) lorsque la neurotransmission dopaminergique est altérée par l’administration systémique de quinpirole, un agoniste des récepteurs D2/D3. Les hypothèses étaient que l’OSU-6162 i) atténuerait la récompense induite par la stimulation et ii) empêcherait l’atténuation et la facilitation de la récompense induites par le quinpirole. Les données obtenues montrent que le M100907 n’altère pas la récompense par lui-même mais réduit l’atténuation de la récompense induite par l’halopéridole. La co-administration du M100907 et de l’halopéridole induit une atténuation de la récompense d’amplitude similaire à celle induite par la clozapine, ce qui suggère que l’activité antagoniste aux récepteurs 5-HT2a de la clozapine contribue à son efficacité. Les données de la seconde étude montrent que l’OSU-6162 atténue la récompense, de manière dose-dépendante, ainsi que la facilitation, mais pas l’atténuation de la récompense induite par le quinpirole. Cette dernière observation suggère que l’OSU-6162 agit comme un antagoniste fonctionnel aux récepteurs D2 post-synaptiques. Un ensemble de données suggèrent que le comportement d’ASI constitue un modèle valide permettant d’évaluer l’efficacité antipsychotique potentielle de nouvelles molécules. Le comportement d’ASI est atténué par les antipsychotiques cliniquement efficaces mais est peu ou pas modifié par des molécules dépourvues d’activité antipsychotique. Les données obtenues dans cette thèse permettent de supposer que l’OSU-6162 possède une activité antipsychotique de nature atypique, et cela sans altérer la neurotransmission sérotoninergique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude qualitative descriptive de type exploratoire avait pour but l’exploration de la perception des adolescents et des experts en sécurité routière sur les campagnes de sensibilisation actuelles et les programmes de prévention en sécurité routière s’adressant aux adolescents, afin de proposer de nouvelles pistes d’action en prévention des accidents de la route. Le modèle de planification Precede/Proceed de Green et Kreuter (2005) a été utilisé comme cadre de référence. Un groupe de discussion a été réalisé auprès de huit adolescents et des entrevues semi-dirigées ont été réalisées auprès de trois experts en sécurité routière. Les résultats montrent que peu de similitudes existent entre les propos des adolescents et ceux des experts en sécurité routière. Par contre, les similitudes portent sur des aspects importants en sécurité routière comme la prise du risque à l’adolescence, l’implication des parents et l’implication du milieu scolaire. Les résultats de cette étude fourniront aux décideurs de programmes de prévention ou aux personnes agissant de près ou de loin auprès de cette clientèle des pistes de recherches et d’actions pour de futures interventions prometteuses en prévention des accidents de la route chez les adolescents afin de réduire le nombre d’accidents chez les jeunes conducteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 2006, le Programme Hors Normes (PHN) dicte une nouvelle marche à suivre que doivent privilégier les équipes de santé au travail (SAT) lorsque des travailleurs sont exposés à des concentrations environnementales de produits chimiques supérieures aux valeurs d’exposition admissibles, c’est-à-dire à des « hors normes ». Le PHN encadre les activités de signalements des hors normes aux instances concernées et demande des suivis plus rigoureux en établissements. Ce faisant, il redéfinit les rôles des infirmières et des membres des équipes SAT. Dans le but de mieux comprendre l’implication des infirmières dans le cadre du PHN, sept entretiens individuels semi-dirigés ont été réalisés afin d’explorer et de décrire leurs représentations. L’analyse qualitative de ces représentations, par catégorisation et comparaisons constantes des discours, révèle que les infirmières se représentent de diverses façons leur pratique dans le cadre du PHN. En effet, les résultats de l’étude montrent qu’afin de comprendre l’implication des infirmières dans ce programme d’intervention, il importe de considérer les quatre éléments suivants : l’organisation du travail, les aspects relationnels (dynamique de relations), les cibles d’intervention et l’utilité du travail des infirmières (sens donné au travail). Afin de faciliter leur participation dans les programmes d’intervention et d’encourager la collaboration, tant intersectorielle qu’interprofessionnelle, il est suggéré en premier lieu de favoriser l’implication des infirmières dans les processus d’élaboration et d’implantation de programmes d’intervention. En second lieu, il est proposé de mettre en place une formation continue interprofessionnelle permettant une meilleure harmonisation des pratiques professionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La libéralisation des échanges a fait augmenter les richesses, mais en réalité, elles se sont concentrées dans les pays développés. La question de la distribution plus équitable des richesses s'est rapidement posée. Le système GATT/OMC a joué un rôle décisif dans la libéralisation des échanges et dans l'articulation des rapports entre les pays développés et les pays en développement (PED). L'émergence et l'incarnation juridique dans le système GATT/OMC d'un principe de justice distributive passe par l'évolution du traitement spécial et différencié (TSD). Sous le GATT, le TSD s'est d'abord manifesté par l'article XVIII et la Partie IV du GATT de 1947, la Clause d'habilitation et le Système de préférences de 1971. Le TSD ainsi proposé appartenait essentiellement à la sof law et a échoué dans sa tentative d'intégrer les PED au système SCM. Sous l'OMC, le TSD a changé de paradigme et de mandat. Le TSD est passé d'un outil voué à mettre au développement des PED à un mécanisme employé à aider les PED à mettre en œuvre les nouvelles politiques de libéralisation découlant des accords de l'OMC. Les dispositions TSD seront alors dispersées dans l'ensemble des accords de l'OMC, mais sans jamais transcender la forme «soft law» qui les caractérisait sous le GATT. L'échec de la Conférence de Seattle, en 1999, engendrera le «Programme de Doha pour le développement», en 2001. La Déclaration de Doha était alors perçue comme l'incarnation de la transformation de l'OMC en organisation qui se préoccupe désormais de justice distributive. En observant de près le texte de la Déclaration de Doha et en analysant sa valeur juridique, on ne constate pas de progrès significatifs. Encore une fois, les mesures proposées le sont sous forme de déclarations d'intention et de promesses, voire d'engagement à négocier. Actuellement, le Cycle de Doha tarde à aboutir et tout nous porte à croire que l'avènement de l'OMC n'a pas concrétisé la volonté des PED d'une répartition plus équitable des richesses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-propos: La résolution de conflits s’est installée dans les cursus universitaires comme une discipline à part entière sinon comme une orientation au sein de plusieurs sciences sociales. En effet, ce champ d’étude fait de plus en plus l’objet de réflexions en sciences politiques, en sociologie, en anthropologie, etc, et ce, de par l’interdisciplinarité des questionnements qui en relèvent. Toutefois, la dimension religieuse, souvent considérée comme source de conflits, est quasi inexistante lorsqu’il est question d’approches de résolution. Nous nous proposons donc d’examiner la solha, une pratique proche orientale au sein de laquelle le fait religieux est une composante essentielle à la réconciliation escomptée. Note concernant la translittération: Les termes provenant de l’arabe feront l’objet d’une translittération phonétique basée sur le français. Notez que les translittérations en langue française sont différentes de celle en langue anglaise. Par exemple, le terme solha trouvera son équivalent anglais dans le terme sulha (d’où la différence d’orthographe entre le contenu de cette étude et les citations qui proviennent d’articles anglophones). De plus, notez que le genre (féminin, masculin) des termes translittérés reprendra celui de la langue d’origine, l’arabe. Ainsi, solha sera féminin, jaha aussi, etc… Finalement, pour des raisons de clarté, les termes translittérés seront tous en italique dans le texte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le roman sentimental est un des genres les plus lus, les plus traduits et les plus diffusés. Malgré sa mauvaise réputation, il est étonnant de constater le nombre de ces romans vendus, tous pays confondus. Dans les Antilles, ce phénomène est particulièrement palpable : la présence, et la réception de ces œuvres témoignent de l’engouement pour le genre. Notre étude a pour objectif de dégager d’un corpus sentimental antillais les aspects les plus significatifs. Nous analyserons, d’une part, le schéma narratif élaboré en marge de celui proposé par le roman sentimental classique et, d’autre part, l’esthétique du quotidien mise en place pour créer un sentiment d’appartenance chez le lectorat. Il nous sera ainsi possible de mettre en évidence le discours socioculturel propre à ce genre et plus spécifiquement aux femmes antillaises. Par ailleurs, cette recherche postule que l'appropriation des invariants romanesques et l'élaboration d'une visée didactique participent à l'intégration du roman sentimental antillais dans la sphère des littératures « sérieuses ». Enfin, ce mémoire défend l’idée selon laquelle l’écriture romanesque des auteures étudiées contribue au projet littéraire antillais de réappropriation identitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers qui accompagnent le document incluent une archive .jar du zoom-éditeur (qui peut être lancé via un browser) et des exemples de z-textes réalisés avec ce logiciel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette étude, nous analysons les principaux problèmes que nous retrouvons lorsque nous utilisons les entrevues sociolinguistiques comme méthode d’analyse pour obtenir des échantillons de l’actuation linguistique authentiques. Cette problématique provient de la nature même de la méthodologie employée en fonction du paradoxe de l’observateur (Labov 1972) et elle impose la nécessité de réfléchir sur les avantages et les désavantages inhérents à l’instrument de recherche utilisé. En ayant ce propos, l’objectif principal qu’on poursuit est celui de donner réponse à une question que surgit lorsqu’on parle de l’entrevue sociolinguistique : Comment pourrait-on obtenir des échantillons de parole de style spontané dans l’observation systématique de l’entrevue? Pour essayer de répondre à cette problématique, on a revu et analysé un échantillon de vingt entrevues semi dirigées (25 heures d’enregistrement) qui font partie du Corpus Oral et Sonore de l’Espagnol Rural (COSER). L’étude des entrevues sociolinguistiques comme méthode scientifique montre, comme principal résultat, que parmi les stratégies utilisées pour essayer de réduire les effets du paradoxe de l’observateur on devrait inclure celle de la tactique de faire parler l’informateur à propos d’un objet qui ait une particulière valeur affective pour lui, pour générer ainsi une déstructuration du schéma formel de l’entrevue et une situation émotionnelle de sorte que l’émotivité neutralise sa conscience linguistique et son discours. De cette façon, l’attention du parlant se concentrera dans l’objet même plutôt que dans sa parole formelle et, de cette manière, on obtiendrait des échantillons de style plus spontané et colloquial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon le voile d’ignorance proposé par John Harsanyi (1953, 1955), l’observateur rationnel derrière le voile d’ignorance cherche à maximiser la somme des utilités individuelles. Cependant, le modèle d’Harsanyi est fondé sur une hypothèse erronée que la fonction d’utilité à la von Neumann-Morgenstern de l’observateur permet la comparaison interpersonnelle de bien-être. Ce papier suggère une modification du modèle d’Harsanyi qui permet la comparaison interpersonnelle de bien-être, en utilisant les années de vie en parfaite utilité ou les années de vie heureuse comme mesure du bien-être.