994 resultados para à propos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur la situation des élèves dysphasiques au Québec. En effet, l’identification de leur trouble, l’accessibilité à des services adaptés et la scolarisation de ces élèves a connu, à travers les années, quelques problèmes. Actuellement, 66,40% des élèves dysphasiques sévères au Québec ne sont pas scolarisés en classe ordinaire (MELS, 2008b). Une partie d’entre eux se retrouve dans des classes de langage aussi appelées classes de communication. Ce milieu de scolarisation fait partie du niveau 5 du système en cascade proposé dans le rapport COPEX (MEQ, 1976). Ce type de service a été mis en place afin de répondre, entre autres, aux besoins particuliers de la population d’élèves dysphasiques sévères. Par contre, leur efficacité par rapport à la réussite éducative de ces élèves n’est toujours pas évaluée. La recension des écrits a permis l’approfondissement des éléments-clés de la recherche, soit la dysphasie, la classe de langage et l’efficacité. Cette même recension a permis à la chercheuse de se positionner par rapport au cadre méthodologique utilisé. Ainsi, cette étude qualitative de type exploratoire vise à aller chercher sur le terrain des informations concernant l’efficacité des classes de langage. Celles-ci ont été collectées en utilisant principalement l’entretien individuel, le questionnaire ayant plutôt servi à collecter des informations factuelles sur les participants. Les personnes questionnées, qui sont au nombre de neuf, sont les principaux agents qui gravitent autour de l’élève dysphasique sévère fréquentant une classe de langage : les parents, les enseignants et les orthophonistes. Les résultats permettent une avancée dans la recherche pour ce qui est des effets de la classe de langage sur la réussite éducative des élèves dysphasiques sévères.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis written in co-mentorship with Richard Chase Smith Ph.D, of El Instituto del Bien Comun (IBC) in Peru. The attached file is a pdf created in Word. The pdf file serves to preserve the accuracy of the many linguistic symbols found in the text.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Conseil de sécurité est l’organe principal du système onusien chargé du maintien de la paix et de la sécurité internationales. Face à une situation illégale, il ne peut donc l’ignorer et s’en désintéresser. Cependant, la perpétration d’un acte à la légalité controversée par l’un ou plusieurs de ses membres permanents peut nous laisser entendre que l’organe politique onusien aura des difficultés à remplir son rôle. Les membres permanents vont tenter d’instrumentaliser le Conseil de sécurité afin de diminuer l’illégalité de la situation. Ceci pose avec acuité le problème du contrôle de son activité en matière de maintien de la paix. L’accomplissement d’un acte illégal par un ou plusieurs membres permanents du Conseil de sécurité nécessite alors de réfléchir à des moyens d’ordre juridique pour limiter son pouvoir. Cette réflexion s’avère particulièrement pressante lorsque le Conseil est confronté à une occupation de guerre impliquant ses membres permanents ou, lorsqu’il crée ou autorise des opérations de paix de grandes envergures suite à un conflit armé impliquant ses membres permanents. Afin de limiter les prérogatives du Conseil de sécurité, le régime juridique de l’occupation tel qu’énoncé par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 devrait être appliquer par l’organe politique onusien lorsqu’il intervient dans une situation d’occupation de guerre impliquant ses membres permanents. L’objectif est d’éviter qu’il n’attribue aux puissances occupantes des missions qui dépassent le cadre juridique imposé par le droit des conflits armés. L’autorisation, par le Conseil de sécurité d’opérations de paix, telles qu’une administration civile transitoire ou une force multinationale avec un mandat de la paix avec recours à la force armée, suite à un conflit armé impliquant ses propres membres permanents, ouvre le débat sur leur réglementation. Alors, il sera proposé une interprétation progressiste de la définition de l’occupation telle qu’énoncée par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 afin d’y intégrer ces nouvelles formes d’occupations pacifiques, présentant de grandes similitudes avec les occupations de guerre. Ainsi, le régime juridique de l’occupation pourra leur être appliqué.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’ouvre avec des commentaires du siècle dernier sur les opinions de Luther à propos de l’autorité du gouvernement et de l’Église, ainsi que sur la nature humaine et la fonction de la loi. Je présente ensuite où ces critiques situent Luther par rapport à la tradition scholastique et par rapport à la tradition romaine au sein de l’Église. Puis, j’explore les œuvres de Luther pour mettre en lumière ses arguments concernant l’Église, la source de son autorité, ainsi que la relation de celle-ci avec les gouvernements, autrement dit les autorités temporelles. De là, je m’intéresse à la comparaison que le réformateur fait entre la place de l’Église dans la société et celle de l’autorité temporelle. Enfin, j’analyse les écrits de Luther à propos de deux évènements concernant la construction du Royaume de Dieu et plus précisément, dans quelle mesure l’Église dépend, ou non, des autorités temporelles pour construire ce Royaume. Nous allons trouver une réponse surprenante à la question de comment l’église est indépendante de l’autorité temporelle dans l’ouvrage spécifique au royaume de Dieu. Le but de ma thèse est de répondre à certains critiques qui reprochent à Luther de s’appuyer sur l’autorité temporelle pour établir l’Église, et par conséquent de donner au temporel le contrôle sur le spirituel. Nous découvrirons que Luther tire son autorité des Écritures. Nous découvrirons aussi les conséquences que cette autorité a sur sa philosophie politique, c'est-à-dire l’importance de la soumission aux autorités gouvernantes en même temps que la libération des individus de la tyrannie d’une fausse doctrine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire traite des Saturnales de Macrobe, haut fonctionnaire du 5ième siècle après J.C. et encyclopédiste latin. Malgré l’opinion reçue, selon laquelle les Saturnales dépendraient presque exclusivement d’un nombre très restreint de sources, souvent copiées mot à mot, on a reconnu depuis longtemps que Macrobe remanie de son propre chef l’une de ces sources, les Propos de Table de Plutarque, dans son septième livre. Ce mémoire démontre que ce modèle, tout comme les sources mineures, latines et grecques, avec lesquelles Macrobe le complète, lui était assez familier pour servir à l’articulation d’une vision propre; les Saturnales ne peuvent donc être cités comme preuve de la décadence de leur époque. Ce mémoire fournit une traduction et un commentaire des chapitres 7.1-3 des Saturnales, avec une explication de leurs rapports avec les Propos de Table 1.1 et 2.1 de Plutarque ainsi que des éléments propre à Macrobe, afin de reconstruire sa méthode de composition et de déterminer ses attentes par rapport à son lecteur de l’empire tardif. Le commentaire est précédé d’une introduction de l’auteur, de l’œuvre, et du septième livre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La voie mésocorticolimbique est constitutée d’un ensemble d’éléments nerveux issus de l’aire tegmentaire ventrale mésencéphalique et projettant vers des régions corticales et sous-corticales. Les neurones à dopamine (DA) qui en font partie modulent plusieurs fonctions cognitives dont l’attention, l’apprentissage et la récompense. L’activité nerveuse des cellules à DA augmente lorsque l’organisme anticipe et reçoit une récompense, ainsi qu’au cours de la phase d’apprentissage des comportements d’appétence. Or, si l’activité dopaminergique de la voie mésocorticolimbique est désordonnée, voire aberrante, des stimuli neutres deviennent saillants et prennent une signification erronée. Cette anomalie fonctionnelle du système dopaminergique pourrait être à l’origine des symptômes psychotiques observés dans la schizophrénie. Cette hypothèse est renforcée par le fait que les médicaments antipsychotiques efficaces ont tous une activité antagoniste aux récepteurs à DA de type 2 (D2); les antipsychotiques dits classiques (i.e. halopéridole) possèdent une forte affinité pour les récepteurs D2 tandis que les antipsychotiques dits atypiques (i.e. clozapine) présentent une plus forte affinité pour les récepteurs à sérotonine de type 2a (5-HT2a) que pour les récepteurs D2. Les antipsychotiques atypiques semblent plus efficaces contre les symptômes négatifs (i.e. anhédonie) de la schizophrénie et induisent moins d’effets moteurs extrapyramidaux et de dysphorie que les antipsychotiques classiques. Il a été proposé que l’efficacité des antipsychotiques atypiques soit expliqué par leur double action antagoniste aux récepteurs 5-HT2a et D2. Afin de mieux comprendre les mécanismes de ces médicaments, nous avons étudié leurs effets sur la récompense en utilisant le modèle d’autostimulation intracérébrale (ASI) chez le rongeur. Le but de la première étude était d’évaluer l’effet d’un antagoniste sélectif des récepteurs 5-HT2a, le M100907, sur la récompense et sur l’atténuation de la récompense induite par l’halopéridole. L’hypothèse était que l’atténuation de la récompense induite par l’ajout du M100907 à l’halopéridole serait similaire à celle induite par la clozapine. Dans une seconde étude, l’effet sur la récompense d’un agoniste partiel aux récepteurs D2, l’OSU-6162, a été caractérisé sous deux conditions : i) en condition de base et ii) lorsque la neurotransmission dopaminergique est altérée par l’administration systémique de quinpirole, un agoniste des récepteurs D2/D3. Les hypothèses étaient que l’OSU-6162 i) atténuerait la récompense induite par la stimulation et ii) empêcherait l’atténuation et la facilitation de la récompense induites par le quinpirole. Les données obtenues montrent que le M100907 n’altère pas la récompense par lui-même mais réduit l’atténuation de la récompense induite par l’halopéridole. La co-administration du M100907 et de l’halopéridole induit une atténuation de la récompense d’amplitude similaire à celle induite par la clozapine, ce qui suggère que l’activité antagoniste aux récepteurs 5-HT2a de la clozapine contribue à son efficacité. Les données de la seconde étude montrent que l’OSU-6162 atténue la récompense, de manière dose-dépendante, ainsi que la facilitation, mais pas l’atténuation de la récompense induite par le quinpirole. Cette dernière observation suggère que l’OSU-6162 agit comme un antagoniste fonctionnel aux récepteurs D2 post-synaptiques. Un ensemble de données suggèrent que le comportement d’ASI constitue un modèle valide permettant d’évaluer l’efficacité antipsychotique potentielle de nouvelles molécules. Le comportement d’ASI est atténué par les antipsychotiques cliniquement efficaces mais est peu ou pas modifié par des molécules dépourvues d’activité antipsychotique. Les données obtenues dans cette thèse permettent de supposer que l’OSU-6162 possède une activité antipsychotique de nature atypique, et cela sans altérer la neurotransmission sérotoninergique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude qualitative descriptive de type exploratoire avait pour but l’exploration de la perception des adolescents et des experts en sécurité routière sur les campagnes de sensibilisation actuelles et les programmes de prévention en sécurité routière s’adressant aux adolescents, afin de proposer de nouvelles pistes d’action en prévention des accidents de la route. Le modèle de planification Precede/Proceed de Green et Kreuter (2005) a été utilisé comme cadre de référence. Un groupe de discussion a été réalisé auprès de huit adolescents et des entrevues semi-dirigées ont été réalisées auprès de trois experts en sécurité routière. Les résultats montrent que peu de similitudes existent entre les propos des adolescents et ceux des experts en sécurité routière. Par contre, les similitudes portent sur des aspects importants en sécurité routière comme la prise du risque à l’adolescence, l’implication des parents et l’implication du milieu scolaire. Les résultats de cette étude fourniront aux décideurs de programmes de prévention ou aux personnes agissant de près ou de loin auprès de cette clientèle des pistes de recherches et d’actions pour de futures interventions prometteuses en prévention des accidents de la route chez les adolescents afin de réduire le nombre d’accidents chez les jeunes conducteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 2006, le Programme Hors Normes (PHN) dicte une nouvelle marche à suivre que doivent privilégier les équipes de santé au travail (SAT) lorsque des travailleurs sont exposés à des concentrations environnementales de produits chimiques supérieures aux valeurs d’exposition admissibles, c’est-à-dire à des « hors normes ». Le PHN encadre les activités de signalements des hors normes aux instances concernées et demande des suivis plus rigoureux en établissements. Ce faisant, il redéfinit les rôles des infirmières et des membres des équipes SAT. Dans le but de mieux comprendre l’implication des infirmières dans le cadre du PHN, sept entretiens individuels semi-dirigés ont été réalisés afin d’explorer et de décrire leurs représentations. L’analyse qualitative de ces représentations, par catégorisation et comparaisons constantes des discours, révèle que les infirmières se représentent de diverses façons leur pratique dans le cadre du PHN. En effet, les résultats de l’étude montrent qu’afin de comprendre l’implication des infirmières dans ce programme d’intervention, il importe de considérer les quatre éléments suivants : l’organisation du travail, les aspects relationnels (dynamique de relations), les cibles d’intervention et l’utilité du travail des infirmières (sens donné au travail). Afin de faciliter leur participation dans les programmes d’intervention et d’encourager la collaboration, tant intersectorielle qu’interprofessionnelle, il est suggéré en premier lieu de favoriser l’implication des infirmières dans les processus d’élaboration et d’implantation de programmes d’intervention. En second lieu, il est proposé de mettre en place une formation continue interprofessionnelle permettant une meilleure harmonisation des pratiques professionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La libéralisation des échanges a fait augmenter les richesses, mais en réalité, elles se sont concentrées dans les pays développés. La question de la distribution plus équitable des richesses s'est rapidement posée. Le système GATT/OMC a joué un rôle décisif dans la libéralisation des échanges et dans l'articulation des rapports entre les pays développés et les pays en développement (PED). L'émergence et l'incarnation juridique dans le système GATT/OMC d'un principe de justice distributive passe par l'évolution du traitement spécial et différencié (TSD). Sous le GATT, le TSD s'est d'abord manifesté par l'article XVIII et la Partie IV du GATT de 1947, la Clause d'habilitation et le Système de préférences de 1971. Le TSD ainsi proposé appartenait essentiellement à la sof law et a échoué dans sa tentative d'intégrer les PED au système SCM. Sous l'OMC, le TSD a changé de paradigme et de mandat. Le TSD est passé d'un outil voué à mettre au développement des PED à un mécanisme employé à aider les PED à mettre en œuvre les nouvelles politiques de libéralisation découlant des accords de l'OMC. Les dispositions TSD seront alors dispersées dans l'ensemble des accords de l'OMC, mais sans jamais transcender la forme «soft law» qui les caractérisait sous le GATT. L'échec de la Conférence de Seattle, en 1999, engendrera le «Programme de Doha pour le développement», en 2001. La Déclaration de Doha était alors perçue comme l'incarnation de la transformation de l'OMC en organisation qui se préoccupe désormais de justice distributive. En observant de près le texte de la Déclaration de Doha et en analysant sa valeur juridique, on ne constate pas de progrès significatifs. Encore une fois, les mesures proposées le sont sous forme de déclarations d'intention et de promesses, voire d'engagement à négocier. Actuellement, le Cycle de Doha tarde à aboutir et tout nous porte à croire que l'avènement de l'OMC n'a pas concrétisé la volonté des PED d'une répartition plus équitable des richesses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-propos: La résolution de conflits s’est installée dans les cursus universitaires comme une discipline à part entière sinon comme une orientation au sein de plusieurs sciences sociales. En effet, ce champ d’étude fait de plus en plus l’objet de réflexions en sciences politiques, en sociologie, en anthropologie, etc, et ce, de par l’interdisciplinarité des questionnements qui en relèvent. Toutefois, la dimension religieuse, souvent considérée comme source de conflits, est quasi inexistante lorsqu’il est question d’approches de résolution. Nous nous proposons donc d’examiner la solha, une pratique proche orientale au sein de laquelle le fait religieux est une composante essentielle à la réconciliation escomptée. Note concernant la translittération: Les termes provenant de l’arabe feront l’objet d’une translittération phonétique basée sur le français. Notez que les translittérations en langue française sont différentes de celle en langue anglaise. Par exemple, le terme solha trouvera son équivalent anglais dans le terme sulha (d’où la différence d’orthographe entre le contenu de cette étude et les citations qui proviennent d’articles anglophones). De plus, notez que le genre (féminin, masculin) des termes translittérés reprendra celui de la langue d’origine, l’arabe. Ainsi, solha sera féminin, jaha aussi, etc… Finalement, pour des raisons de clarté, les termes translittérés seront tous en italique dans le texte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le roman sentimental est un des genres les plus lus, les plus traduits et les plus diffusés. Malgré sa mauvaise réputation, il est étonnant de constater le nombre de ces romans vendus, tous pays confondus. Dans les Antilles, ce phénomène est particulièrement palpable : la présence, et la réception de ces œuvres témoignent de l’engouement pour le genre. Notre étude a pour objectif de dégager d’un corpus sentimental antillais les aspects les plus significatifs. Nous analyserons, d’une part, le schéma narratif élaboré en marge de celui proposé par le roman sentimental classique et, d’autre part, l’esthétique du quotidien mise en place pour créer un sentiment d’appartenance chez le lectorat. Il nous sera ainsi possible de mettre en évidence le discours socioculturel propre à ce genre et plus spécifiquement aux femmes antillaises. Par ailleurs, cette recherche postule que l'appropriation des invariants romanesques et l'élaboration d'une visée didactique participent à l'intégration du roman sentimental antillais dans la sphère des littératures « sérieuses ». Enfin, ce mémoire défend l’idée selon laquelle l’écriture romanesque des auteures étudiées contribue au projet littéraire antillais de réappropriation identitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.