282 resultados para Suivi longitudinal de la maternelle à la troisième année


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : Les interventions sur l'environnement bâti reliées au transport peuvent contribuer à l'augmentation de la pratique de l'activité physique. En tant qu’intervention, les programmes de vélos en libre-service (PVLS) peuvent contribuer à l’utilisation du vélo. BIXI© (nom qui fusionne les mots BIcyclette et taXI) est un programme de vélos en libre-service implanté à Montréal, au Canada, en mai 2009. Le programme BIXI© met à la disposition des gens 5050 vélos à 405 bornes d’ancrage. Objectif : L'objectif général de cette thèse est d'étudier l'impact d'un programme de vélos en libre-service sur l’utilisation du vélo. Les objectifs spécifiques de la thèse sont de : 1) Estimer la prévalence populationnelle et identifier des variables environnementales, sociodémographiques et comportementales associées à l’utilisation des vélos en libre-service. 2) Estimer l’impact populationnel de l’implantation des vélos en libre-service sur l’utilisation du vélo et les contributions respectives de l’utilisation du vélo pour des fins utilitaires et récréatives à l’utilisation totale du vélo. 3) Estimer l’impact local de l’implantation des vélos en libre-service sur l’utilisation du vélo. Méthodes : Un devis populationnel transversal avec mesures répétées. Des enquêtes ont été réalisées au moment du lancement du programme de vélos en libre-service (4 mai au 10 juin, 2009), à la fin de la première année d’implantation (8 octobre au 12 décembre, 2009), et à la fin de la deuxième année d’implantation (8 novembre au 12 décembre, 2010). Les échantillons se composaient de 2001 (âge moyen = 49,4 années, 56,7 % de femmes), 2502 (âge moyen = 47,8 ans, 61,8 % de femmes) et 2509 (âge moyen = 48,9 années, 59,0 % de femmes) adultes à chaque période de mesure respectivement. Résultats : Globalement, les résultats démontrent le potentiel des PVLS pour augmenter l’utilisation du vélo. Les résultats suggèrent que près de 128 744 habitants ou 8,1 % de la population adulte ont utilisé les vélos BIXI© au moins une fois dans la première saison. Après deux ans d’implantation, ceux qui sont exposés à BIXI© dans leur milieu résidentiel avaient une probabilité significativement plus élevée d’utiliser le vélo par rapport à ceux non exposés. Par contre, il n'y avait aucun impact local de l’implantation du programme BIXI© sur l’utilisation du vélo. Conclusions : L’implantation d'un PVLS à Montréal a augmenté la probabilité d’utiliser le vélo chez les individus habitant près d'une borne d'ancrage. Mots clés : programme de vélos en libre-service, expérience naturelle, santé des populations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les personnes non-voyantes montrent dans les différents aspects de leurs vies qu’elles sont capables de s’adapter à la privation visuelle en utilisant les capacités intactes comme l’ouï ou le toucher. Elles montrent qu’elles peuvent bien évoluer dans leur environnement en absence de vision et démontrent même des fois des habiletés supérieures à celles des personnes voyantes. La recherche de ces dernières décennies s’est beaucoup intéressée aux capacités adaptatives des non-voyants surtout avec l’avènement des nouvelles techniques d’imagerie qui ont permis d’investiguer des domaines qui ne l’étaient pas ou l’étaient difficilement avant. Les capacités supérieures des non voyants dans l’utilisation plus efficace des informations auditives et tactiles semblent avoir leur base neuronale dans le dans le cortex visuel désafférenté, qui continu à être fonctionnel après la privation sensorielle et s’en trouve recruté pour le traitement de stimulations dites intermodales : auditives, tactiles et même montre une implication dans des processus de plus haut niveau, comme la mémoire ou le langage. Cette implication fonctionnelle intermodale résulte de la plasticité du cortex visuel c'est-à-dire sa capacité à changer sa structure, sa fonction et d’adapter ses interactions avec les autres systèmes en l’absence de vision. La plasticité corticale n’est pas exclusive au cortex visuel mais est un état permanent de tout le cerveau. Pour mesurer l’activité du cortex visuel des non voyants, une mesure d’excitabilité de ses neurones consiste à mesurer le temps de recouvrement de l’onde N1 en potentiels évoqués, qui est plus rapide chez les non voyants dans la modalité auditive. En effet, les réponses en potentiels et champs évoqués ont été utilisés en EEG/MEG pour mettre en évidence des changements plastiques dans le cortex visuel des non-voyants pour le traitement de stimuli dans les modalités auditives et tactiles. Ces réponses étaient localisées dans les régions postérieures chez les non voyants contrairement aux contrôles voyants. Un autre type de réponse auditive a reçu moins d’intérêt dans la recherche concernant la réorganisation fonctionnelle en relation avec la privation sensorielle, il s’agit de la réponse auditive oscillatoire (Auditory Steady-State Response ASSR). C’est une réponse qui a l’avantage d’osciller au rythme de stimulation et d’être caractérisé par une réponse des aires auditives étiquetée à la fréquence de stimulation. Cette étiquette se présente sous la forme qu’un pic d’énergie spectrale important qui culmine aux fréquences présentes dans la stimulation. Elle a également l’avantage d’être localisée dans les régions auditives primaires, de là tout changement de localisation de cette réponse chez des non voyants en faveur des régions visuelles pourrait être considéré comme une évidence de la réorganisation fonctionnelle qui s’opère après une privation sensorielle précoce. Le but de cette thèse est donc d’utiliser la réponse oscillatoire à l’écoute des sons modulés en amplitude (MA) pour mettre en évidence les corrélats de la réorganisation fonctionnelle dans le cortex visuel des non-voyants précoces. La modulation de la réponse auditive dans les régions visuelles nous permettra de montrer qu’une réorganisation est possible chez les non-voyants pour ce traitement intermodal. La première étude est une validation du paradigme expérimental «frequency tagged sounds». Il s’agit de montrer qu’une tâche de détection de changement dans la stimulation, permet de moduler la réponse ASSR aux sons modulés en amplitude en vue de l’utiliser dans les études chez les non voyants et dans les conditions d’une privation visuelle transitoire (avec les yeux bandés). Un groupe de sujets voyants ont réalisé une tâche de détection de changement dans la stimulation les yeux ouverts dans deux conditions : écoute active qui consiste à détecter un changement dans la fréquence porteuse de la modulation en appuyant avec l’index droit sur un bouton de réponse et une condition d’écoute passive. Les sons étaient présentés en écoute monaurale et dichotique. Les résultats ont montré une différence significative à l’occurrence du changement dans la stimulation en écoute dichotique seulement. Les schémas de plus grande réponse controlatérale et de suppression binaurale décrit dans la littérature ont été confirmés. La deuxième étude avait pour but de mettre en évidence une réorganisation rapide de la réponse ASSR chez un groupe de sujets voyants dans les conditions de privation visuelle transitoire de courte durée, par bandage des yeux pendant six heures. Le même protocole expérimental que la première étude a été utilisé en écoute active seulement. Les résultats montrent que dans ces conditions une modulation de la réponse corticale en écoute dichotique dans les régions visuelles est possible. Ces sources d’activité occipitale adoptent une propriété du cortex auditif qui est le battement binaural, c'est-à-dire l’oscillation de la réponse ASSR à la différence des fréquences présentées dans chaque oreille. Cet effet est présent chez la moitié des sujets testés. La représentation corticale des sources occipitales évolue durant la période de privation et montre un déplacement des sources d’activité dans la direction antéropostérieure à la fin de la période de privation. La troisième étude a permis de comparer le traitement de la réponse ASSR dans un groupe de non-voyants congénitaux à un groupe de voyants contrôles, pour investiguer les corrélats de la réorganisation fonctionnelle de cette réponse après une privation sensorielle de longue durée c'est-à-dire chez des non voyants congénitaux. Les résultats montrent des différences significatives dans la représentation spectrale de la réponse entre les deux groupes avec néanmoins des activations temporales importantes aussi bien chez les non voyants que chez les contrôles voyants. Des sources distribuées ont été localisées dans les régions associatives auditives dans les deux groupes à la différence des non voyants où il y avait en plus l’implication des régions temporales inférieures, connues comme étant activées par la vision des objets chez les voyants et font partie de la voie visuelle du quoi. Les résultats présentés dans le cadre de cette thèse vont dans le sens d’une réorganisation rapide de la réponse auditive oscillatoire après une privation visuelle transitoire de courte durée par l’implication des régions visuelles dans le traitement de la réponse ASSR par l’intermédiaire du démasquage de connections existantes entre le cortex visuel et le cortex auditif. La privation visuelle de longue durée, elle conduit à des changements plastiques, d’une part intra modaux par l’extension de l’activité aux régions temporales supérieures et médianes. D’autre part, elle induit des changements inter modaux par l’implication fonctionnelle des régions temporales inférieures visuelles dans le traitement des sons modulés en amplitude comme objets auditifs alors qu’elles sont normalement dédiées au traitement des objets visuels. Cette réorganisation passe probablement par les connections cortico-corticales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il existe actuellement des différends frontaliers entre les États circumpolaires-Nord qui entravent la bonne gouvernance de la région. Afin d'identifier des pistes de solution pour améliorer la gouvernance en Arctique et faciliter la coopération, nous analysons le processus qui a mené, à l'autre pôle, à la création du Traité sur l’Antarctique de 1959. Nous utilisons une approche néolibérale institutionnelle comme cadre théorique ainsi qu’une méthodologie basée sur le traçage de processus. Nous avons identifié quatre variables (les intérêts des États, le contexte politique, le leadership, et l’Année géophysique internationale [AGI]) que nous avons étudiés au cours de trois périodes historiques et dont l’évolution a contribué à la formation du régime antarctique. Les étapes menant à l'élaboration d'un régime identifié dans la théorie institutionnaliste dynamique de Frischmann s'appliquent aux différentes périodes que nous avons déterminées. La première période historique correspond à l'identification du problème d'interdépendance. Les États ont d’abord tenté d’assouvir leurs intérêts particuliers envers le continent antarctique par l’intermédiaire de stratégies individuelles. Le statut imprécis du continent antarctique caractérisé par des revendications territoriales conflictuelles, la volonté des superpuissances d’effectuer d’éventuelles revendications territoriales et le leadership exercé par les États-Unis ont toutefois permis de faire évoluer les États vers des stratégies coopératives. La deuxième période historique correspond à l'étape de la négociation de l’entente. Le leadership d’un groupe de scientifiques et des États-Unis ainsi que le contexte politique de la Guerre froide ont favorisé la cohésion des États intéressés par les affaires antarctiques et leur investissement dans une coopération multilatérale souple dans le cadre d’un événement ponctuel, l’AGI. La troisième période correspond à la mise en oeuvre de l’entente, soit l’AGI. Lors de cet événement, une entente tacite, un engagement d’honneur, qui suspendait les considérations territoriales en Antarctique, a été respectée par les parties. La coopération dans le cadre de l’AGI s’est avérée un succès. Les États se sont montrés satisfaits des gains que comportait la coopération scientifique dans un environnement pacifique. L’AGI a permis aux États d’expérimenter la coopération multilatérale et d’observer le comportement des autres participants au sein de l’institution. En raison de la satisfaction des États vis-à-vis la coopération dans le cadre de l'entente souple, l'élaboration du traité de 1959 a été facilitée. Notre étude nous a permis d’identifier des éléments clefs qui ont favorisé la formation du régime antarctique et qui pourraient servir d’inspiration pour l'élaboration de futurs régimes. La présence d’un leadership tout au long du processus a permis de promouvoir les avantages de la coopération sous différentes formes et de renforcer les relations entre les États présents dans les affaires antarctiques. La réalisation d'une entente souple dans le cadre de l'AGI, centrée autour des intérêts communs aux parties, comprenant un engagement d’honneur, permettant de mettre de côté les points de discorde, ont aussi été des points centraux dans la réussite et la poursuite de la coopération au-dede l’AGI. Cette approche graduelle allant du droit souple vers le droit contraignant est sans aucun doute l’élément le plus important ayant facilité le rapprochement des différentes parties et éventuellement la création du Traité sur l’Antarctique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : Les répercussions de l’alcool au niveau des fonctions cognitives sont bien documentées. Certaines hypothèses suggèrent que l’alcool affecte des fonctions cognitives spécifiques alors que d’autres avancent l’hypothèse de déficits diffus. Cependant, une ambigüité persiste concernant quelles fonctions cognitives sont le plus touchées par l’alcool, et à quel point la durée d’abstinence affecte la récupération cognitive. Nous avons procédé à une des premières méta-analyses qui s’intéresse aux différentes fonctions cognitives touchées par la consommation problématique d’alcool et à la durée d’abstinence requise pour une récupération au niveau des cognitions. Méthodes : Une recherche de la littérature a permis d’identifier 62 études évaluant les cognitions chez les personnes présentant des troubles liés à l’utilisation d’alcool. Les estimations de la taille d’effet ont été calculées avec la Comprehensive Meta Analysis –V2 pour les 12 domaines cognitifs suivants : quotient intellectuel, fluidité verbale/langage, vitesse de traitement de l’information, mémoire de travail, attention, résolution de problème/fonctions exécutives, inhibition/impulsivité, apprentissage verbal, mémoire verbale, apprentissage visuel, mémoire visuelle, habiletés visuo-spatiales. Parmi ces 12 domaines cognitifs, 3 estimations de la taille d’effet ont été calculées selon les durées d’abstinences suivantes : court- (<1 mois), moyen- (2 à 12 mois) et long- (>1 an) termes. Résultats : Les résultats ont révélé la présence de dysfonctions modérées dans 11 domaines cognitifs durant l’abstinence à court terme, et dans 10 domaines cognitifs pour le moyen-terme. Des dysfonctions cognitives minimales furent notées durant l’abstinence à long-terme. Conclusions : Ces résultats révèlent des déficits cognitifs significatifs et diffus durant la première année d’abstinence. Déficits qui se normalisent après un an. Ces résultats soutiennent l’hypothèse de déficits cognitifs diffus reliés à l’alcoolisme et suggèrent que la cognition devrait faire partie intégrante du traitement d’alcoolisme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire a comme objectif premier, l’étude du film d’enquête sur les tueurs en série. Plus spécifiquement, le mémoire examine le cas du film Zodiac réalisé par David Fincher en 2007. En procédant par analyses comparatives portant sur la structure narrative, les thématiques et les mécanismes de réception du film d’enquête, nous avons tenté de mettre en lumière des hypothèses quant à l’insuccès commercial de Zodiac. La première section de l’étude examine la spécificité et les fonctions propres au film d’enquête sur les tueurs en série et parvient ainsi à tirer la conclusion qu’il prévaut de catégoriser ce corpus d’œuvres comme un sous-genre du film policier. Nous avons étudié la fonction sociale et médiatique des archétypes filmiques du tueur et de l’enquêteur afin d’atteindre une meilleure compréhension de la fascination du public américain pour ce sous-genre. La seconde section du mémoire examine comment Zodiac se détache des conventions génériques et, particulièrement, comment la mise en scène opère une démystification de la figure du tueur en série. De plus, nous avons soulevé le traitement particulier déployé par Zodiac, soit la monstration, par le biais des personnages, du travail spectatoriel de mise en récit de l’enquête. La troisième section vise à démontrer la rupture de l’horizon d’attente du spectateur chez Zodiac ainsi que la chute de l’imaginaire mythique qui est ainsi engendré.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : Ce mémoire avait pour objectif de comprendre le processus par lequel les femmes en arrivent à commettre un acte violent. Plus spécifiquement, de connaître le sens que les femmes donnent à leur violence, de quelle façon elles reconstruisent le processus qui les a menées à cet acte et de quelle façon elles l’intègrent dans le cours de leur vie. Méthode : Pour atteindre cet objectif, 24 entrevues semi-structurées ont été réalisées auprès de femmes détenues ou prévenues ayant commis un acte de violence. Les participantes étaient rencontrées à la Maison Tanguay ou au secteur féminin du Centre de détention de Québec. Par la suite, les entrevues furent retranscrites et les données obtenues traitées à l’aide du programme NVivo. Nous avons analysé ces données selon le processus proposé par la théorisation ancrée. Résultats: Les résultats ont permis d’établir un modèle représentant le processus de passage à l’acte violent chez les femmes. Ce modèle se déroule en quatre phases. La première phase concerne le portrait de vie des participantes de l’enfance à l’âge adulte. Cette phase met principalement l’accent sur les difficultés vécues par les participantes et leurs stratégies d’adaptation. La deuxième phase est relative à la période précédant le délit. Elle comprend deux volets soit, l’entrée dans le processus qui réfère aux mois ou semaines précédant le délit et la phase aiguë qui réfère aux jours ou aux instants précédant le délit. La troisième phase concerne le déroulement de délit. Cette phase est divisée en deux profils différents, selon le type de violence utilisée soit, expressive ou utilitaire. Ces deux profils se distinguent quant aux circonstances, aux motifs, aux émotions et dans le recours, ou non, à des stratégies alternatives à la violence. Enfin, la dernière phase du modèle se concentre sur la période succédant l’acte de violence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La douleur post-opératoire chez les patients constitue un défi thérapeutique important pour les cliniciens. Le traitement de la douleur post-opératoire n’est pas accessoire ni optionnel, puisqu’il permet de donner un congé de l’hôpital plus rapide aux patients et ainsi, il contribue à des économies importantes pour notre système de santé. Parmi les approches thérapeutiques utilisées pour la prise en charge de la douleur post-opératoire, cette thèse s’intéresse particulièrement aux blocs de nerfs périphériques par les anesthésiques locaux et à l’administration de la néostigmine par voie épidurale. Ces médicaments sont utilisés en clinique sans avoir préalablement établi, en se basant sur leur propriétés pharmacocinétiques et pharmacodynamiques spécifiques, leurs doses optimales. Ces doses devraient également tenir en considération les particularités anatomiques du site d’injection par rapport au site d’action. Cette thèse inclut des études exploratoires qui ont contribué à caractériser la pharmacocinétique de la ropivacaïne et de la bupivacaïne ainsi que la pharmacocinétique et la pharmacodynamie de la néostigmine. La première étude portait sur seize patients subissant une chirurgie orthopédique avec un bloc combiné des nerfs fémoral et sciatique par la ropivacaïne (n=8) ou la bupivacaïne (n=8). C’était la première étude qui a inclu des temps d’échantillons pharmacocinétiques allant jusqu’à 32 h après le bloc et ces résultats ont démontré une variabilité interindividuelle considérable. La modélisation par approche de population a aidé à expliquer les sources de la variabilité et démontré que l’absorption systémique des anesthésiques locaux était très lente. De plus, les concentrations plasmatiques demeuraient mesurables, et dans certains cas présentaient un plateau, 32 h après le bloc. Dans les prochaines études, un échantillonnage allant jusqu’à 4 ou 5 jours sera nécessaire afin d’atteindre la fin de l’absorption. La deuxième étude a établi le développement d’un modèle animal en étudiant la pharmacocinétique de la ropivacaïne après administration intraveineuse ainsi que son degré de liaison aux protéines plasmatiques chez le lapin (n=6). Les résultats ont démontré que, chez le lapin la ropivacaïne est beaucoup moins liée aux protéines plasmatiques comparativement à l’humain. Ce résultat important sera utile pour planifier les prochaines études précliniques. La troisième étude a exploré, pour la première fois, la pharmacocinétique et la pharmacodynamie de la néostigmine administrée par voie épidurale et a essayé de caractériser la courbe dose-réponse en utilisant trois doses différentes : 0.5, 1 et 1.5 mg. Bien que les concentrations de la néostigmine dans le liquide céphalo-rachidien fussent très variables une relation inverse entre la consommation de mépéridine et la dose de néostigmine a été démontrée. La dose de 1.5 mg a donné une meilleure réponse pharmacodynamique sur la douleur, mais elle a été considérée comme dangereuse puisqu’elle a résulté en deux cas d’hypertension. Nous avons conclu que des doses plus faibles que 1.5 mg devront être utilisées lors de l’utilisation de la néostigmine par voie épidurale. En conclusion, les études rapportées dans cette thèse ont exploré les propriétés pharmacocinétiques et/ou pharmacodynamiques de certains médicaments utilisés pour le traitement de la douleur post-opératoire. Ceci mènera au but ultime qui est la meilleure prise en charge de la douleur post-opératoire chez les patients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’étude porte sur la question des burakumin, les intouchables japonais, dans deux oeuvres de l’écrivain japonais Nakagami Kenji (1946-1992), lui-même issu de cette communauté. Mille ans de plaisir, recueil de six contes basés sur des récits de vie, et le roman Miracle forment une suite organisée autour des mêmes lieux, des mêmes personnages et des mêmes thèmes. Ils décrivent la condition sociale d’une collectivité mise au ban de la société japonaise malgré sa modernisation. Ils se distinguent par leur caractère d’ethnofiction. Nakagami cherche à réhabiliter les burakumin en valorisant le patrimoine religieux et folklorique dont ils sont dépositaires. Il puise dans les genres traditionnels comme le monogatari ou les contes et légendes du Japon. Il s’inspire également d’auteurs modernes japonais (Mishima, Tanizaki) et d’auteurs étrangers (Faulkner, García-Márquez). À partir de cet intertexte et pour faire barrage à l’occidentalisation, il élabore un style « hybride » digne de la littérature nationale (kokubungaku). Les oeuvres traditionnelles sont réinterprétées dans une esthétique postmoderne ayant une fonction ironique et critique contre l’idéologie impériale répressive qui continue d’alimenter la discrimination envers les burakumin. L’analyse porte sur les procédés qui sous-tendent le projet social et le projet littéraire de l’auteur. Elle se divise en trois parties. La première donne un aperçu biographique de l’auteur et décrit les composantes de son projet social qui consiste à vouloir changer l’image et le statut des burakumin. La deuxième partie décrit les éléments religieux et folkloriques des deux oeuvres et analyse en contexte leur signification ainsi que leur fonction, qui est de mettre en valeur les traditions préservées par les burakumin. La troisième partie montre en quoi le répertoire traditionnel (monogatari) et les intertextes sont mis au service du projet littéraire proprement dit.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il a été suggéré que lorsqu’une trace de mémoire consolidée est rappelée (réactivée), elle devient instable et sujette aux modifications avant de se stabiliser à nouveau en mémoire à long terme. Nous avons récemment démontré que lorsque la réactivation d’un souvenir négatif est couplée à l’exposition à un stress psychosocial, le souvenir de l’évènement négatif est augmenté de façon durable. En se basant sur ces résultats, le but de cette thèse est de préciser le rôle du stress psychologique et physiologique (hormones de stress) sur la modulation de souvenirs réactivés. Plus précisément, la première étude visait à déterminer si le cortisol, hormone de stress majeure, est un joueur clé dans la modulation des souvenirs réactivés. Pour ce faire, nous avons inhibé pharmacologiquement les niveaux de cortisol au moment de la réactivation d’un souvenir contenant des segments neutres et négatifs. Les résultats démontrent que la réactivation du matériel négatif est amoindrie lorsque les niveaux de cortisol sont inhibés, et cet effet est toujours présent quatre jours plus tard. Étant donné que les stimuli utilisés jusqu’à maintenant ont une faible validité écologique, nous avons voulu déterminer si d’autres types de mémoires pouvaient également être modulables lors de leur réactivation. L’objectif de la deuxième étude était donc de déterminer si les mémoires autobiographiques collectives sont modulables par le stress au moment de leur réactivation. Pour ce faire, nous avons exposé les participants à de vrais extraits de journaux, neutres ou négatifs, afin de réactiver les mémoires collectives associées à ces évènements. Par la suite, tous les participants ont été exposés à un stress psychosocial et leur mémoire des extraits a été évaluée la journée suivante. Les résultats démontrent que les femmes ayant lu les nouvelles négatives avaient une réactivité physiologique accrue face au stresseur et une mémoire augmentée de ces mêmes nouvelles le jour suivant. Ce phénomène n’était cependant pas observable chez les hommes. Le but de la troisième étude était de déterminer si les mémoires autobiographiques personnelles sont modulables par le stress au moment de leur réactivation. Nous avons demandé aux participants de se remémorer deux évènements de leur passé, négatifs ou neutres. Par la suite, ils ont été exposés à un stress psychosocial et leur mémoire pour ces mêmes évènements a été évaluée à nouveau la journée suivante. Les résultats démontrent que les mémoires autobiographiques personnelles réactivées ne semblent pas être modulables par l’exposition à un stresseur. Globalement, les résultats de cette thèse démontrent que le cortisol a la capacité de moduler des souvenirs négatifs réactivés, mais que la nature (extrinsèque vs. intrinsèque) et l'intensité des souvenirs réactivés sont des facteurs déterminants pour que ce phénomène prenne place.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de cette thèse a été dépouillée de ses documents visuels et audio-visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le travail présenté dans cette thèse porte sur le rôle du cortex prémoteur dorsal (PMd) au sujet de la prise de décision (sélection d’une action parmis nombreux choix) et l'orientation visuelle des mouvements du bras. L’ouvrage décrit des expériences électrophysiologiques chez le singe éveillé (Macaca mulatta) permettant d’adresser une fraction importante des prédictions proposées par l'hypothèse des affordances concurrentes (Cisek, 2006; Cisek, 2007a). Cette hypothèse suggère que le choix de toute action est l’issue d'une concurrence entre les représentations internes des exigences et des atouts de chacune des options présentées (affordances; Gibson, 1979). Un intérêt particulier est donné au traitement de l'information spatiale et la valeur des options (expected value, EV) dans la prise de décisions. La première étude (article 1) explore la façon dont PMd reflète ces deux paramètres dans la périodelai ainsi que de leur intéraction. La deuxième étude (article 2) explore le mécanisme de décision de façon plus détaillée et étend les résultats au cortex prémoteur ventral (PMv). Cette étude porte également sur la représentation spatiale et l’EV dans une perspective d'apprentissage. Dans un environnement nouveau les paramètres spatiaux des actions semblent être présents en tout temps dans PMd, malgré que la représentation de l’EV apparaît uniquement lorsque les animaux commencent à prendre des décisions éclairées au sujet de la valeur des options disponibles. La troisième étude (article 3) explore la façon dont PMd est impliqué aux “changements d'esprit“ dans un procès de décision. Cette étude décrit comment la sélection d’une action est mise à jour à la suite d'une instruction de mouvement (GO signal). I II Les résultats principaux des études sont reproduits par un modèle computationnel (Cisek, 2006) suggérant que la prise de décision entre plusieurs actions alternatives peux se faire par voie d’un mécanisme de concurrence (biased competition) qui aurait lieu dans la même région qui spécifie les actions.