988 resultados para Terme composé
Resumo:
La grossesse est un état physiologique particulier où de nombreux changements fonctionnels et structuraux surviennent. Chez la rate, pour répondre aux besoins grandissants du fœtus, l’artère utérine se développe pour atteindre le double de son diamètre original avant parturition. Par conséquent, le débit sanguin utérin augmente d’environ vingt fois. Pour ce faire, les vaisseaux utérins sont l’objet d’un remodelage caractérisé par une hypertrophie et une hyperplasie des différentes composantes de la paroi. De plus, ce remodelage est complètement réversible après la parturition, par opposition au remodelage vasculaire « pathologique » qui affecte les artères systémiques, dans l’hypertension chronique, par exemple. La grossesse s’accompagne aussi de modifications hormonales importantes, comme les œstrogènes dont la concentration s’accroît progressivement au cours de cette période. Elle atteindra une concentration trois cents fois plus élevée avant terme que chez une femme non gravide. Cette hormone possède de multiples fonctions, ainsi qu’un mode d’action à la fois génomique et non génomique. Considérant l’ensemble de ces éléments, nous avons formulé l’hypothèse que l’œstradiol serait responsable de modifier la circulation utérine durant la grossesse, par son action vasorelaxante, mais aussi en influençant le remodelage de la vasculature utérine. Nous avons montré que le 17β-Estradiol (17β-E2) produit une relaxation due à un effet non génomique des artères utérines en agissant directement sur le muscle lisse par un mécanisme indépendant du monoxyde d’azote et des récepteurs classiques aux œstrogènes (ERα, ERβ). De plus, la relaxation induite par le 17β-E2 dans l’artère utérine durant la gestation est réduite par rapport à celle des artères des rates non gestantes. Ceci serait attribuable à une diminution de monoxyde d’azote provenant de la synthase de NO neuronale dans les muscles lisses des artères utérines. Nos résultats démontrent que le récepteur à l’œstrogène couplé aux protéines G (GPER), la protéine kinase A (PKA) et la protéine kinase G (PKG) ne sont pas impliqués dans la signalisation intracellulaire associée à l’effet vasorelaxant induit par le 17β-E2. Cependant, nous avons montré une implication probable des canaux potassiques sensibles au voltage, ainsi qu’un rôle possible des canaux potassiques de grande conductance activés par le potentiel et le calcium (BKCa). En effet, le penitrem A, un antagoniste présumé des canaux potassiques à grande conductance, réduit la réponse vasoralaxante du 17β-E2. Toutefois, une autre action du penitrem A n’est pas exclue, car l’ibériotoxine, reconnue pour inhiber les mêmes canaux, n’a pas d’effet sur cette relaxation. Quoi qu’il en soit, d’autres études sont nécessaires pour obtenir une meilleure compréhension des mécanismes impliqués dans la relaxation non génomique sur le muscle lisse des artères utérines. Quant à l’implication de l’œstrogène sur le remodelage des artères utérines durant la gestation, nous avons tenté d’inhiber la synthèse d’œstrogènes durant la gestation en utilisant un inhibiteur de l’aromatase. Plusieurs paramètres ont été évalués (paramètres sanguins, réactivité vasculaire, pression artérielle) sans changements significatifs entre le groupe contrôle et celui traité avec l’inhibiteur. Le même constat a été fait pour le dosage plasmatique de l’œstradiol, ce qui suggère l’inefficacité du blocage de l’aromatase dans ces expériences. Ainsi, notre protocole expérimental n’a pas réussi à inhiber la synthèse d’œstrogène durant la grossesse chez le rat et, ce faisant, nous n’avons pas pu vérifier notre hypothèse. En conclusion, nous avons démontré que le 17β-E2 agit de façon non génomique sur les muscles lisses des artères utérines qui implique une action sur les canaux potassiques de la membrane cellulaire. Toutefois, notre protocole expérimental n’a pas été en mesure d’évaluer les effets génomiques associés au remodelage vasculaire utérin durant la gestation et d’autres études devront être effectuées.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.
Resumo:
Le but de cette étude était d’évaluer les qualifications de performance du système FlexiWare® chez le rat male Sprague Dawley et le singe Cynomolgus éveillés, ainsi que chez le chien Beagle éveillé et anesthésié, suite à l’administration de produits ayant une activité pharmacologique connue. Les produits utilisés incluaient l’albutérol administré par inhalation, la méthacholine, et le rémifentanil administrés par voie intraveineuse. Une solution saline administré par voie intraveneuse, a été utilisée comme substance témoin. Différentes variables ont servi à évaluer la réponse des animaux (rats, chien, singe). Ces dernières comprenaient la fréquence respiratoire (RR), le volume courant (TV), la ventilation minute (MV). Des paramètres additionnels ont été évalués chez le rat, soit les temps d’inspiration (IT) et d’expiration (ET), le temps du pic de débit expiratoire, les pics de débits inspiratoire et expiratoire, le ratio inspiratoire:expiratoire (I:E), le ratio inspiratoire sur respiration totale (I:TB), et l’écoulement expiratoire moyen (EF50). Les résultats obtenus ont démontré que le système FlexiWare® était suffisamment sensible et spécifique pour dépister, chez les espèces animales utilisées, les effets bronchodilateur, bronchoconstricteur et dépresseur central des substances testées. Il pourrait faire partie des méthodes (ICH 2000) utilisées en pharmacologie de sécurité lors de l’évaluation de substances pharmacologiques sur le système respiratoire des animaux de laboratoire. Les espèces animales utilisées ont semblé s’adapter aisément aux procédures de contention. Les paramètres évalués, RR, TV et MV ont permis de caractériser la réponse des animaux suite à l’administration de produits pharmacologiques à effets connus, judicieusement complétés par les variables de débit. L’ajout de paramètres du temps n’était pas primordiale pour détecter les effets des drogues, mais offre des outils complémentaires d’interpréter les changements physiologiques. Cependant, chez le rat conscient, la période d’évaluation ne devrait pas s’étendre au-delà d’une période de deux heures post traitement. Ces études constituent une évaluation des qualifications de performance de cet appareil et ont démontré de manière originale, la validation concurrentielle, en terme de précision (sensibilité et spécificité) et fiabilité pour différentes variables et sur différentes espèces.
Resumo:
Si le dogme libéral a longtemps mis en avant la nécessité d’un interventionnisme restreint de l’autorité publique définissant post hoc le droit idéal comme un droit absent, cette idéologie semble être amenée à évoluer. Alors que le marché a longtemps été placé comme matrice de la civilisation et que ce phénomène a donné une place essentielle à la finance, différentes initiatives réglementaires françaises, européennes et mondiales remettent en cause ce paradigme et tentent d’encadrer les dérives du capitalisme contemporain axé sur un courttermisme à outrance et une irresponsabilité grandissante. La rémunération variable des opérateurs de marché (les fameux « bonus ») illustre ce phénomène de reflux du droit, un droit qui témoigne d’une collaboration entre acteurs publics et acteurs privés. Toutefois, ce nouveau paysage juridique n’est pas sans critiques. En effet, cette intervention se révèle trop limitée en l’état pour atteindre les ambitions que l’Etat français et ses homologues ne cessent de clamer : l’institution d’un pacte mondial à long terme.
Resumo:
Le but de cette étude est d’examiner les liens prédictifs entre les comportements d’agressivité proactive à l’enfance et la délinquance à l’adolescence, ainsi que le rôle potentiellement modérateur des normes prosociales du groupe-classe et du rejet par le groupe de pairs. Spécifiquement, les liens suivants seront examinés : 1) le lien principal positif entre l’agressivité proactive à l’enfance et la délinquance à l’adolescence, 2) l’effet modérateur (i.e., protecteur) des normes prosociales au sein du groupe-classe sur le lien entre l’agressivité proactive et la délinquance et 3) l’effet modérateur de second niveau du rejet par les pairs eu égard à l’effet modérateur de premier niveau des normes prosociales du groupe-classe. Deux modèles théoriques seront utilisés afin d’appuyer le choix des hypothèses et offrir un cadre conceptuel en vue de l’interprétation des résultats: Le modèle du groupe de référence et le modèle de la similarité personne-groupe. Les données proviennent d’un échantillon composé de 327 enfants ayant été évalués à 6 reprises, de l’âge de 10 ans (4e année primaire) à 15 ans (3e secondaire). La délinquance fut mesurée à l’aide de données auto-rapportées par les participants. Les normes prosociales du groupe-classe furent basées sur les évaluations moyennes faites par les enseignants des comportements prosociaux des élèves de leur classe. Le rejet par les pairs fut mesuré à l’aide d’évaluations sociométriques au sein des groupes-classes. Des modèles de régression linéaire hiérarchique ont été utilisés. Les résultats montrent un lien positif entre l’agressivité proactive à l’enfance et la délinquance à l’adolescence. Malgré l’obtention d’un coefficient d’interaction marginal, les résultats indiquent que les normes prosociales modèrent, mais à la hausse, le lien entre l’agressivité et la délinquance. L’effet modérateur du rejet par les pairs n’apparaît pas comme étant significatif. Ces résultats seront discutés afin de mieux comprendre le lien entre l’agressivité et les éléments du contexte social dans lequel l’enfant évolue, ainsi que leur implication au niveau de la prévention des problèmes d’agressivité et de la délinquance en milieu scolaire.
Resumo:
Résumé: Les progrès réalisés dans le domaine médical ont permis un prolongement de l’espérance de vie, l’amélioration de la qualité de vie des patients; ce qui implique aussi des changements dans des domaines comme l’assurance-vie. Le principe de la tarification en assurance-vie est basé sur la comparaison du risque (probabilité) de décès d’un individu candidat à une police d’assurance à celui d’une population de référence la plus proche possible du candidat. C’est ainsi que l’analyse de la littérature médicale est devenue un outil indispensable dans la sélection des risques. L’assurance-vie est présente en Afrique subsaharienne depuis environ deux cents ans, mais les assureurs ne disposaient pas jusqu'à nos jours d’outils de tarification spécifiques au contexte africain. A notre connaissance notre travail est le premier effort de ce type à s’intéresser à ce sujet. Son objectif est d’élaborer un outil de tarification qui tiendra compte des aspects spécifiques de la mortalité et de la morbidité sur le continent africain. Dans une première partie nous avons conduit une revue de la littérature médicale disponible sur différents problèmes de santé; dans une seconde étape nous avons identifié les facteurs de risque de morbidité et de mortalité afin de proposer une sélection des risques pour une tarification. Les résultats montrent que les études de mortalité, et principalement les cohortes de suivi à long terme sont rares en Afrique subsaharienne; la majorité des études sont de courte durée et en plus elles enrôlent un nombre restreint de patients. Ces insuffisances ne permettent pas une analyse actuarielle approfondie et les résultats sont difficiles à extrapoler directement dans le domaine de la tarification. Cependant, l’identification des facteurs d’aggravation de la mortalité et de la morbidité permettra un ajustement de la tarification de base. Le sujet noir africain présente un profil de mortalité et de morbidité qui est sensiblement différent de celui du sujet caucasien, d’où la nécessité d’adapter les outils de tarification actuellement utilisés dans les compagnies d’assurance qui opèrent en Afrique subsaharienne. L’Afrique au sud du Sahara a besoin aujourd’hui plus que jamais de données épidémiologiques solides qui permettront de guider les politiques sanitaires mais aussi servir au développement d’une sélection des risques adaptés au contexte africain. Ceci passera par la mise en place d’un réseau coordonné de santé publique, un système de surveillance démographique fiable et un suivi continu des mouvements de la population. Pour atteindre un tel objectif, une collaboration avec les pays développés qui sont déjà très avancés dans de tels domaines sera nécessaire.
Resumo:
La saprolégniose est une maladie fongique causée par le champignon aquatique Saprolegnia sp. qui affecte les poissons sauvages et ceux provenant des piscicultures. L’apparition de touffes cotonneuses semblables à de la ouate de couleur blanche à grise est souvent la première indication de l’infection. Ce saprophyte ubiquitaire se nourrit habituellement des œufs de poissons morts, mais peut se propager rapidement aux œufs sains causant la mort de ces derniers. La saprolégniose est souvent une infection secondaire, mais des souches virulentes peuvent facilement se développer sur les salmonidés ayant subi un stress ou une mauvaise manipulation. De grandes pertes économiques associées à la saprolégniose sont rapportées chaque année à travers le monde surtout dans l’industrie de la pisciculture. Jusqu’en 2002, le contrôle de la saprolégniose pouvait se faire par l’utilisation du vert de malachite, un colorant organique ayant une grande activité antifongique. Malheureusement, cette molécule a été bannie à cause de ses propriétés cancérigènes. Aucun composé aussi efficace n’est actuellement disponible pour traiter les infections de la saprolégniose. Des molécules ou extraits naturels ayant un potentiel antifongique ont donc été testés à l’aide de deux techniques (par graines de chanvre et par cylindre d’agar). Les molécules d’un extrait de propolis (cire de ruches d’abeilles) démontrant de l’activité anti-Saprolegnia ont été identifiées. De plus, une bactérie, Pseudomonas aeruginosa, pouvant être retrouvée dans le même environnement que Saprolegnia sp. a démontré un effet antagoniste au champignon. Une molécule de signalisation intercellulaire produite par P. aeruginosa, 4-hydroxy-2-heptylquinoline (HHQ), a été identifiée comme responsable de l’effet antagoniste contre Saprolegnia sp.
Resumo:
L’arthrose (OA) est une maladie dégénérative et multifactorielle caractérisée par une destruction de cartilage, une formation d’ostéophytes et une inflammation au niveau de la membrane synoviale. Le 4-hydroxynonénal (HNE), un produit final de la peroxydation lipidique, a été identifié récemment comme un facteur catabolique et un médiateur inflammatoire dans le cartilage arthrosique humain. Notre projet vise à étudier l’effet du HNE sur la régulation de la prostaglandine E2 synthase-1 microsomale (mPGES-1) et de la protéine activante 5-lipoxygénase (FLAP)/5-lipoxygénase (5-LOX) dans les chondrocytes arthrosiques humains. Lorsque les cellules sont traitées une seule fois avec 10 µM HNE, les résultats de Western blot et de PCR en temps réel montrent que l’expression de la cyclooxygénase-2 (COX-2) et de la mPGES-1 augmente de manière significative et atteint respectivement le maximum après 8 et 16 heures d’incubation puis diminue graduellement. Cependant, lorsque les cellules sont traitées plusieurs fois avec 10 µM HNE à 2 heures d’intervalle, l’expression de la COX-2 et de la mPGES-1 augmente en fonction du temps sans subir une baisse après 24 heures d’incubation. Le HNE induit l’activité du promoteur de la mPGES-1 via l’activation du facteur de transcription Egr-1. L’investigation de la 2ème voie du métabolisme de l’acide arachidonique, à savoir 5-LOX/FLAP, montre que le HNE induit l’expression de FLAP après 24 heures de stimulation et celle de 5-LOX seulement après 48 heures. Ceci semble survenir à l’étape de transcription au cours de laquelle HNE induit l’expression de l’ARNm et l’activité du promoteur du gène 5-LOX. Nous avons démontré aussi que le niveau de leukotriène B4 (LTB4) augmente et suit le même profil que celui de la 5-LOX. L’étude des mécanismes moléculaires susceptibles d’être impliqués dans la régulation de la 5-LOX/FLAP par le HNE montre que ce dernier stimule leur expression via l’action de prostaglandine E2 (PGE2) et du facteur de croissance transformant-beta 1 (TGF-β1). En conclusion, notre étude démontre que le HNE induit à court-terme d’incubation la voie de COX-2/mPGES-1 puis par la suite stimule celle de FLAP/5-LOX à long-terme d’incubation dans les chondrocytes arthrosiques humains. Ces résultats suggèrent que la mPGES-1 et 5-LOX/FLAP sont des potentielles cibles thérapeutiques intéressantes pour contrôler la production de PGE2 et LTB4 dans OA.
Resumo:
Les dons effectués par les entreprises privées auprès d’organismes communautaires à but non lucratif semblent avoir des effets à long terme sur ces derniers. Ces entreprises cherchent à la fois à semer le bien dans les communautés dans lesquelles elles interviennent, mais également à améliorer leur image au sein de celles-ci. Les organismes communautaires oscillent donc entre le devoir de servir leurs usagers du mieux qu’ils le peuvent, en respectant leur mission avec la plus grande diligence, et les nombreuses conditions qui se rattachent aux dons reçus. Ils doivent travailler avec un financement octroyé à court terme, de nombreuses mesures évaluatives ainsi que les volontés de donateurs parfois indiscrets. Il en résulte une identité qui se rapproche de plus en plus de celle des entreprises privées. L’étude dans ce mémoire tente d’évaluer si les usagers des quatre universités principales de Montréal adoptent une identité mercantiliste et comment ils évaluent leur rôle au sein de leurs établissements d’enseignement. Ces étudiants assumeraient un rôle davantage engagé envers les entreprises donatrices, à la fois au sein de leur institution et dans la société en général. Ils revêtiraient une identité conforme à ce qu’attend une entreprise qui effectue un don de manière intéressée en consommant de leurs biens et services.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La présente étude vise à examiner dans quelle mesure le sexe ainsi que les caractéristiques comportementales et relationnelles des agresseurs permettent de rendre compte de l’augmentation, sur une période d’un an, du sentiment de solitude chez les victimes de harcèlement par les pairs au secondaire. L’échantillon est composé de 538 élèves de secondaire I et II de la région de Montréal. Au cours de deux années consécutives, le niveau de victimisation des élèves ainsi que l’identité et les caractéristiques des agresseurs (i.e.: sexe, agressivité, popularité et victimisation) ont été évalués à partir de mesures auto-révélées et de procédures de nominations par les pairs. Les résultats démontrent, qu’au-delà de la fréquence à laquelle les élèves sont victimisés, le sexe des agresseurs permet de rendre compte de l’augmentation à travers le temps du sentiment de solitude chez les filles et les garçons. Plus spécifiquement, le nombre d’agresseurs féminins identifiés par les élèves constitue un facteur de risque étroitement lié au développement du sentiment de solitude. Par ailleurs, les caractéristiques des agresseurs ne sont pas associées à l’accroissement du sentiment de solitude à travers le temps. Cependant, le fait de se faire agresser par des élèves qui présentent des difficultés d’ajustement social importantes (i.e. : agressifs et victimisés) est associé de manière concomitante à un moins fort sentiment de solitude. La discussion aborde les processus intra- et interpersonnels permettant d’expliquer pourquoi les sentiments de solitude associés à la victimisation par les pairs sont susceptibles de varier en fonction des caractéristiques des agresseurs.
Resumo:
À l’aube du IXe siècle, les Carolingiens prétendent imposer à l’Occident l’unité dans la foi et le culte. Cet idéal domine les pensées des empereurs qui se conçoivent comme protecteurs, législateurs et juges, mais aussi vicaires du Christ et recteurs de l’Église. De telles ambitions stimulent l’élaboration d’un gouvernement original. Comme les conquêtes avaient composé une vaste mosaïque de populations, de cultures et d’intérêts, la concorde posait un grand défi. Pour y répondre, Charlemagne et Louis le Pieux ont fait des communications leur premier outil politique. Leur inventivité et leur efficience furent appréciables, mais elles n’ont pas suffi à leur gagner toutes les adhésions : la discorde s’est installée là où l’empereur ne parvenait pas à maintenir une relation forte avec les élites régionales. Les distances et les modalités des communications déterminaient la nature de leurs échanges, donc leurs limites et, de ce fait, le destin de l’Empire carolingien. L’enquête aborde un vaste éventail documentaire : actes, capitulaires, correspondances, monnaies... Elle s’intéresse particulièrement aux relations du pouvoir impérial avec les élites du sud-ouest de l’empire. Ses résultats dépendent d’un étayage complexe : dispositifs de représentation du pouvoir, conséquences politico-sociales des distances et des vitesses de déplacement, anthropologie de la rencontre et des relations à distance, étude des réseaux. Au-delà des considérations propres à l’histoire des VIIIe-IXe siècles, elle démontre l’intérêt d’aborder les réalités politiques prémodernes du point de vue des défis que présentent les distances géographiques, les rencontres et les communications.
Resumo:
Le but de cette étude est d’adopter une intervention systémique visant à faciliter la communication entre les infirmières1 et les familles2 dans un contexte de soins intensifs (SI) en traumatologie. Cette recherche prend en compte la réalité et les besoins du milieu à l’étude grâce au devis participatif retenu. Le cadre de référence est composé de l’approche systémique familiale de Wright et Leahey (2005) ainsi que de la théorie du caring de Jean Watson (1979). La collecte des données a été inspirée du parcours de recherche en spirale de Lehoux, Levy et Rodrigue (1995). Cinq entrevues ont été menées auprès de membres de familles ainsi que trois groupes de discussion (focus groups) auprès d’infirmières. L’analyse des données a été effectuée selon le Modèle de Huberman et Miles (2003) qui préconise une démarche analytique continue et interactive. Les résultats obtenus révèlent un changement de pratique selon dix interventions systémiques infirmières spécifiques permettant de faciliter la communication avec les familles aux soins intensifs en traumatologie et soulignent l’importance d’agir sur le plan du contexte, de la relation et du contenu liés au processus de communication. De plus, ils permettent de démontrer un réel changement de pratique dans le milieu retenu pour l’étude.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.