70 resultados para Psychic suffer
Resumo:
L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
Un nombre important d’individus subit des conséquences négatives en lien avec une appartenance à un groupe peu adapté socialement (p. ex., membre d’un gang de rue). Certains parviennent à mettre fin à cette identification, alors que d'autres n’y arrivent pas. Nous proposons que les individus qui réussissent le peuvent grâce à l’intégration d’une nouvelle identité, davantage adaptée, et conflictuelle avec leur identité d’origine. Dans ce mémoire, nous mettons de l’avant l’argument que lors de conflit identitaire majeur entre deux identités, le processus d’intégration identitaire est soustractif. Cinq sous hypothèses ont été testées lors de deux études effectuées avec des participants vivant un conflit identitaire majeur. Un niveau élevé de conflit identitaire prédit un faible niveau d’identification envers l’identité au statut le moins élevé (hypothèse 1). Un lien prédictif est postulé entre le statut perçu d’une identité et le niveau d’identification à cette identité (hypothèse 2). Un niveau d’intégration identitaire élevé de la nouvelle identité prédit un faible niveau d’identification envers l’identité au statut le moins élevé (hypothèse 3). Un niveau d’intégration identitaire élevé de la nouvelle identité prédit un faible niveau de déviance (étude 1) et d’alcoolisme (étude 2) (hypothèse 4). Finalement, un niveau d’intégration identitaire élevé de la nouvelle identité prédit un niveau de bien-être élevé (hypothèse 5). Les résultats de la première étude (N=42), effectuée sur un échantillon de jeunes filles placées en Centre Jeunesse, vont dans le sens des hypothèses 2 et 3. Les résultats de la deuxième étude (N=28), effectuée sur un échantillon d’individus membres des Alcooliques Anonymes, vont dans le sens des hypothèses 2 et 5.
Resumo:
Les topoisomérases I (topA) et III (topB) sont les deux topoisomérases (topos) de type IA d’Escherichia coli. La fonction principale de la topo I est la relaxation de l’excès de surenroulement négatif, tandis que peu d’information est disponible sur le rôle de la topo III. Les cellules pour lesquelles les deux topoisomérases de type IA sont manquantes souffrent d’une croissance difficile ainsi que de défauts de ségrégation sévères. Nous démontrons que ces problèmes sont majoritairement attribuables à des mutations dans la gyrase qui empêchent l’accumulation d’excès de surenroulement négatif chez les mutants sans topA. L’augmentation de l’activité de la gyrase réalisée par le remplacement de l’allèle gyrB(Ts) par le gène de type sauvage ou par l’exposition des souches gyrB(Ts) à une température permissive, permet la correction significative de la croissance et de la ségrégation des cellules topos de type IA. Nous démontrons également que les mutants topB sont hypersensibles à l’inhibition de la gyrase par la novobiocine. La réplication non-régulée en l’absence de topA et de rnhA (RNase HI) augmente la nécessité de l’activité de la topoisomérase III. De plus, en l’absence de topA et de rnhA, la surproduction de la topoisomérase III permet de réduire la dégradation importante d’ADN qui est observée en l’absence de recA (RecA). Nous proposons un rôle pour la topoisomérase III dans la ségrégation des chromosomes lorsque l’activité de la gyrase n’est pas optimale, par la réduction des collisions fourches de réplication s’observant particulièrement en l’absence de la topo I et de la RNase HI.
Resumo:
Le trouble du déficit de l’attention/hyperactivité (TDA/H) est le désordre du comportement le plus commun chez les enfants. Les études suggèrent qu'un pourcentage élevé d'enfants atteints de TDA/H souffre de problèmes de sommeil et de somnolence diurne. Le mécanisme sous-jacent à ces difficultés demeure inconnu. Plusieurs études ont suggéré que les fuseaux de sommeil jouent un rôle dans les mécanismes de protection du sommeil. L'objectif de cette étude est de comparer les fuseaux lents (11-13 Hz) et rapides (14-15 Hz) chez des enfants atteints du TDA/H et des sujets contrôles. Nous prévoyons que comparativement aux enfants contrôles, les enfants atteints du TDA/H montreront une plus faible densité des fuseaux lents et rapides, et auront des fuseaux plus courts (sec), moins amples (uV) et plus rapides (cycle/sec). Enfin, nous prévoyons que ces effets seront plus prononcés dans les dérivations cérébrales antérieures que dans les dérivations plus postérieures du cerveau. Les enregistrements polysomnographiques (PSG) du sommeil de nuit ont été menés chez 18 enfants diagnostiqués avec le TDA/H et chez 26 sujets témoins âgés entre 7 et 11 ans. Un algorithme automatique a permis de détecter les fuseaux lents et rapides sur les dérivations frontales, centrales, pariétales et occipitales. Les résultats ont montré que, les caractéristiques PSG du sommeil ne différaient pas significativement entre les deux groupes. On ne note aucune différence significative entre les groupes sur nombre/densité des fuseaux lents et rapides ainsi que sur leurs caractéristiques respectives. Cette étude suggère que les mécanismes de synchronisation du l'EEG en sommeil lent, tel que mesuré par la densité et les caractéristiques des fuseaux lents et rapides en sommeil lent ne différent pas chez les enfants atteints du TDA/H.
Resumo:
Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élevé. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.
Resumo:
La guérison des plaies cutanées appendiculaires chez le cheval, à la différence de celle des plaies corporelles, se complique régulièrement. Un retard de cicatrisation s’y observe et un tissu de granulation exubérant tend à s’y développer, le tout menant à une cicatrice pathologique hypertrophiée. La pathogénie exacte du tissu de granulation exubérant chez le cheval demeure inconnue à ce jour. Une hypoxie tissulaire pourrait favoriser son développement tout comme elle semble contribuer au développement de cicatrices cutanées pathologiques similaires observées chez l’Homme. L’objectif de cette étude était d’évaluer la perfusion vasculaire et la disponibilité locale en oxygène de plaies cutanées appendiculaires et corporelles en cours de cicatrisation normale et pathologique chez le cheval, à l’aide de la thermographie infrarouge et de la spectroscopie par réflectance dans le proche infrarouge. Six juments âgées de 3 à 4 ans ont été utilisées. Trois plaies cutanées ont été créées à l’aspect dorso-latéral du canon des membres thoraciques (plaies appendiculaires), et sur la paroi costale de l’un des hémithorax (plaies corporelles). Chez chaque jument, un canon a été aléatoirement bandé dans le but d’induire la formation de tissu de granulation exubérant dans les plaies s’y trouvant, tel que rapporté. La perfusion vasculaire et la disponibilité locale en oxygène ont été évaluées séquentiellement par thermographie infrarouge et spectroscopie par réflectance dans le proche infrarouge pour chaque plaie de chaque site (thorax; membre bandé; membre non bandé) au cours du processus de cicatrisation cutanée. Un modèle linéaire à doubles mesures répétées associé à une correction séquentielle de Bonferroni a révélé des différences significatives de perfusion vasculaire et de disponibilité locale en oxygène entre les plaies appendiculaires et corporelles. Ainsi la perfusion vasculaire et la disponibilité locale en oxygène étaient significativement plus élevées dans les plaies corporelles (P<0.05) et la perfusion vasculaire était significativement plus élevée dans les plaies appendiculaires non bandées que dans celles bandées (P<0.05). Nous avons récemment rapporté une plus grande occlusion de la micro-vascularisation au niveau des plaies appendiculaires chez le cheval. Nous rapportons maintenant que la perfusion vasculaire et la disponibilité locale en oxygène sont significativement inférieures dans les plaies appendiculaires, en particulier lorsqu’un tissu de granulation exubérant s’y développe. Compilés, ces résultats sous-tendent l’hypothèse que les plaies appendiculaires souffrent d’une altération de la perfusion vasculaire à l’origine possible d’une hypoxie tissulaire qui pourrait favoriser une cicatrisation cutanée anormale, telle la formation d’un tissu de granulation exubérant.
Resumo:
Le développement du système nerveux central (SNC) chez les vertébrés est un processus d'une extrême complexité qui nécessite une orchestration moléculaire très précise. Certains gènes exprimés très tôt lors du développement embryonnaire sont d'une importance capitale pour la formation du SNC. Parmi ces gènes, on retrouve le facteur de transcription à Lim homéodomaine Lhx2. Les embryons de souris mutants pour Lhx2 (Lhx2-/-) souffre d'une hypoplasie du cortex cérébral, sont anophtalmiques et ont un foie de volume réduit. Ces embryons mutants meurent in utero au jour embryonnaire 16 (e16) dû à une déficience en érythrocytes matures. L'objectif principal de cette thèse est de caractériser le rôle moléculaire de Lhx2 dans le développement des yeux et du cortex cérébral. Lhx2 fait partie des facteurs de transcription à homéodomaine exprimé dans la portion antérieure de la plaque neurale avec Rx, Pax6, Six3. Le développement de l'oeil débute par une évagination bilatérale de cette région. Nous démontrons que l'expression de Lhx2 est cruciale pour les premières étapes de la formation de l'oeil. En effet, en absence de Lhx2, l'expression de Rx, Six3 et Pax6 est retardée dans la plaque neurale antérieure. Au stade de la formation de la vésicule optique, l'absence de Lhx2 empêche l'activation de Six6 (un facteur de transcription également essentiel au développement de l'œil). Nous démontrons que Lhx2 et Pax6 coopèrent en s'associant au promoteur de Six6 afin de promouvoir sa trans-activation. Donc, Lhx2 est un gène essentiel pour la détermination de l'identité rétinienne au niveau de la plaque neurale. Plus tard, il collabore avec Pax6 pour établir l'identité rétinienne définitive et promouvoir la prolifération cellulaire. De plus, Lhx2 est fortement exprimé dans le télencéphale, région qui donnera naissance au cortex cérébral. L'absence de Lhx2 entraîne une diminution de la prolifération des cellules progénitrices neurales dans cette région à e12.5. Nous démontrons qu'en absence de Lhx2, les cellules progénitrices neurales (cellules de glie radiale) se différencient prématurément en cellules progénitrices intermédiaires et en neurones post-mitotiques. Ces phénotypes sont corrélés à une baisse d'activité de la voie Notch. En absence de Lhx2, DNER (un ligand atypique de la voie Notch) est fortement surexprimé dans le télencéphale. De plus, Lhx2 et des co-répresseurs s'associent à la chromatine de la région promotrice de DNER. Nous concluons que Lhx2 permet l'activation de la voie Notch dans le cortex cérébral en développement en inhibant la transcription de DNER, qui est un inhibiteur de la voie Notch dans ce contexte particulier. Lhx2 permet ainsi la maintenance et la prolifération des cellules progénitrices neurales.
Resumo:
C'est avec beaucoup de complexité et d'ambiguïté que les opérations de la paix des Nations Unies se sont déployées sur la scène internationale au cours des dernières décennies. Si le déploiement de ces opérations reflète avant tout la matérialisation de l’un des buts fondamentaux de l’ONU, à savoir : le maintien de la paix et de la sécurité internationale (Article 1(1) de la Charte des Nations Unies), il n'en reste pas moins manifeste que les actions qu’elles entreprennent sur le terrain sont susceptibles de produire des effets préjudiciables pour les tiers. La question que pose le présent mémoire est donc de savoir si, et dans quelle mesure, la responsabilité de l'ONU est régie par le droit international lorsque des tiers subissent des dommages matériels et corporels du fait des troupes des opérations de paix des Nations Unies. Que prévoit le droit international ? Existe-t-il pour les victimes des voies de réparations ? S’interroger sur la responsabilité de l’ONU suppose que l’on tienne compte avant tout de sa personnalité juridique internationale, car l’existence juridique de l’Organisation universelle constitue le postulat primaire sur lequel sera fondée sa responsabilité internationale. L’avis consultatif de la Cour Internationale de Justice du 11 avril 1949 sur la Réparation des dommages subis au service des Nations Unies représente le moment précis de cette personnification de l’ONU sur la scène internationale. D’un point de vue plus substantiel, les contours de la responsabilité onusienne dans le contexte du maintien de la paix se dessineront autour d’un élément central : « le fait internationalement illicite ». Celui-ci comprend deux éléments; d’une part, un élément objectif consistant en un comportement précis (action ou omission)violant une obligation internationale; et, d’autre part, un élément subjectif attribuant à l’Organisation ce manquement au droit international. Cette ossature de la responsabilité onusienne permettra d’appréhender de façon plus précise dans quelle mesure l’Organisation pourrait être tenue responsable de ses actes ou omissions dans le contexte du maintien de la paix. Plus encore, elle nous permet de plaider pour une responsabilité intégrée tenant compte des facteurs endogènes propres à toute situation, mais aussi faisant de l’individu dans le droit international des sujets dont les intérêts sont susceptibles de protection juridique.
Resumo:
Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
Plusieurs études ont démontré que prés de deux tiers des patients subissant une chirurgie cardiaque souffrent de douleur d’intensité modérée à sévère. Ces niveaux de douleur semblent être partiellement expliqués par la présence de barrières individuelles face au soulagement de la douleur. Le savoir acquis sur les cognitions associées à la douleur ne semble pas avoir été traduit dans de nouvelles approches éducatives face à la douleur aiguë. Le but du projet doctoral était 1) de développer une intervention visant à faciliter l’autogestion de la douleur postopératoire après une chirurgie cardiaque et, 2) d’en évaluer l’acceptabilité et la faisabilité, ainsi que le potentiel d’efficacité sur le soulagement de la douleur de patients subissant une chirurgie cardiaque. Le développement de l’iintervention SOULAGE-TAVIE a inclus quatre étapes fondées sur les savoirs clinique, empirique et théorique et inspirées de plusieurs écrits méthodologiques. SOULAGE-TAVIE consiste en une session préopératoire éducative sur la gestion de la douleur post-chirurgie cardiaque d’approximativement 30 minutes sur un ordinateur, dispensée sur mesure en fonction d’un algorithme. Deux renforcements cliniques en personne sont aussi offerts en phase postopératoire. L’évaluation de l’intervention consistait en un essai clinique pilote à répartition aléatoire incluant 60 participants répartis entre le groupe expérimental (GE : SOULAGE-TAVIE) et le groupe contrôle (GC : soins usuels incluant un feuillet d’information). Les données étaient recueillies au moment de l’admission et dans les sept jours postopératoires. SOULAGE-TAVIE a été jugée comme acceptable et faisable. De plus, les participants du GE n’ont pas expérimenté une douleur de plus faible intensité mais ils ont rapporté significativement moins d’interférence de la douleur avec la toux et la respiration profonde, ont démontré moins de barrières face à la gestion de la douleur et ont consommé plus d’opiacés. Cette étude pilote procure des résultats prometteurs sur les bénéfices potentiels de cette nouvelle approche sur mesure utilisant les technologies de l’information et de la communication (TIC). L’autonomisation des personnes est cruciale et complémentaire pour soutenir le soulagement de la douleur dans le contexte actuel de soins.
Resumo:
Dans la présente thèse, nous cherchons à comprendre comment l’image peut éclairer les questions de survivance et de transmission des traces psychiques et culturelles, à travers la notion d’un inconscient tactile. L’image n’est pas seulement simulacre, elle est présence porteuse de la trace psychique, de l’empreinte du réel, présentée à la perception pour en permettre la connaissance. Cette approche de l’image permet de mettre en lumière et d’expérimenter le lien qui existe entre mémoire et sensation, lorsque se dessine l’aptitude de l’image à conserver les traces vives d’une modification plastique imprimée dans la matière et à raviver la charge sensorielle du souvenir. Au fond de l’image, c’est principalement la persistance d’un inconscient, dans sa dimension tactile, que nous explorons. L’étude de ce médium capable d’actualiser l’inconscient tactile devient aussi une occasion, un prétexte, pour articuler une compréhension du point de contact où l’individu se relie à ses semblables et où il entre dans la vie de relation. Nous examinons donc comment l’image occupe une fonction carrefour entre le phénomène de la représentation et celui de la présentation, puis comment le mouvement de l’image vers la matière brute du souvenir fait d’elle un vecteur de plasticité psychique, de remaniement des traces et de créativité. Par ailleurs, nous suggérons que l’appareil perceptuel de l’homme, qui le rend capable d’être ému et sensible à une image artistique, de se laisser toucher par la présence tangible d’une œuvre, est le même qui permet que l’homme s’identifie à son semblable et éprouve de l’empathie à son égard. En ce sens, un parallèle est tracé entre le travail de l’image et le travail de culture. La façon dont certaines formes d’art contemporain s’appliquent à jouer avec les modalités du sensible est cependant aussi soumise à des limites qui sont inhérentes à la matière, comme nous le démontrons dans une réflexion sur les avatars d’une certaine postmodernité.
Resumo:
La présente étude s’est appuyée sur le modèle transactionnel de stress de Lazarus dans le but de s’intéresser aux mauvais impacts de la cyberintimidation sur les victimes de tels actes, ainsi qu’aux différents facteurs susceptibles de diminuer ou d’amplifier cet effet,comme les représentations cognitives, les aspects contextuels de la situation, ses propriétés stressantes et les stratégies d’adaptation adoptées par les victimes. Les analyses ont été réalisées à partir d’un échantillon de 844 victimes de cyberintimidation âgées de 14 à 21 ans, dont 700 filles. Ces participants ont été recrutés dans des groupes d’intérêt sur le site de réseautage social Facebook et ils ont complété un questionnaire en ligne portant sur la situation de cyberintimidation qu’ils ont vécue. Les résultats indiquent d’abord que les victimes de sexe féminin seraient prédisposées psychologiquement à être affectées plus négativement par des situations de cyberintimidation, qu’elles auraient tendance à subir des situations de cyberintimidation d’une plus grande gravité intrinsèque que celles des garçons et qu’elles choisiraient des stratégies d’adaptation d’une moins grande efficacité. Il est donc peu étonnant alors qu’elles subissent des conséquences d’une plus grande gravité à la suite de leur situation de cyberintimidation. Il appert également que les situations de cyberintimidation qui comprennent aussi de l’intimidation hors ligne auraient tendance à être d’une plus grande gravité intrinsèque que les situations de cyberintimidation qui se déroulent en ligne seulement. Enfin, les résultats d’analyses de pistes causales semblent montrer que le modèle transactionnel de stress de Lazarus permet d’analyser efficacement comment les situations de cyberintimidation peuvent avoir ou ne pas avoir d’impact sur les jeunes filles qui les subissent. Le plus important facteur de risque de la gravité des conséquences subies est l’adoption de la fuite en résultat de la situation, suivie de l’occurrence d’intimidation hors ligne, de l’adoption du contrôle de soi, de la variété de gestes, du sentiment de responsabilité, de la perception de durée de la situation et de la fréquence de victimisation par intimidation hors ligne dans le passé. La possession d’optimisme et d’estime de soi constituerait toutefois un facteur de protection important contre l’impact de la cyberintimidation sur les filles.
Resumo:
Notre recherche a comme objectif de déterminer si le statut d’immigrant agit comme modérateur de la relation entre l’état de faible revenu et ses déterminants au Canada. Elle est basée sur les données du Recensement de 2006. Notre étude cherche à comprendre s'il existe des différences selon l'appartenance à la population immigrante ou à la population native quant à la probabilité d’être dans un état de faible revenu. Également, nous avons accordé une attention particulière à la région d'origine des immigrants. Nos résultats soutiennent qu'effectivement l'effet des déterminants retenus sur la probabilité de connaître l’état de faible revenu varie entre les immigrants et les natifs ainsi qu’entre les immigrants selon leur région d'origine. C'est surtout chez les immigrants issus des pays non traditionnels que l'écart dans l'effet des variables est le plus marqué et ce, par rapport aux natifs. Les immigrants issus des pays traditionnels se trouvent dans une situation intermédiaire, soit entre les deux groupes. Par exemple, l'éducation a un effet négatif moins important sur la probabilité d’être dans un état de faible revenu chez les immigrants originaires des pays non traditionnels comparativement aux natifs et aux immigrants originaires des pays traditionnels. Par contre, l’appartenance à une minorité visible, le statut d’étudiant et l’intensité de travail produisent un effet plus important sur la probabilité en question chez les immigrants issus des pays non traditionnels comparativement aux autres groupes. La connaissance des langues officielles du Canada produit un effet négatif bien plus important dans le cas des immigrants issus des pays non traditionnels. C’est surtout les immigrants bilingues qui sont les moins exposés à l’état de faible revenu, alors que ceux qui ne parlent aucune langue officielle du Canada sont les plus touchés. Nous retrouvons les mêmes effets chez les immigrants issus des pays traditionnels, mais dans une moindre mesure. En somme, cette étude apporte des nouvelles connaissances dans le domaine et permet d’arriver à une meilleure compréhension de l’état de faible revenu chez les personnes âgées de 15 ans et plus au Canada.