303 resultados para réseau première ligne
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
Cette thèse a été réalisée, entre autres, grâce à une subvention reçue du Fonds de recherche du Québec – Société et culture et de son partenaire le ministère de l’Éducation, du Loisir et du Sport (MELS) Les analyses contenues dans cette thèse ont été réalisées au Centre interuniversitaire québécois de statistiques sociales (CIQSS), membre du Réseau canadien des centres de données de recherche (RCCDR). Les activités du CIQSS sont rendues possibles grâce à l’appui financier du CRSHC, des IRSC, de la FCI, de Statistique Canada, du FRQSC ainsi que de l’ensemble des universités québécoises qui participent à leur financement. Les idées exprimées dans ce texte sont celles des auteurs et non celles des partenaires financiers.
Resumo:
Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.
Resumo:
L’objectif de cette thèse est double. Premièrement, il s’agira de comprendre l’impact que l’internet peut avoir sur la démocratie, c’est-à-dire de montrer ce que cette technologie change à la démocratie, en développant un cadre conceptuel précis et en m’appuyant sur un corpus empirique important. Il s’agira ensuite de développer un projet normatif, afin de montrer ce qu’il est nécessaire de faire afin de garantir que l’impact de l’internet sur la démocratie sera positif. Pour mener à bien ces objectifs, il me faudra d’abord disposer d’une conception claire de la démocratie. C’est pourquoi je proposerai dans une première partie de la comprendre à partir du concept d’autonomie politique dont je proposerai une analyse conceptuelle au premier chapitre. J’analyserai ensuite deux éléments centraux de ce concept, à savoir la vie privée et l’espace public. Je proposerai dans une deuxième partie une analyse à la fois précise et empiriquement fondée de l’impact de l’internet sur ces deux éléments, afin de présenter un argument qui ne sera pas simplement a priori ou spéculatif. Les conclusions que je présenterai ne vaudront, cependant, que pour l’internet tel qu’il est aujourd’hui, car il est certain qu’il peut évoluer. Il est alors tout à fait possible que ses propriétés cessent de permettre l’augmentation de l’autonomie politique que je décris au cours de ma deuxième partie. Il est donc important de mener à bien une réflexion normative afin d’identifier dans quelle mesure il pourrait être nécessaire de faire quelque chose afin de garantir l’impact positif de l’internet sur l’autonomie politique. Je montrerai donc dans une dernière partie qu’il est nécessaire d’assurer à l’internet une architecture non-discriminante, mais qu’il n’est pas nécessaire de protéger outre mesure la générativité de son écosystème. Je conclurai en montrant l’importance d’offrir à tous des éléments d’une littératie numérique, si l’on souhaite que tous puissent bénéficier des opportunités offertes par le réseau des réseaux.
Resumo:
Le couple est le commencement de la famille, la cellule fondamentale de la société et un des principaux lieux de solidarité pour les individus. Or, depuis quelques années l’irruption d’internet a permis l’instauration de rapports sociaux nouveaux que l’on peut identifier dans les façons de rencontrer quelqu’un ou de tomber amoureux. L’apparition des sites de rencontre a notamment permis à des individus de pouvoir faire la rencontre amoureuse de l’autre sur un site dédié et à convenance. Cette étude vise à une meilleure compréhension du phénomène social qu’est la construction de la conjugalité à partir de la rencontre sur des sites dédiés sur internet et partant des représentations des participants interrogés. Notre but était également de démontrer comme l’a souligné Marie-Chantal Doucet (2009) que l’action de l’individu sur les sites de rencontre en ligne n’est pas le fait de déterminations mais qu’il bénéficie plutôt d’une marge de jeu, lui permettant d’interpréter les codes et de donner un sens à ses actions et aux actions des autres car l’individu sur les sites de rencontre en ligne joue un personnage. Pour mener à bien cette étude, nous avons adopté un cadre théorique qui s’inscrit dans la perspective de l’interactionnisme symbolique en nous appuyant sur une approche par théorisation ancrée. Il ressort entre autre de l’enquête qualitative que nous avons menée que la construction conjugale est surtout le fruit de la rencontre en face à face car la rencontre en ligne proprement dite est marquée par le stigma et la marchandisation des corps que proposent les sites de rencontre ne sont pas propice au sentiment d’intimité favorable au développement du lien conjugal.
Resumo:
L'adaptation à l'environnement est essentielle à la survie cellulaire et des organismes en général. La capacité d'adaptation aux variations en oxygène repose sur des mécanismes de détection de l'hypoxie et une capacité à répondre en amorçant un programme d'angiogenèse. Bien que la contribution du facteur induit par l'hypoxie (HIF) est bien définie dans l'induction d'une telle réponse, d'autres mécanismes sont susceptibles d'être impliqués. Dans cette optique, les études démontrant l'influence du métabolisme énergétique sur le développement vasculaire sont de plus en plus nombreuses. L'un de ces composés, le succinate, a récemment été démontré comme étant le ligand du GPR91, un récepteur couplé aux protéines G. Parmi les différents rôles attribués à ce récepteur, notre laboratoire s'intéressa aux rôles du GPR91 dans la revascularisation observée suite à des situations d'hypoxie dont ceux affectant la rétine. Il existe cependant d'autres conditions pour lesquelles une revascularisation serait bénéfique notamment suite à un stress hypoxique-ischémique cérébral. Nos travaux ont pour objectifs de mieux comprendre le rôle et le fonctionnement de ce récepteur durant le développement et dans le cadre de pathologies affectant la formation de vaisseaux sanguins. Dans un premier temps, nous avons déterminé le rôle du GPR91 dans la guérison suite à un stress hypoxique-ischémique cérébral chez le nouveau-né. Nous montrons que ce récepteur est exprimé dans le cerveau et en utilisant des souris n'exprimant pas le GPR91, nous démontrons que dans un modèle d'hypoxie-ischémie cérébrale néonatal l'angiogenèse prenant place au cours de la phase de guérison dépend largement du récepteur. L'injection intracérébrale de succinate induit également l'expression de nombreux facteurs proangiogéniques et les résultats suggèrent que le GPR91 contrôle la production de ces facteurs. De plus, l'injection de ce métabolite avant le modèle d'hypoxie-ischémie réduit substantiellement la taille de l'infarctus. In vitro, des essaies de transcription génique démontrent qu'à la fois les neurones et les astrocytes répondent au succinate en induisant l'expression de facteurs bénéfiques à la revascularisation. En considérant le rôle physiologique important du GPR91, une seconde étude a été entreprise afin de comprendre les déterminants moléculaires régissant son activité. Bien que la localisation subcellulaire des RCPG ait traditionnellement été considérée comme étant la membrane plasmique, un nombre de publications indique la présence de ces récepteurs à l'intérieur de la cellule. En effet, tel qu'observé par microscopie confocale, le récepteur colocalise avec plusieurs marqueurs du réticulum endoplasmique, que celui-ci soit exprimé de façon endogène ou transfecté transitoirement. De plus, l’activation des gènes par stimulation avec le succinate est fortement affectée en présence d'inhibiteur du transport d'acides organiques. Nous montrons que le profil de facteurs angiogéniques est influencé selon la localisation ce qui affecte directement l'organisation du réseau tubulaire ex vivo. Finalement, nous avons identifié une région conservée du GPR91 qui agit de signal de rétention. De plus, nous avons découvert l'effet de l'hypoxie sur la localisation. Ces travaux confirment le rôle de régulateur maître de l'angiogenèse du GPR91 lors d'accumulation de succinate en condition hypoxique et démontrent pour la première fois l'existence, et l'importance, d'un récepteur intracellulaire activé par un intermédiaire du métabolisme. Ces données pavent donc la voie à une nouvelle avenue de traitement ciblant GPR91 dans des pathologies hypoxiques ischémiques cérébrales et soulèvent l'importance de tenir compte de la localisation subcellulaire de la cible dans le processus de découverte du médicament.
Resumo:
Au cours des trois dernières décennies, le travail quotidien des cadres gestionnaires infirmiers de premier niveau (CGIPN) a subi de profondes transformations quant aux rôles qu’ils occupent et aux responsabilités qui leur incombent dans les divers établissements de santé. Ces CGIPN vivent et subissent de la pression au regard de leur charge de travail, faisant en sorte qu’ils perçoivent avoir peu de temps pour réaliser adéquatement leur travail en gestion, et que plusieurs infirmières de la relève qui souhaitent faire carrière en gestion se questionnent sur la possibilité d’œuvrer dans ce domaine de la pratique. Peu d’études portent sur l’état de la qualité de vie au travail (QVT) chez ces professionnels. Divisé en trois volets, le projet de recherche mixte séquentielle exploratoire a pour objectif général d’explorer la QVT chez les CGIPN et les facteurs qui l’influencent dans les divers établissements de santé québécois. Les objectifs spécifiques visent à : 1) décrire et comprendre ce que signifie la QVT auprès des 14 CGIPN œuvrant en Centre hospitalier affilié (CHA) à l’Université, 2) décrire et comprendre ce que signifie l’absence d’une QVT auprès des CGIPN en CHA, 3) développer et valider un nouvel instrument de mesure des facteurs favorables et défavorables pouvant influer sur la QVT à partir des données qualitatives auprès de CGIPN (n= 11) œuvrant en Centre de santé et des services sociaux et de CGIPN (n= 11) en Centre hospitalier universitaire, 4) identifier et mesurer les facteurs qui influencent la QVT des CGIPN (n= 291) travaillant dans divers établissements publics de santé et 5) déterminer si les caractéristiques sociodémographiques influencent le choix des facteurs de la QVT. Inspiré de la philosophie du Human caring de Watson comme perspective disciplinaire, le premier volet qualitatif fait appel à une méthode phénoménologique descriptive husserlienne. Pour ce faire, deux séries d’entretiens semi-dirigés à l’aide d’un guide d’entrevue visent à répondre aux deux premiers objectifs. Le second volet cible l’élaboration et la validation d’un instrument de mesure permettant de répondre au troisième objectif de la recherche et le dernier volet, de type quantitatif corrélationnel, s’applique à répondre aux deux derniers objectifs. Dans la première phase, l’analyse visuelle des données qualitatives (verbatim) permet l’émergence des résultats qualitatifs, soit de cinq eidos-thèmes favorables exprimés par les participants et décrits par ordre d’importance : 1) l’actualisation du leadership et des habiletés politiques pour l’amélioration de la qualité des soins infirmiers, 2) les éléments contextuels propices à l’humanisation organisationnelle, 3) le soutien organisationnel favorisant l’épanouissement socioprofessionnel et personnel, 4) l’organisation apprenante favorisant le développement des compétences en gestion des soins infirmiers et 5) l’accompagnement personnalisé répondant aux besoins spécifiques des novices en gestion des soins infirmiers. L’essence de la QVT pour les CGIPN se définit par l’émancipation socioprofessionnelle du cadre gestionnaire infirmier de premier niveau dans sa pratique clinico-administrative au sein d’une organisation humaniste. De plus, trois eidos-thèmes défavorables se dégagent des analyses qualitatives. Les résultats, décrits par ordre d’importance, sont : 1) la déshumanisation organisationnelle, 2) les conditions défavorables à la pratique en gestion des soins infirmiers et 3) l’accompagnement insuffisant des gestionnaires infirmiers novices. L’essence de l’absence d’une QVT pour les CGIPN se présente comme la dysharmonie au travail du cadre gestionnaire infirmier de premier niveau à l’intérieur d’une structure organisationnelle déshumanisante mettant en péril sa pratique clinico-administrative. Par la suite, une mise en relation des deux essences du phénomène a permis de faire émerger la signification universelle de l’expérience de la QVT et l’absence de celle-ci pour des CGIPN œuvrant en CHA comme étant : une dialectique en administration des services infirmiers dans laquelle se vit des pratiques humanisantes permettant l’atteinte d’un idéal de QVT, en coexistence avec des pratiques déshumanisantes conduisant à l’absence de QVT. Afin de respecter les postulats des méthodes quantitatives, les huit eidos-thèmes qui émergent de la première phase qualitative se transforment en facteurs favorables (FF) et défavorables (FD) à la QVT pour la réalisation des deuxième et troisième phases de la recherche. Dans la seconde phase, le construit théorique qui provient des huit eidos-thèmes et 23 thèmes permet de développer un nouvel instrument de mesure qui s’avère unique à cette population à l’étude. L’analyse psychométrique de l’instrument de mesure (questionnaire auto-administré en mode électronique) permet l’obtention d’un score global du coefficient alpha de Cronbach (α) de 0,93, ce qui est jugé excellent. Dans la troisième et dernière phase, les analyses statistiques des données (logiciel SPSS, version 22 pour Windows 7, 2013) issues de l’enquête quantitative provinciale en ligne (Web) mettent en évidence des résultats probants. Les résultats du questionnaire en ligne avec une échelle ordinale à cinq niveaux révèlent un score global du coefficient alpha de Cronbach à 0,95. De plus, les résultats quantitatifs suggèrent que les facteurs favorables (FF) à la QVT ont des scores moyens de 3,99 (FF1), 3,97 (FF2), 3,96 (FF3), 3,72 (FF4) et 3,53 (FF5) et les trois facteurs défavorables (FD) à la QVT ont des scores moyens de 3,91(FD1), 3,78 (FD2) et 3,56 (FD3). Ces facteurs correspondent aux eidos-thèmes favorables et défavorables de la QVT du volet qualitatif phénoménologique. Les résultats quantitatifs révèlent quelques relations significatives des caractéristiques sociodémographiques (âge et années d’expérience) sur le choix des facteurs qui influencent le plus fortement la QVT. En conclusion, le fait de pouvoir mieux décrire et comprendre la signification de la QVT ainsi que son absence et de pouvoir identifier les facteurs qui sont les plus susceptibles de l’influencer permet de formuler des recommandations pour les quatre domaines de la pratique infirmière. Des pistes d’avenues sont formulées pour maintenir la relève infirmière à des postes de CGIPN au sein des organisations de santé en lui assurant des moyens pour optimiser humainement sa QVT.
Resumo:
TRAVAIL DIRIGÉ PRÉSENTÉ À LA FACULTÉ DES ARTS ET SCIENCES EN VUE DE L’OBTENTION DU GRADE DE MAÎTRE ÈS SCIENCES (M.SC.) EN CRIMINOLOGIE OPTION CRIMINALISTIQUE ET INFORMATION
Resumo:
L’amblyopie est un trouble développemental de la vision binoculaire. Elle est typiquement caractérisée par des atteintes de l’acuité visuelle et de la stéréoscopie. Toutefois, de plus en plus d’études indiquent la présence d’atteintes plus étendues telles que les difficultés d’attention visuelle ou de lecture. L’amblyopie est généralement expliquée par une suppression interoculaire au niveau cortical, considérée comme chronique ou permanente à l’extérieur de la période développementale. Or, un nombre croissant d’études suggèrent que des interactions binoculaires normales seraient présentes chez les amblyopes adultes. Dans une première étude, nous avons tenté d’identifier un marqueur électrophysiologique de la vision binoculaire. Nous avons enregistré des potentiels évoqués visuels chez des observateurs normaux à qui l’on a induit une dysfonction binoculaire. Les interactions binoculaires étaient caractérisées à l’aide de patrons (facilitation, moyennage et suppression) en comparant les réponses monoculaires et binoculaires. De plus, ces interactions étaient quantifiées à partir d’index d’intégration continus en soustrayant la somme des réponses monoculaires de la réponse binoculaire. Les résultats indiquaient que les patrons d’interaction n’étaient pas optimaux pour estimer les performances stéréoscopiques. Ces dernières étaient, en revanche, mieux expliquées par notre index d’intégration binoculaire. Ainsi, cette étude suggère que l’électrophysiologie est un bon prédicteur de la vision binoculaire. Dans une deuxième étude, nous avons examiné les corrélats neuronaux et comportementaux de la suppression interoculaire chez des amblyopes adultes et des observateurs normaux. Des potentiels évoqués visuels stationnaires ont été enregistrés en utilisant un paradigme de suppression par flash. La suppression était modulée par un changement de contraste du stimulus flash (10, 20, 30, ou 100%), ou le suppresseur, qui était présenté soit dans l’œil dominant ou non-dominant (ou amblyope). Sur le plan comportemental, la suppression interoculaire était observée indépendamment de l’œil stimulé par le flash chez les contrôles. Au contraire, chez les amblyopes, la suppression était asymétrique (c’est-à-dire supérieure lorsqu’elle provenait de l’œil dominant), ce qui suggérait une suppression chronique. De manière intéressante, l’œil amblyope a supprimé l’œil dominant à haut niveau de contraste. Sur le plan électrophysiologique, l’effet de suppression interoculaire observé à la région occipitale était équivalent dans chaque groupe. Toutefois, les réponses électrophysiologiques à la région frontale chez les amblyopes n’étaient pas modulées comme celles des contrôles; la suppression de l’œil amblyope était manifeste même à bas contraste. Nous résultats supportent ainsi l’existence d’interaction binoculaire fonctionnelle chez les amblyopes adultes ainsi que l’implication d’un réseau cortical étendu dans la suppression interoculaire. En somme, l’amblyopie est une condition complexe dont les atteintes corticales et les déficits fonctionnels semblent globaux. L’amblyopie ne doit plus être considérée comme limitée à une dysfonction de l’aire visuelle primaire. La suppression interoculaire semble un point central de cette problématique, mais encore beaucoup d’études seront nécessaires afin de déterminer l’ensemble des mécanismes impliqués dans celle-ci.
Resumo:
Lorsque la guerre européenne éclate en août 1914, les États-Unis adoptent officiellement une position de stricte neutralité. Le pays n’en est pas moins tiraillé de l’intérieur pour autant. Au cours des quelque deux années et demi de neutralité, plusieurs moments forts et thématiques ont redéfini le rapport des États-Unis à la guerre européenne, jusqu’à justifier l’entrée en guerre en avril 1917, et propulsant par le fait même le pays à l’avant de la scène internationale. Cependant, les analyses relatives à la couverture de la guerre par la presse américaine pendant cette période sont pratiquement inexistantes. En se penchant sur les articles en une et les éditoriaux du quotidien The New York Times, il est possible de suivre l’évolution des thématiques liées au conflit et de comparer certains évènements que l’historiographie a ciblés comme étant à l’origine de l’entrée en guerre. Le but est de voir comment le NYT présente le conflit européen, de quelles façons le journal cherche à influencer son lectorat et, surtout, comment il « voit » peu à peu le conflit s’immiscer dans la vie des Américains. Certains thèmes comme le mouvement du preparedness et le traitement de la communauté germano-américaine nous renseignent sur les changements de perception qui s’opèrent dans la couverture du NYT. L’historiographie classique présente le torpillage du paquebot Lusitania le 7 mai 1915 comme le point à l’origine de la rupture officieuse de la neutralité américaine, au profit d’un sentiment proallié. Notre analyse tend à nuancer fortement cette affirmation. D’autres moments-clés et thématiques présentées dans le NYT ont eu plus d’impact sur la neutralité américaine. Nos résultats de recherche questionnent en fait la nature et la temporalité de la « neutralité » américaine. Est-ce réellement, comme le souhaitait au départ le président américain Wilson une « neutralité bienveillante », ou de la poudre aux yeux?
Resumo:
La recherche vise à élaborer la condition tragique qui émane de la figure de l'enfant au cinéma – à travers ses traumas, ses blessures, voire sa destruction et sa perte – devant laquelle le spectateur adulte éprouve un certain malaise. Nous pouvons voir au cinéma des enfants aux prises avec des conditions de vie traumatisantes, voire inhumaines. Que ce soit les enfants abandonnés ou orphelins, les enfants violés, les enfants maltraités, les enfants victimes de guerre – incluant la dualité paradoxale qu’instaure l'enfant-soldat, de Ivan (« L’enfance d’Ivan », Tarkovski, 1962) à Komona (« Rebelle », Kim Nguyen, 2012) – ou les enfants face à la mort, diverses situations peuvent contribuer à inscrire l'enfance dans le registre du tragique, par la destruction ou la perte de l'enfance. L'enfance détruite porte en elle une blessure (trauma) – qu'elle soit physique ou psychique – qui renvoie au « manque », ou à la fragilité humaine que traduit l'image de l'enfant dit « sans secours ». Quand l’enfant doit faire face à une situation tragique où il est sans défense et confronté à son propre anéantissement, sa figure devient pour nous traumatique. Nous suggérons que le tragique place l’enfant au cinéma dans un après-coup qui renvoie à un traumatisme premier fondamental, prototype de toute situation traumatique. Pour le psychanalyste Sigmund Freud, ce serait un traumatisme lié à la détresse infantile – le « Hilflosigkeit » – qui correspond à la première angoisse vécue par le nourrisson dû à son impuissance (« Inhibition, symptôme et angoisse », [1926] 1951, Paris : PUF). Dans cette lignée, certains psychanalystes (comme Otto Rank ou Jean-Marie Delassus) préciseraient que le traumatisme s'installe dès la naissance, qui marque de manière universelle le premier sentiment de perte et d'angoisse suite à l'éjection dans un monde étranger et d'abord impossible, ce qui correspond à une dislocation première (suivant le sens qu’en propose Benoit Goetz dans « La dislocation » (2002, Paris : Éditions de la Passion)). L'enfant au cinéma, qui traverse des épreuves qui nous sont difficiles à concevoir, nous regarde et pointe en nous nos propres faiblesses, et cela interagit avec nos propres traumatismes. Quelques exemples filmiques viendront soutenir la recherche, avec principalement l’analyse d’un film exemplaire, « Les tortues volent aussi » de Bahman Ghobadi (2004).
Resumo:
Ce mémoire porte sur la question de l’insertion sur le marché du travail, des Haïtiens arrivés au Québec après le tremblement de terre désastreux qui frappa Haïti le 12 janvier 2010. Notre objectif est d'analyser la trajectoire professionnelle de ce groupe et de déterminer les difficultés rencontrées au cours de leur projet d'insertion en emploi. Notre projet s’inscrit dans le cadre de l'approche plurielle développée par Victor Piché qui propose de porter attention à la fois aux facteurs macro-structurels, micro-individuels et à la force du réseau, dans l'étude du phénomène migratoire et du processus d'intégration de la personne immigrante au sein du pays d'accueil. Dans le cadre de ce mémoire, nous avons choisi de réaliser des entretiens avec douze immigrants haïtiens. Cela nous a permis de recueillir des informations de première main sur les différents éléments qui les ont amenés à la décision d'immigrer au Québec et sur leurs parcours sur le marché du travail dans le pays d’accueil. Il ressort des entretiens que l'évaluation que font les répondants du bon déroulement de leur intégration socio-professionnelle dépend particulièrement de facteurs micro-individuels tels que : la maitrise des langues officielles, la connaissance des stratégies favorisant l'insertion en emploi, la connaissance des pratiques locales et du fonctionnement du marché du travail et le statut d'immigration. Très peu des immigrants haïtiens que nous avons rencontrés ont abordé la question de la discrimination, notamment parce qu’ils semblent avoir intégré le discours sur la compétition et l'individualisation et ramènent à des facteurs individuels les succès et les échecs qu'ils ont connus lors de la recherche d'emploi. En d’autres mots, les personnes interrogées semblent avoir intériorisé le discours sur « la lutte des places » les enjoignant à ne pas se contenter « d'être bon », mais d’être « le/la meilleur(e) » pour pouvoir concurrencer les "Québécois de souche" sur le marché de l'emploi.
Resumo:
La fonction de contrôle d’absence de danger ("safety check") activée par Facebook lors des attentats terroristes à Paris, nous a permis d’accéder à un ultérieur niveau d’intimité, nous entrelaçant encore une fois de plus au réseau dont nous faisons partie et qui fait autant partie de nous. Le rôle assumé par la plateforme de Zuckerberg pendant cette nuit de terreur pose autant de questions philosophiques sur la relation entre individuel et collectif que de problèmes politiques sur l’institutionnalisation d’une entreprise privée, forte d’une infrastructure transversale aux limites de l’appartenance nationale de tout un chacun, et qui aujourd’hui, hors du web, n’a pas de compétiteurs dans une capacité de plus en plus cruciale : celle de nous saisir en tant qu'éléments d’un réseau.
Resumo:
Aujourd'hui, Facebook est vraiment ennuyeux. Il n'y a rien, rien de rien, rien du tout. Une amie voyage seule en Écosse et publie les photos de ses repas : hier elle a pris du bacon au petit-déjeuner, aujourd'hui aussi. Un ami se marie après dix ans de fiançailles, les invités le congratulent en écrivant presque tous la même chose : félicitations, vous êtes merveilleux ! Il y a l'ami qui s'inquiète pour son chien malade, celui qui a acheté une nouvelle voiture et celui qui craint de rater son examen à la Fac. Il n'y a que cela aujourd'hui? Ce n'est que ça la vie? Non, pas seulement ça : un ami dit aussi qu'il fait chaud et qu'il n'a pas bien dormi cette nuit, un autre a beaucoup bu hier soir et a mal à la tête, un autre encore réfléchit sur le temps qui passe en regardant une photo de l'école maternelle. Il y a aussi celui qui dédie une chanson à sa copine et celui qui adhère bien ému à la commémoration pour les soldats morts en Afghanistan. C'est pratiquement tout pour aujourd'hui, ça suffit. [...]