997 resultados para Modèles adaptatifs


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie de Parkinson (PD) a été uniquement considérée pour ses endommagements sur les circuits moteurs dans le cerveau. Il est maintenant considéré comme un trouble multisystèmique, avec aspects multiples non moteurs y compris les dommages intérêts pour les circuits cognitifs. La présence d’un trouble léger de la cognition (TCL) de PD a été liée avec des changements structurels de la matière grise, matière blanche ainsi que des changements fonctionnels du cerveau. En particulier, une activité significativement réduite a été observée dans la boucle corticostriatale ‘cognitive’ chez des patients atteints de PD-TCL vs. PD non-TCL en utilisant IRMf. On sait peu de cours de ces modèles fonctionnels au fil du temps. Dans cette étude, nous présentons un suivi longitudinal de 24 patients de PD non démente qui a subi une enquête neuropsychologique, et ont été séparés en deux groupes - avec et sans TCL (TCL n = 11, non-TCL n = 13) en fonction du niveau 2 des recommandations de la Movement Disrders Society pour le diagnostic de PD-TCL. Ensuite, chaque participant a subi une IRMf en effectuant la tâche de Wisconsin pendant deux sessions, 19 mois d'intervalle. Nos résultats longitudinaux montrent qu'au cours de la planification de période de la tâche, les patients PD non-TCL engageant les ressources normales du cortex mais ils ont activé en plus les zones corticales qui sont liés à la prise de décision tel que cortex médial préfrontal (PFC), lobe pariétal et le PFC supérieure, tandis que les PD-TCL ont échoué pour engager ces zones en temps 2. Le striatum n'était pas engagé pour les deux groupes en temps 1 et pour le groupe TCL en temps 2. En outre, les structures médiales du lobe temporal étaient au fil du temps sous recrutés pour TCL et Non-TCL et étaient positivement corrélés avec les scores de MoCA. Le cortex pariétal, PFC antérieur, PFC supérieure et putamen postérieur étaient négativement corrélés avec les scores de MoCA en fil du temps. Ces résultats révèlent une altération fonctionnelle pour l’axe ganglial-thalamo-corticale au début de PD, ainsi que des niveaux différents de participation corticale pendant une déficience cognitive. Cette différence de recrutement corticale des ressources pourrait refléter longitudinalement des circuits déficients distincts de trouble cognitive légère dans PD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'association entre la relation mère-enfant, la relation enseignant-élève et l'adaptation scolaire (compétences cognitives et sociaux) a reçu ultérieurement une attention considérable dans la littérature scientifique. En dépit de la quantité de recherches effectuées, il subsiste un besoin afin de mieux connaître les processus sous-jacent qui jouent un rôle dans cette relation. L’objectif de la recherche actuelle consiste en l’éclaircissement de l’association entre la relation enseignant-élève, le partenariat mère-enfant, et l’adaptation scolaire. Les différentes hypothèses de recherche étaient : la qualité de la relation enseignant-élève servira de facteur de protection à l’adaptation scolaire (ou à une des composantes) chez les enfants nés de mères adolescentes dont le partenariat mère-enfant est de moindre qualité; la deuxième hypothèse était que le partenariat mère-enfant prédirait la qualité de la relation enseignant-élève, qui prédirait par la suite l’adaptation à la maternelle des enfants nés de mères adolescentes. Finalement, la troisième hypothèse de recherche est que les deux relations (partenariat mère-enfant et relation enseignant-élève) contribuent de façon unique à l’adaptation scolaire. Ainsi, trois modèles d’association possibles ont été testé (modération, médiation et contributions uniques et additives) auprès d’une population à risque, soit les enfants de 5 ans nés d’une mère adolescente. L’échantillon provient d’un projet longitudinal prospectif, la «Mère-Veille,» et est composé de 30 dyades mère-enfant (N=30). La qualité du partenariat mère-enfant, évalué en laboratoire lorsque les enfants avaient 4 ans, a été mesurée à l’aide des récits narratifs co-construits. La qualité de la relation enseignant-élève a été mesurée via l’adaptation française du student teacher relationship scale à 5 ans. Finalement, la mesure de l’adaptation scolaire (comme variable dépendante) comprenant les compétences en numération et les dimensions comportementales (comportements intériorisés, extériorisés et compétences sociales) ont été évalué respectivement par l’entremise de l’adaptation française du number knowledge test et du profil socioaffectif. Une série de régressions linéaires (avec et sans variables contrôles) ont été effectuées pour estimer les trois modèles. La réponse aux hypothèses varie en fonction des différentes composantes de l’adaptation scolaire. Sommes toutes, nos résultats ne suggèrent aucune relation significative ni processus intermédiaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les récents avancements en sciences cognitives, psychologie et neurosciences, ont démontré que les émotions et les processus cognitifs sont intimement reliés. Ce constat a donné lieu à une nouvelle génération de Systèmes Tutoriels Intelligents (STI) dont la logique d’adaptation repose sur une considération de la dimension émotionnelle et affective de l’apprenant. Ces systèmes, connus sous le nom de Systèmes Tutoriels Émotionnellement Intelligents (STEI), cherchent à se doter des facultés des tuteurs humains dans leurs capacités à détecter, comprendre et s’adapter intuitivement en fonction de l’état émotionnel des apprenants. Toutefois, en dépit du nombre important de travaux portant sur la modélisation émotionnelle, les différents résultats empiriques ont démontré que les STEI actuels n’arrivent pas à avoir un impact significatif sur les performances et les réactions émotionnelles des apprenants. Ces limites sont principalement dues à la complexité du concept émotionnel qui rend sa modélisation difficile et son interprétation ambiguë. Dans cette thèse, nous proposons d’augmenter les STEI des indicateurs d’états mentaux d’engagement et de charge mentale de travail. Ces états mentaux ont l’avantage d’englober à la fois une dimension affective et cognitive. Pour cela, nous allons, dans une première partie, présenter une approche de modélisation de ces indicateurs à partir des données de l’activité cérébrale des apprenants. Dans une seconde partie, nous allons intégrer ces modèles dans un STEI capable d’adapter en temps réel le processus d’apprentissage en fonction de ces indicateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études ont démontré l’impact de divers facteurs sur l’espérance de vie, dont les caractéristiques liées à l’environnement dans l’enfance et à l’âge adulte. L’objectif principal de ce mémoire est de déterminer si l’exposition à une épidémie durant la période fœtale ou pendant la première année de vie a un impact sur la survie après 40 ans pour les Québécois nés entre 1885 et 1901. Durant cette période, nous avons relevé des épidémies de variole et de scarlatine, ainsi qu’une pandémie de grippe, la grippe russe. L’influence d’autres facteurs sur l’âge au décès est également étudiée, celle du sexe, de l’année et de la saison de naissance, du lieu de résidence à la naissance (urbain ou rural) et des régions d’habitation dans l’enfance et à l’âge adulte. Les données sur les Canadiens français nés au Québec à la fin du XIXe siècle, soit l’échantillon de 5% des ménages du recensement canadien de 1901 (Sager 2001) recueilli par le Canadian Families Project, jumelées aux dates de décès à partir de l’index des décès de 1926 à 1996 de l’Institut de la statistique du Québec (ISQ) et de la Société de généalogie du Québec (Pilon-Marien et al. 2009; Gagnon et Bohnert 2012) ont été analysées. Plus spécifiquement, nous avons effectué une analyse descriptive de la population étudiée, puis une analyse multivariée à l’aide de modèles de Cox et de modèles de Gompertz. Il en résulte qu’une exposition à une épidémie avant l’âge d’un an augmente significativement le risque de décéder après l’âge de 40 ans. L’exposition pendant la période fœtale a également un effet négatif sur la longévité, toutefois cet effet n’est pas significatif dans les modèles fournissant le meilleur ajustement aux données. Enfin, une naissance pendant une épidémie, donc une exposition in utero et durant la première année de vie n’a pas d’impact négatif significatif sur l’âge au décès pour ceux qui survivent jusqu’à 40 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en sciences infirmières, option expertise-conseil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis la publication de l’Utopia de Thomas More au XVIe siècle, la notion d’utopie s’est vue appropriée par différents domaines d’expression artistique. Bien vite, l’architecture et l’urbanisme en font leur apanage lorsqu’il est question de concilier, en des dessins et des plans, des sociétés idéalisées et leurs représentations. La modernité et les nouvelles technologies modifient les modalités de l’utopie qui tend alors vers l’actualisation de ses modèles en des projets construits. Le XXe siècle est aussi marqué par une abondance de formes et d’idées dont la transmission et le partage sont accélérés par la création de nouveaux médias. Si les années 1960 et 1970 sont le lieu d’émergence de formes expérimentales et de projets utopiques, notamment alimentés par la Révolution tranquille et Mai 68, il est encore difficile au Québec de retracer ces projets en arts et en architecture puisqu’ils sont peu documentés. Par l’étude de la pratique artistique d’Yvette Bisson (1926-), de Robert Roussil (1925-2013) et de Melvin Charney (1935-2012), ce mémoire propose d’observer les différentes tactiques d’appropriation de l’espace auxquelles s’apparentent les modalités de la sculpture de ces trois artistes. Par l’intermédiaire de Michel de Certeau, Henri Lefebvre et Louis Marin, nous chercherons à expliquer quelle est la teneur critique des imaginaires mis en œuvre par les trois artistes pour créer de nouveaux lieux utopiques de la sculpture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse doctorale poursuit l’objectif de mieux comprendre le rôle joué par la culture organisationnelle en tant que déterminant des problèmes de santé mentale dans la main-d’œuvre. Ceci, dans un contexte où les organisations font face à plusieurs défis importants pouvant affecter leur survie et pérennité, mais surtout face aux coûts directs et indirects reliés à ce type de problèmes qui ne cessent d’augmenter. Cette thèse fut également inspirée par les nombreuses limites constatées à la suite d’une revue de la littérature sur la santé mentale au travail, alors que les principaux modèles sur le stress professionnel (e.g. modèle demandes-contrôle de Karasek (1979), modèle demandes-contrôle-soutien de Karasek et Theorell (1990), le modèle du Déséquilibre Efforts-Récompenses de Siegrist (1996) et le modèle Demandes-Ressources de Demerouti et al., (2001)) et guidant la recherche sur le sujet, ne tiennent pas compte du contexte organisationnel élargi dans lequel se vit le travail. Un élément bien précis du contexte organisationnel est le cœur de cette thèse soit la culture organisationnelle. En effet, la culture organisationnelle joue-t-elle un rôle dans le développement et/ou l’aggravation de problèmes de santé mentale dans la main-d’œuvre? Si oui ce rôle existe, alors comment et sous quelles conditions la culture organisationnelle est-elle susceptible de protéger ou de fragiliser la santé mentale des individus? Dans le but de mieux comprendre le rôle joué par la culture organisationnelle en matière de santé mentale au travail, nous avons eu recours à un modèle théorique intégrateur exposant les relations entre la culture organisationnelle, les conditions de l’organisation du travail et la santé mentale. Cette articulation théorique est présentée sous forme d’article dans le cadre de cette thèse. De ce modèle découle deux grandes hypothèses. La première est à l’effet que les conditions de l’organisation du travail sont associées à la détresse psychologique et à l’épuisement professionnel une fois tenu en compte la culture organisationnelle. La seconde hypothèse induite par le modèle proposé, pose que les conditions de l’organisation du travail médiatisent la relation entre la culture organisationnelle et les problèmes de santé mentale au travail. Ces hypothèses de recherche furent testées à partir de données transversales obtenues dans le cadre du projet de recherche SALVEO de l’Équipe de Recherche sur le Travail et la Santé Mentale (ERTSM) de l’Université de Montréal. Les résultats obtenus sont présentés sous forme de deux articles, soumis pour publication, lesquels constituent les chapitres 5 et 6 de cette thèse. Dans l’ensemble, le modèle théorique proposé obtient un soutient empirique important et tend à démontrer que la culture organisationnelle joue indirectement sur la détresse psychologique de par son influence sur les conditions de l’organisation du travail. Pour l’épuisement professionnel, les résultats démontrent que la culture organisationnelle influence directement et indirectement les problèmes de santé mentale au travail. Les résultats corroborent l’importance de développer de nouveaux modèles théoriques pour mieux inclure des facteurs reliés à l’organisation et au contexte organisationnel plus large afin d’avoir un portrait complet de la problématique de la santé mentale au travail. Cette thèse conclue sur les implications de ces résultats pour la recherche, et pour les retombées pratiques pour la gestion des ressources humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le niveau de violence, tel que mesuré par le taux d’homicide, varie beaucoup d’un pays à l’autre. Dans certains pays, on note un taux de 0,5 par 100,000 habitants tandis que pour d’autres, ce taux se situe autour de 50 par 100,000 habitants. Parmi les facteurs évoqués dans la littérature scientifique pour expliquer cette variation, on retrouve des concepts tels que la pauvreté, les inégalités et d’autres facteurs sociaux, économiques ou démographiques. Or, il y a relativement peu d’études qui examinent le rôle éventuel de la qualité du système de justice sur l’incidence de la violence. La présente étude s’intéresse au rôle de la corruption policière sur les variations du taux d’homicide entre les pays du monde. La corruption se définit comme le fait d’agir contre son devoir. Dans le cadre de l’activité policière, la corruption peut prendre la forme d’abus du pouvoir discrétionnaire, de recours à des moyens illégaux ou d’acceptation de récompenses. Considérant que ces différentes formes de corruption policière ont pour principale conséquence de créer des inégalités, il ne fait peu de doute que ce que font les policiers influence le taux de criminalité d’un endroit donné. Cette étude tente donc de déterminer s’il existe un lien entre le niveau de corruption policière et le niveau de violence, tel que mesuré par le taux d’homicide pour 143 pays. Des analyses statistiques univariées et bivariées sont réalisées afin de déterminer les indicateurs pertinents à inclure dans les différents modèles de régression multiple. Les résultats de nos analyses indiquent qu’une relation relativement forte et significative est retrouvée entre la corruption policière et le taux d’homicide. De plus, les résultats montrent que les inégalités influencent la corruption policière et que ces deux phénomènes influencent à leur tour le taux d’homicide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Trois audits de l’AVC ont été menés en Catalogne en 2005, 2007 et 2010. Ces audits évaluent un nombre limité des recommandations à l’aide d’indicateurs. Le but de l’étude est de décrire le suivi des recommandations spécifiques aux soins infirmiers en 2010, d’analyser l’évolution du suivi en 2005, 2007 et 2010 et d’identifier des facteurs reliés à ce suivi. Méthode : Il s’agit d’une étude descriptive/corrélationnelle. Six indicateurs spécifiques aux soins infirmiers ont été mesurés. Les données ont été collectées à partir des dossiers médicaux des patients admis dans 46 hôpitaux publics. L’évolution du suivi a été analysée à l’aide des chi-carrés et des modèles de régression ont été utilisés afin d’identifier les facteurs reliés à ce suivi. Résultats : Au total 2190 cas ont été évalués. Trois des six indicateurs évalués montrent un suivi >70% : mobilisation précoce (78,6%), réalisation d’un ECG basal (97%) et réalisation d’une glycémie basale (97,7%). Le dépistage de la dysphagie améliore au cours des trois audits (p<0,001). L’évaluation de l’humeur, s’est détériorée par rapport à 2007 (p=0,002). Les analyses ajustées pour les caractéristiques et la gravidité des patients montrent un majeur suivi du dépistage de la dysphagie parmi les cas admis en neurologie (OR : 5,28, IC 95%, 1,35 à 20,6) et/ou dans les centres de plus de 300 admissions/année par AVC (OR : 4,31, IC 95%, 1,04 à 17,8) ainsi que de l’éducation au patient/famille quand le patient est admis en fin de semaine (OR : 1,62 IC 95%, 1,03 à 2,54). Discussion : L’évolution dans le suivi des recommandations montre que la qualité des soins infirmières aux personnes ayant subi un AVC s’améliore progressivement en Catalogne. Toutefois, une amélioration de certaines recommandations est possible. Ainsi, il s’avère nécessaire de renforcer et promouvoir des interventions plus ciblées et spécifiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’encéphalopathie hépatique (EH) est un syndrome neuropsychiatrique découlant des complications de l'insuffisance hépatique. Les patients souffrant d'une insuffisance hépatique chronique (IHC) présentent fréquemment une EH minimale (EHM) caractérisée par des dysfonctions cognitives subtiles qui affectent leur qualité de vie. L'insuffisance hépatique entraîne une hyperammoniémie, le facteur central dans la pathogenèse de l'EH. Pourtant, les taux d'ammoniaque sérique ne sont pas corrélés avec la sévérité de l'EH lors d'une IHC, suggérant que d'autres facteurs y contribuent. L'oedème cérébral est une caractéristique neuropathologique décrite chez les patients souffrant d'une EHM et plusieurs facteurs dont le stress oxydatif, les altérations du métabolisme énergétique et l'augmentation de la glutamine cérébrale pourraient contribuer à la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC. Les mécanismes sous-jacents exacts ainsi que les relations entre ces facteurs et l'ammoniaque ne sont pas connus. Présentement, le seul traitement efficace de l'IHC est la transplantation hépatique, une option thérapeutique très limitée. Le but de cette thèse est de contribuer à l'avancement des connaissances sur les mécanismes sous-jacents liés au rôle du stress oxydatif, de la glutamine et du lactate dans la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC afin d'envisager de nouvelles options thérapeutiques. Les objectifs précis étaient: 1. Établir le rôle de l’ammoniaque et sa relation avec le stress oxydatif dans la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC. 2. Établir le rôle du stress oxydatif dans la pathogenèse de l'oedème cérébral, sa relation avec l'ammoniaque et l'effet du traitement avec des antioxydants. 3. Confirmer l'effet synergique entre l'ammoniaque et le stress oxydatif dans la pathogenèse de l'oedème cérébral. 4. Établir le rôle du lactate et de la glutamine dans la pathogenèse de l'oedème cérébral et leur relation avec l’ammoniaque. Pour atteindre ces objectifs, 2 modèles animaux d'EHM obtenus par microchirurgie chez le rat ont été utilisés: 1) la ligature de voie biliaire, un modèle d'IHC et 2) l'anastomose porto-cave, un modèle d'hyperammoniémie induite par la dérivation portosystémique. Nos résultats démontrent que l'ammoniaque et le stress oxydatif indépendamment n'induisent pas l'oedème cérébral lors d'une EHM. Pourtant, lorsque les 2 facteurs agissent ensemble ils présentent ii un effet synergique qui entraîne le développement de l'oedème cérébral, le stress oxydatif étant une première insulte, qui est suivie par l'hyperammoniémie comme deuxième insulte. En plus, le stress oxydatif a été mis en évidence seulement au niveau systémique, et non au niveau central dans notre modèle d'IHC en association avec l'oedème cérébral, suggérant que le stress oxydatif systémique est une conséquence de la dysfonction hépatique et que l'hyperammoniémie n’induit pas le stress oxydatif ni systémique ni central. Nous avons démontré qu’une augmentation du lactate cérébral est une conséquence directe de l'hyperammoniémie et joue un rôle important dans la pathogenèse de l'oedème cérébral lors d'une EHM induite par une IHC, tandis qu’une augmentation de la glutamine au niveau cérébral n'est pas un facteur clé. La compréhension de ces mécanismes a entraîné la proposition de 3 nouvelles stratégies thérapeutiques potentielles pour l'EHM. Elles ciblent la diminution de l'ammoniaque sérique, la réduction du stress oxydatif et l'inhibition de la synthèse du lactate.