52 resultados para complement


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'enseignement du raisonnement clinique infirmier (RCI) est une préoccupation importante des formateurs en sciences infirmières depuis plusieurs années. Les étudiantes en sciences infirmières éprouvent des difficultés à formuler des hypothèses cliniques, à savoir trouver les explications pouvant justifier la coexistence d'une combinaison de données cliniques. Pourtant, la formulation d’hypothèses constitue une étape déterminante du RCI. Dans cette étude qualitative exploratoire, nous avons mis à l'essai une activité d'apprentissage par vignette clinique courte (AVCC) qui fournit aux étudiantes l'occasion d'exercer spécifiquement la formulation d'hypothèses cliniques. L'étude visait à documenter la capacité d'étudiantes de troisième année au baccalauréat en sciences infirmières à formuler des hypothèses cliniques durant l'activité. Dix-sept étudiantes ont été recrutées par convenance et divisées en groupes selon leurs disponibilités. Au total, quatre séances ont eu lieu. Les participantes étaient invitées à réfléchir à une vignette clinique courte et à construire un algorithme qui incluait: 1) leurs hypothèses concernant la nature du problème clinique, 2) les éléments d'informations essentiels à rechercher pour vérifier chaque hypothèse et 3) les moyens pour trouver ces informations. L'observation participante, l'enregistrement audio-vidéo et un questionnaire auto-administré ont servi à collecter les données. Les stratégies de RCI décrites par Fonteyn (1998) ont servi de cadre théorique pour guider l’analyse, sous forme de matrices comprenant des verbatims et des notes de terrain. Les résultats suggèrent que l'AVCC stimule la formulation d'hypothèses cliniques et la réactivation des connaissances antérieures. Cette activité pourrait donc être utile en complément d'autres activités éducatives pour favoriser le développement du RCI chez les étudiantes en sciences infirmières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

S’inscrivant dans le retour des débats entourant l’autofiction, après les années folles que furent les décennies 1960-1970, ce mémoire s’avère une exploration des potentialités de ce « genre » au cinéma. L’auteur cherche, à travers une étude de cas spécifique consacrée à Robert Morin, à déterminer les possibilités et modalités d’actualisation de l’autofiction cinématographique. Pour ce faire, il présente les tenants et aboutissants de ce concept littéraire, pour par la suite l’aborder avec les outils théoriques du cinéma : la narratologie filmique et la conduite du récit, la subjectivité, la caméra intradiégétique et l’hybridité générique des œuvres. S’inspirant de différents travaux réalisés sur le cinéma narratif « classique », l’auteur s’affère à les complémenter afin de rendre compte des spécificités propres à la pratique autofictive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La colonisation sur les terres autochtones a eu des effets considérables sur l’organisation politique et sociale, le mode de vie et la culture des Innu.es, notamment en les dépossédant de leurs territoires et en leur imposant un système politico-économique fondé sur le capitalisme et l’étatisme. Ce mémoire explore les différentes stratégies de résistance adoptées par les Innu.es de la communauté de Pessamit pour faire face à ces impositions coloniales qui n’ont jamais cessé et interroge la capacité de ces luttes à se situer à l’extérieur de l’idéologie dominante. D’une part, des résistances ouvertes et déclarées confrontent publiquement les structures dominantes tout en pouvant paraître s’inscrire à l’intérieur des balises imposées par l’idéologie dominante, c'est-à-dire incapables de s’en extraire. D’autre part, certaines résistances sont plus discrètes, cachées, internes à la communauté et à sa vie quotidienne : l’infrapolitique. Il s’agit d’espaces politiques et sociaux de la communauté qui favorisent la protection de la culture innue (notamment sa langue), la valorisation d’un renouveau spirituel, la guérison de la population, l’occupation quotidienne des terres. Ainsi, l’enquête de terrain a révélé que les formes de luttes à Pessamit sont multiples, hétérogènes et parfois interdépendantes en tant qu’elles se complètent les unes les autres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le facteur de transcription p53 joue un rôle crucial dans la suppression de tumeurs et dans la sénescence cellulaire. Selon la littérature, l’ARN messager de p53 contient deux sites d’entrée interne des ribosomes (IRES), un dans la région 5’ non-traduite et l’autre au début de la région codante. L’utilisation de ces IRES devrait activer la synthèse de p53 en conditions de stress, comme dans la sénescence. Notre but était d’identifier les éléments-clés qui contrôlent l’activité des IRES de p53 et d’étudier leur comportement dans la sénescence. Nous avons construit des vecteurs bicistroniques à deux luciférases contenant le gène de la Renilla (Rluc), traduit via le mécanisme classique coiffe-dépendant, une région intercistronique, contenant une des séquences IRES de p53, et le gène de la luciole (Fluc), dont la traduction dépend de cet IRES. L’activité IRES a été évaluée par le rapport des activités Fluc/Rluc dans des extraits cellulaires de HEK293T et de fibroblastes primaires humains. Nous avons inséré une structure précédant l’IRES évitant qu’une translecture ou une réinitiation de la traduction puisse conduire à la synthèse de Fluc. Nous avons vérifié l’absence de promoteur cryptique dans les IRES et nous avons construit des vecteurs contenant la séquence complémentaire inversée (SERI) des IRES. Nous avons observé que l’efficacité de traduction via les IRES de p53 ou les séquences SERI est semblable. De plus, la traduction de Fluc via les présumés IRES de p53 ne représente qu’environ 1% de la traduction de Fluc via une initiation coiffe-dépendante. L’activité des prétendus IRES ne semble pas augmenter en conditions de sénescence. Enfin, nous avons introduit une région structurée dans la région 5’UTR du messager bicistronique. Cette structure a bloqué la traduction coiffe-dépendante mais aussi la traduction IRES-dépendante. L’ensemble de nos résultats nous conduit à affirmer que l’ARN messager de p53 ne contient pas d’IRES et nous suggérons que la faible activité Fluc observée résulterait d’un épissage cryptique conduisant à l’apparition d’un messager dont la traduction génère une portion de Rluc fusionnée à Fluc. Nos résultats sont en accord avec des données rapportées dans la littérature démontrant que l’existence de la plupart des IRES cellulaires est contestée. Un ensemble de contrôles rigoureux doit être appliqué à l’étude de tout IRES présumé avant d’affirmer son existence. Le système à deux luciférases, considéré comme le modèle de choix pour l’étude des IRES, peut en fait révéler diverses anomalies de l’expression des gènes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thése relie trois articles sur l'économie politique. Ces articles analysent à la fois théoriquement et empiriquement si, et dans quelle mesure, trois phénomènes politiques différents (les partis politiques, les guerres civiles et les menaces externes), et leur interaction, influent sur les résultats économiques. Le premier chapitre étudie l'impact de la présence au pouvoir des politiciens de nouveaux partis politiques sur la taille du gouvernement. Le chapitre se concentre sur les municipalités colombiennes, où les nouveaux partis politiques ont été nombreux et fructueux au cours des dernières années. Les estimations par régressions sur discontinuité montrent que les dépenses publiques et les recettes fiscales sont significativement plus élevées dans les municipalités gouvernées par un maire d'un nouveau parti politique. En utilisant des informations sur la politique locale et des caractéristiques des nouveaux partis, je soutiens que ce résultat peut être expliqué par le fait qu'il y a moins d'information sur les politiciens de nouveaux partis que les politiciens des partis traditionnels. Le deuxième chapitre développe une nouvelle explication de l'impact des guerres civiles et des conflits interétatiques sur le state-building qui repose sur l'idée que les protagonistes de ces deux types de conflits peuvent avoir un lien (ethnique ou idéologique). Un premier résultat montre que la force de ce lien détermine si les conflits contre des adversaires internes (i.e. guerres civiles) ou des ennemis externes (i.e. conflits interétatiques) sont complémentaires ou se substituent, conduisant à plus ou moins d'investissement en capacité fiscale. La théorie prédit également un rôle non trivial de la stabilité politique dans la relation entre les deux types de conflits et la capacité fiscale: un deuxième résultat montre que, bien que la stabilité politique se traduit par moins de capacité fiscale, plus de stabilité n'implique pas plus de state-building. Leur équivalence dépend du niveau de cohésion des institutions. Un nouveau mécanisme par lequel plus de stabilité politique peut impliquer moins de state-building est proposé. En outre, il est démontré que des corrélations dans les données cross-country sont compatibles avec la théorie. Le troisième chapitre examine la relation entre la probabilité d'occurrence d'un conflit intérieur violent et le risque qu'un tel conflit "s'externalise" (c'est à dire se propage dans un autre pays en devenant un conflit interétatique). Je considère une situation dans laquelle un conflit interne entre un gouvernement et un groupe rebelle peut s'externaliser. Je montre que le risque d'externalisation augmente la probabilité d'un accord de paix, mais seulement si le gouvernement est suffisamment puissant par rapport aux rebelles, et si le risque d'externalisation est suffisamment élevé. Je montre comment ce modèle aide à comprendre les récents pourparlers de paix entre le gouvernement colombien et le groupe le plus puissant des rebelles dans le pays, les FARC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'épaule est souvent affectée par des troubles musculo-squelettiques. Toutefois, leur évaluation est limitée à des mesures qualitatives qui nuisent à la spécificité et justesse du diagnostic. L'analyse de mouvement tridimensionnel pourrait complémenter le traitement conventionnel à l'aide de mesures quantitatives fonctionnelles. L'interaction entre les articulations de l'épaule est estimée par le rythme scapulo-huméral, mais la variabilité prononcée qu'il affiche nuit à son utilisation clinique. Ainsi, l'objectif général de cette thèse était de réduire la variabilité de la mesure du rythme scapulo-huméral. L'effet de la méthode de calcul du rythme scapulo-huméral et des conditions d'exécution du mouvement (rotation axiale du bras, charge, vitesse, activité musculaire) ont été testées. La cinématique des articulations de l'épaule a été calculé par chaîne cinématique et filtre de Kalman étendu sur des sujets sains avec un système optoélectronique. La méthode usuelle de calcul du rythme scapulo-huméral extrait les angles d'élévation gléno-humérale et de rotation latérale scapulo-thoracique. Puisque ces angles ne sont pas co-planaires au thorax, leur somme ne correspond pas à l'angle d'élévation du bras. Une nouvelle approche de contribution articulaire incluant toutes les rotations de chaque articulation est proposée et comparée à la méthode usuelle. La méthode usuelle surestimait systématiquement la contribution gléno-humérale par rapport à la méthode proposée. Ce nouveau calcul du rythme scapulo-huméral permet une évaluation fonctionnelle dynamique de l'épaule et réduit la variabilité inter-sujets. La comparaison d'exercices de réadaptation du supra-épineux contrastant la rotation axiale du bras a été réalisée, ainsi que l'effet d'ajouter une charge externe. L'exercice «full-can» augmentait le rythme scapulo-huméral et la contribution gléno-humérale ce qui concorde avec la fonction du supra-épineux. Au contraire, l'exercice «empty-can» augmentait la contribution scapulo-thoracique ce qui est associé à une compensation pour éviter la contribution gléno-humérale. L'utilisation de charge externe lors de la réadaptation du supra-épineux semble justifiée par un rythme scapulo-huméral similaire et une élévation gléno-humérale supérieure. Le mouvement de l'épaule est souvent mesuré ou évalué en condition statique ou dynamique et passive ou active. Cependant, l'effet de ces conditions sur la coordination articulaire demeure incertain. La comparaison des ces conditions révélait des différences significatives qui montrent l'importance de considérer les conditions de mouvement pour l'acquisition ou la comparaison des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les processus de la mise en scène reposent nécessairement sur une réalité humaine complexe, faite de dialogues et de rapports de force en constante redéfinition. Afin de les théoriser, plusieurs travaux ont institué en corpus les documents produits en cours de réunion ou de répétition, pour leur appliquer les méthodes issues de la génétique des textes. Or le transfert s’avère problématique : vestiges lacunaires, ces supports ne sauraient témoigner à eux seuls de la vie organique et polyphonique de la mise en scène en gestation. Une première solution consiste à opter pour une approche radicalement intermédiale des archives d’un spectacle : dans la mesure où la mise en scène fait interagir plusieurs disciplines artistiques, pourquoi ne pas la penser en confrontant activement les différents media générés lors de son élaboration ? Complémentaire de la première, une seconde proposition suppose que le chercheur s’implique dans une observation in vivo de réunions et de répétitions afin de disposer d’une matière plus complète. À cette clarification épistémologique succède un essai de théorisation des processus de la création scénique. Il apparaît tout d’abord que l’espace de travail est aussi bien un contenant physique de la recherche des artistes qu’un catalyseur : c’est en se l’appropriant à plusieurs qu’un groupe de collaborateurs donne corps à la mise en scène. L’espace de création révèle par là même une dimension polyphonique que l’on retrouve sur le plan du temps : dans la mesure où il engage un ensemble d’artistes, un processus ne possède pas de linéarité chronologique homogène ; il se compose d’une multitude de temporalités propres à chacun des répétants, qu’il s’agit de faire converger pour élaborer un spectacle commun à tous. Les processus de la mise en scène se caractérisent ainsi par leur dimension fondamentalement sociale. Réunie dans un espace-temps donné, la petite société formée autour du metteur obéit à un mode de création dialogique, où les propositions des uns et des autres s’agrègent pour former un discours foisonnant dont la force et l’unité sont garanties par une instance surplombante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : L’asthme professionnel (AP) est diagnostiqué au Québec avec le test de provocation bronchique spécifique (TPS). Le TPS consiste à exposer le patient à un agent causal suspecté en vue de provoquer une réaction asthmatique. Un TPS négatif est possible quand un agent causal a été omis de l’histoire professionnelle du patient. L’évaluation des expositions professionnelles par une expertise en hygiène en santé du travail est considérée comme une méthode précise, lorsque des données de mesure ne sont pas disponibles. Cependant, l'apport de cette méthode dans le diagnostic de l’AP n'a jamais été examiné dans un contexte clinique. Objectifs : Déterminer l'apport de l'évaluation des expositions professionnelles par une expertise en hygiène du travail dans l'investigation de l'AP. Comparer les expositions professionnelles détectées par un clinicien et par un hygiéniste chez 1) des sujets avec de l’AP prouvé par des TPS positifs, 2) chez des sujets avec des TPS négatifs. Méthodes : Une analyse des expositions potentielles par le clinicien a précédé la réalisation du TPS. Une évaluation des expositions professionnelles a été réalisée par un hygiéniste. L’hygiéniste n’avait pas connaissance du diagnostic du patient. Résultats : 120 sujets (TPS positifs : 67 négatifs :53) ont été enrôlés dans l’étude. L’hygiéniste a identifié l’agent causal dans la très grande majorité des TPS positifs. Dans 33 TPS négatifs, l’hygiéniste a détecté des agents sensibilisants non identifiés par le médecin. Conclusion : L’évaluation des expositions professionnelles par une expertise en hygiène du travail est une méthode pouvant compléter l'évaluation clinique pour la détection d’agents sensibilisants associés à l’AP. L’inclusion de cette approche dans l’évaluation clinique de l’AP aurait comme effet de réduire la survenance d’un diagnostic erroné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.), sciences infirmières option expertise-conseil en soins infirmiers

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apport disproportionné aux taux de criminalité des membres des gangs de rue est, nul doute, une proposition empirique robuste. De nombreuses études ont conclu que l’association aux gangs de rue est un facteur de risque supplémentaire à celui que constitue déjà la fréquentation de pairs délinquants au nombre des meilleurs prédicteurs de la délinquance avec les antécédents criminels et les traits antisociaux de la personnalité. Pourtant, la contribution spécifique de l’association aux gangs de rue à l’explication de la délinquance est largement méconnue. Au nombre des variables les plus souvent citées pour l’expliquer figure néanmoins le concept de l’adhésion à la culture de gang qui n’a toutefois jamais été spécifiquement opérationnalisé. Le but de la thèse est d’étudier la contribution spécifique de l’adhésion d’un contrevenant à la culture des gangs de rue à l’explication de la délinquance. Plus précisément, elle a comme objectifs de définir la culture des gangs de rue, d’opérationnaliser l’adhésion à la culture des gangs de rue, d’examiner la fidélité de la mesure de l’adhésion à la culture de gang et d’étudier sa relation avec la nature, la variété et la fréquence des conduites délinquantes de contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Trois articles scientifiques, auxquels un chapitre régulier est joint, ont servi la démonstration de la thèse. D’abord, le premier article présente les démarches relatives au développement de la première Mesure de l’adhésion à la culture de gang, la MACg. Plus précisément, l’article présente la recension des écrits qui a permis de proposer une première définition de la culture de gang et d’opérationnaliser le concept. Il fait aussi état de la démarche de la validation de la pertinence de son contenu et des données préliminaires qui révèlent la très bonne cohérence interne de la MACg. Cette première étude est suivie de la présentation, dans le cadre d’un chapitre régulier, des résultats de l’examen de la cotation des principaux indicateurs de la culture de gang. Cette démarche constitue un complément nécessaire à l’examen de la validité apparente de la MACg. Les résultats révèlent des degrés de concordance très satisfaisants entre les observations de divers professionnels des centres jeunesse et des services correctionnels du Québec qui ont été invités à coter les indicateurs de la culture de gang à partir de deux histoires fictives d’un contrevenant mineur et d’un second d’âge adulte. Puis, le deuxième article présente les résultats d’un premier examen de la fidélité de la MACg à l’aide du modèle de Rasch de la Théorie de la réponse aux items. Ses résultats soutiennent l’unidimensionnalité de la MACg et sa capacité à distinguer des groupes d’items et de personnes le long d’un continuum de gravité d’adhésion à la culture de gang. Par contre, le fonctionnement différentiel et le mauvais ajustement de certains items sont observés, ainsi que l’inadéquation de la structure de réponses aux items (de type Likert) privilégiée lors de l’élaboration de la MACg. Une version réaménagée de cette dernière est donc proposée. Enfin, le troisième et dernier article présente les résultats de l’examen de la relation entre la délinquance et l’adhésion d’un contrevenant à la culture de gang telle que mesurée par la MACg. Les résultats soutiennent l’apport unique de l’adhésion d’un contrevenant à la culture de gang à la diversité et à la fréquence des conduites délinquantes auto-rapportées par des contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Le score à l’échelle originale et réaménagée de la MACg s’avère, d’ailleurs, un facteur explicatif plus puissant que l’âge, la précocité criminelle, les pairs délinquants et la psychopathie au nombre des meilleurs prédicteurs de la délinquance. L’étude met aussi en lumière l’étroite relation entre une forte adhésion à la culture de gang et la présence marquée de traits psychopathiques annonciatrice de problèmes particulièrement sérieux. Malgré ses limites, la thèse contribuera significativement aux développements des bases d’un nouveau modèle explicatif de l’influence de l’association aux gangs de rue sur les conduites des personnes. La MACg pourra aussi servir à l’évaluation des risques des hommes contrevenants placés sous la responsabilité du système de justice pénale et à l’amélioration de la qualité des interventions qui leur sont dédiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.