747 resultados para Régression logique
Resumo:
Les premières études recensées ayant traité de la co-délinquance ont plus de cent ans. Comme il s’agit d’un sujet qui a de l’histoire, il y a eu une grande évolution dans la façon d’aborder la question et dans les méthodologies employées. Mais, ce n’est que depuis quelques années que la co-délinquance est étudiée par l’entremise de données d’arrestations policières et c’est ce type de données qui sera utilisé pour répondre à l’objectif principal, celui-ci étant la détermination des conditions expliquant le recours ou non à la co-délinquance pour commettre une infraction criminelle. De plus, pour répondre à notre objectif de recherche, nous avons opté pour une théorie structurante du crime, approche qui n’avait jamais été utilisé auparavant dans les études sur la co-délinquance. Comme méthodologie, nous avons utilisé un échantillon composé de 9 103 participations criminelles, de 8 243 événements distincts et de 3 356 individus et plusieurs prédicteurs ont été analysés afin de déterminer lesquels expliquent le mieux la co-délinquance. L’âge, le genre, les antécédents criminels, l’urbanité et le type de crimes sont toutes des variables qui ont été considérées. L’urbanité représente une nouveauté dans ce type de recherche, puisque nous avons recensé que très peu d’études ayant abordées la question. Alors, que pour le type de crime, nous l’avons détaillé, comme aucune étude sur la co-délinquance ne l’a fait auparavant (23 catégories d’infractions). Ce détail nous permet donc de bien cibler l’impact de chaque délit sur le recours à la co-délinquance. Le résultat émergeant des analyses de régression logistique est que le recours à la co-délinquance s’explique principalement par le type de crime commis, certains actes criminels sont plus propices à la co-délinquance que d’autres. Nous constatons également que les autres variables analysées ont très peu ou pas d’impact sur le recours à la co-délinquance, que ce soit l’âge, le genre, les antécédents criminels ou même l’urbanité.
Resumo:
Un nombre significatif d’enfants autistes ont une macrocéphalie. Malgré plusieurs études du périmètre crânien en autisme, peu d’études ont été faites sur des adultes. Aussi, les références actuelles en périmètre crânien (PC) adulte datent d’environ 20 ans. Les objectifs de cette étude étaient de construire une échelle de référence du PC adulte, et de comparer les taux de macrocéphalie entre un groupe d’adultes autistes et un groupe d’adultes neurotypiques. Dans cette étude, 221 sujets masculins adultes étaient recrutés de différents milieux afin de déterminer le meilleur modèle prédictif du PC et de construire l’échelle de référence. La hauteur et le poids étaient mesurés pour chaque participant afin de déterminer leur influence sur les dimensions crâniennes. Pour la partie comparative, 30 autistes et 36 sujets neurotypiques, tous adultes, étaient recrutés à partir de la base de données du laboratoire de recherche. Pour l’échelle de référence, les résultats démontraient des corrélations positives entre le PC avec la hauteur et le poids. Après analyse, la corrélation conjointe de la hauteur et du poids sur le PC a été déterminée comme étant le modèle qui offre les résultats les plus significatifs dans la prédiction du PC. Pour la partie comparative, les taux de macrocéphalie atteignaient 10,00% chez les autistes contre 2,56% chez les neurotypiques selon la formule de régression linéaire obtenue du modèle. Cependant le test d’exactitude de Fisher n’a révélé aucune différence significative entre les 2 groupes. Mes résultats suggèrent qu’il est nécessaire de considérer la hauteur et le poids en construisant une référence du PC et que, même en utilisant la nouvelle référence, les taux de macrocéphalie demeurent plus élevés chez les autistes adultes que chez les adultes neurotypiques en dépit de l’absence de différences significatives.
Resumo:
Ce travail se veut d’un rapprochement aux pratiques et savoirs des peuples amazoniens à partir de discours produits par ces nations. Nous y interpréterons des chants sacrés, des narrations ancestrales et des textes académiques de penseurs autochtones. Ce travail indique que les pratiques amazoniennes s’inscrivent dans un contexte de significations qui considèrent que tout être vivant possède des pensées et un esprit; qu’il existe des êtres spirituels qui défendent ces êtres vivants contre les abus possibles. Les êtres humains doivent transcender leur état de conscience, se déplacer vers les mondes invisibles et initier la communication avec ces esprits, pour ainsi maintenir l’équilibre existentiel. Selon les pensées de l’Amazonie, les communautés humaines ne peuvent pas se concevoir comme autosuffisantes; elles doivent plutôt maintenir de constantes relations avec les multiples êtres qui peuplent leur environnement visible et les mondes invisibles. Les trois concepts clés qui permettent de rendre compte des pratiques des peuples amazoniens sont la déprédation, la transformation et l’équilibre. Par déprédation, nous entendons les pratiques amazoniennes qui impliquent une destruction des autres êtres afin de sustenter la vie de la communauté. Selon les pensées de l’Amazonie, cette déprédation devrait être mesurée, dans le but de ne pas tuer plus que nécessaire à la survie. La déprédation est régulée par les êtres spirituels. Les pratiques amazoniennes de transformation sont destinées à la sauvegarde des liens de la communauté, en transfigurant tout ce qui entre ou sort de cette dernière, de manière à ce qu’aucun agent externe ne mette en péril les liens affectifs. Les pratiques de déprédation et de transformation sont complémentaires et elles requièrent toutes les deux de se produire de manière équilibrée, en respectant les savoirs ancestraux et les lois cosmiques établies par les esprits supérieurs. En ce qui a trait à la méthode d’analyse, nous aborderons les discours de l’Amazonie à partir leur propre logique culturelle, sans imposer des méthodologies préétablies, ce qui donne comme résultat un travail académique qui approfondie la production intellectuelle interculturelle, puisque ce sont les voix indigènes qui expriment elles-mêmes leurs conceptions et le sens de leurs pratiques. Dans son ensemble, le travail engage un dialogue critique avec son champ d’étude en discutant ou en approfondissant certaines conceptions forgées par la littérature anthropologique consacrée à l’étude de la région, à partir des savoirs ancestraux amazoniens qui nourrissent les pratiques de ces nations.
Resumo:
Nous avons mené une étude empirique pour tester les conclusions théoriques d'un article de Foellmi et Oeschlin (2010), selon lesquelles la libéralisation commerciale accroît les inégalités de revenu dans les pays dont les marchés financiers sont affectés par des frictions. On réalise une régression sur des indices synthétiques de la distribution des revenus, de type Gini, de l’ouverture commerciale, en interaction avec un indicateur de disponibilité du crédit. On dispose d’un panel de pays en développement et de pays émergents, comprenant des données annuelles. Il apparaît que les signes de nos variables d’intérêts sont toujours cohérents avec l’analyse de Foellmi et Oeschlin, même après intégration de divers groupes de variables de contrôle et également lorsque les régressions sont effectuées sur des données agrégées par 5 ans. Néanmoins, les paramètres perdent en significativité pour certains groupes de variables de contrôle, certainement du fait de la faible qualité des données et de la taille relativement modeste de l’échantillon.
Resumo:
Au Mali, une loi hospitalière a été adoptée en 2002 pour définir le cadre institutionnel d’une réforme majeure. Cette loi a décrété des transformations substantielles de la structure interne, tant administrative que clinique des établissements publics hospitaliers notamment l’implication des populations locales dans la prise de décision de l’établissement, l’autonomie administrative et financière à travers la délégation budgétaire et l’implication des professionnels de santé à la gestion, l’intégration des services de spécialité et la participation du secteur privé au service public hospitalier. Cependant, la capacité des hôpitaux à réussir les transformations prévues a été remise en question par la majorité des acteurs internes et externes. L’objectif de cette thèse a été d’étudier de quelle manière l’hôpital malien se transforme sous la pression de la décentralisation des pouvoirs de l’État et d’étudier comment les groupes d’acteurs réagissent face à ces changements à partir de deux cadres d’analyse. Le premier cadre intègre les caractéristiques essentielles des transformations hospitalières en termes de différents types de décentralisation et le second cadre inspiré des travaux de Crozier et coll. (1977) analyse les jeux de pouvoir entre les groupes d’acteurs hospitaliers selon deux niveaux à savoir un niveau stratégique et systémique. Pour cela, nous avons conduit une étude multiple de deux cas et utilisé trois modes de collecte des données à savoir les entrevues semi-structurées auprès des informateurs clés, l’analyse documentaire, et l’observation lors de réunions. Dans un premier temps, les analyses ont révélé pour les changements intervenus dans la structure, selon l’importance des responsabilités attribuées à l’hôpital public, (1) plusieurs variantes de la décentralisation. Globalement, l’intention politique était focalisée sur une délégation puis une déconcentration et une dévolution; les mécanismes mis en place ont penché plus vers une déconcentration puis une délégation et une dévolution tandis que les transformations réellement effectuées dans les établissements publics hospitaliers ont plutôt confirmé une déconcentration en plus d’une délégation particulièrement dans le cas de l’implication des populations locales dans la gestion hospitalière. Tandis que l’hôpital public pouvait faire des recettes à partir du recouvrement partiel des coûts des soins auprès des usagers, l’État gardait une main forte sur la gestion financière et la gestion du personnel, et définissait les directives et les objectifs à poursuivre. (2) Les analyses apportent une compréhension des liens existant entre les différents éléments du processus de réforme, le type de mécanisme mis en place dans le cadre de la réforme semble déterminer le type de transformation effectué selon les fonctions que peut assurer l’hôpital public. La logique traduit le passage de la délégation vers une déconcentration qui est jugée comme étant la forme la moins poussée d’une décentralisation. Dans un deuxième temps, les résultats confirment la présence de conflit entre les normes professionnelles établies et reconnues par les professionnels de santé et les normes organisationnelles et institutionnelles mises en avant par la réforme. Elles sont défendues par la majorité des gestionnaires qui sont imputables face aux autorités alors que les normes professionnelles dominent dans les services cliniques. Les deux cas ont mis en évidence le soutien de leur direction générale, il existait une tension dans les réactions des médecins, qui a été variable selon le type de changement structurel visé, tandis que les infirmiers se sont montrés plutôt accessibles face aux nouvelles mesures introduites par la réforme. L’une des originalités de cette thèse tient au fait que très peu de travaux sur les pays en développement ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de décentralisation avant d’analyser les variantes susceptibles d’exister entre eux et les stratégies développées par les groupes d’acteurs de l’hôpital. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au cœur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le processus de réforme hospitalière et les prises de position des acteurs. Les résultats de cette thèse fournissent des recommandations aux décideurs politiques et aux gestionnaires quant aux modes de changement structurel à privilégier ou en éviter dans la planification, l’exécution et la mise en œuvre du processus de réforme hospitalière en fonction des caractéristiques du contexte organisationnel sanitaire. La planification de la réforme est essentielle : Élaborer un projet d’établissement discuté et validé par l’ensemble des acteurs de l’hôpital. Ce projet doit être compatible avec les objectifs du schéma d’organisation sanitaire nationale et déterminer les moyens en personnel et en équipements, dont l’hôpital doit disposer pour réaliser ses objectifs. Concevoir un cadre budgétaire et financier hospitalier flexible (qui va alléger la chaine de prise de décision), sur lequel reposera le nouveau système de gestion des hôpitaux. La capacité de mobilisation et d’exécution des ressources hospitalières devrait renforcer l’autonomie de gestion. Enfin, promouvoir une culture de l’évaluation et faciliter les évaluations périodiques de la mise en œuvre de la réforme hospitalière par des organismes d’évaluation externes et indépendants.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Notre projet porte sur la relation entre la bande-annonce et le film qu’elle présente. Plus précisément, nous nous intéressons à la manière dont le remontage effectué par la bande-annonce amplifie le film. En premier lieu, nous avons effectué une analyse intertextuelle et esthétique de cinq bandes-annonces contemporaines en cernant le concept spécifique de chacun des exemples et en isolant ce que nous avons appelé des effets d’emphase, c’est-à-dire la mise en valeur de certaines qualités du film par l’entremise du montage du film-annonce. Nous avons ensuite exploré conceptuellement la logique transformante de la bande-annonce en considérant des pistes complémentaires : le montage attractif, la structure ouverte et l’évocation d’une mémoire virtuelle.
Resumo:
Le graffiti est depuis longtemps associé au vandalisme dans les métropoles où il prolifère. Il s’intègre au paysage urbain à un point tel que, même s’il procède d’une logique de visibilité et de promotion, nous parvenons à ne plus le remarquer. Pourtant, sa présence suscite toujours la colère des citoyens propriétaires de murs vandalisés et des autorités municipales qui, chaque année, dépensent de grosses sommes d’argent pour l’effacer. Malgré les restrictions et les amendes, le graffiti est néanmoins devenu un véritable phénomène d’art urbain : des artistes graffiteurs ont atteint la notoriété en dehors de leur sous-culture et ont pu exposer légalement leur travail, du fait d’un intérêt croissant du milieu officiel de l’art. Celui-ci contribue à faire grandir l’engouement et l’enthousiasme pour une pratique d’art urbaine. Le graffiti illustre l’expression d’une identité qui s’approprie et subvertit les surfaces urbaines de la ville, au moyen d’un nom propre fictif qui n’a aucune légitimation juridique et légale. De plus, l’application et la diffusion de la signature graffitique communiquent des valeurs qui guident et définissent toute la sous-culture du graffiti. Ces valeurs sont culturellement considérées comme masculines : le risque, le défi et la dissidence. La figure de l’artiste graffiteur apparaît ainsi comme une figure marginale et rebelle. Un tel portrait laisse alors entrevoir une culture fortement machiste, d’autant plus que les garçons qui exercent le graffiti sont beaucoup plus nombreux. Or, si les femmes artistes de la communauté graffitique représentent une minorité, c’est notamment parce que leur attrait pour une pratique illicite, nocturne et dangereuse est moindre. À partir d’une approche qui touche aux gender studies et à certains concepts traditionnels de l’histoire de l’art, nous cherchons à expliquer l’intérêt généralement plus faible des femmes pour le graffiti. Nous désirons également démontrer comment l’exercice des artistes féminines du graffiti se distingue de celui de leurs homologues masculins. De quelle manière se détermine leur expérience? Leur iconographie sert-elle à les définir? Quelles sont leurs opinions et leurs perceptions sur leur propre culture? Finalement, comment caractérisent-elles leur statut de femme artiste au sein d’une communauté "machiste"?
Resumo:
Cette étude visait principalement à examiner si le Contrôle (« Conscientiousness ») modère la relation prédictive entre différents facteurs de risque et le décrochage chez les adolescents. Les données de l’étude Stratégie d’Intervention Agir Autrement (SIAA) ont été employées. L’échantillon compte 1864 adolescents âgés de 15 ans provenant de 62 écoles secondaires québécoises. Des analyses de régression logistique ont confirmé le pouvoir prédictif de certains facteurs de risque connus du décrochage (indiscipline scolaire, statut socioéconomique faible, engagement scolaire faible, rendement scolaire faible, retard scolaire, désengagement scolaire des amis et des relations conflictuelles avec les enseignants). Les analyses ont aussi révélé que le Contrôle modère la relation entre les relations conflictuelles avec les enseignants et le décrochage et s’avère donc un facteur de vulnérabilité. En effet, un adolescent qui a un niveau élevé de Contrôle est plus à risque de décrocher lorsqu’il a des relations conflictuelles avec les enseignants.
Resumo:
Les risques liés à l’environnement immédiat, notamment le manque d’accès à l’eau potable, à l’assainissement, à un logement décent et à un milieu de vie sain constituent un des facteurs à l’origine de la mauvaise santé des enfants de moins de cinq ans dans les pays en développement. Les objectifs principaux poursuivis dans cette recherche sont de mesurer l’influence de ces risques de l’environnement immédiat sur la prévalence des symptômes des troubles oculaires et celle des symptômes des troubles cutanés chez les enfants de moins de cinq ans à Ouagadougou et de rechercher les autres déterminants sous-jacents de la prévalence de ces symptômes dans cette ville. Nous utilisons les données de l’enquête réalisée en février 2010 sur l’état de santé et le comportement sanitaire associé aux maladies et symptômes récents et les données sur les événements démographiques et sur les conditions de vie des ménages collectées en mai 2009 durant le round 1 de l’enquête ménage. L’échantillon de l’étude est constitué de 950 enfants issus de 736 ménages sélectionnés aléatoirement dans cinq quartiers périphériques de la ville de Ouagadougou. Nous avons recouru à l’analyse descriptive fondée sur les tableaux croisés et les tests du chi-2, et à l’analyse de la régression logistique multivariée ayant permis d’étudier les risques relatifs de la survenue desdits symptômes. L’analyse descriptive montre que certaines variables de l’environnement immédiat, en l’occurrence le mode d’évacuation des ordures ménagères, le type de toilette utilisé le plus souvent par la plupart des membres du ménage et le type de quartier de résidence, sont associés à la prévalence des troubles oculaires. Mais une analyse approfondie à l’aide de la régression logistique multivariée n’a confirmé que l’effet du type de quartier de résidence. Concernant la prévalence des symptômes des troubles cutanés, en analyse bi-variée, les variables de l’environnement immédiat qui y sont associées sont la nature du sol intérieur et le mode d’évacuation des eaux usées. L’analyse multivariée semble confirmer les effets de ces variables. Nous avons relevé quelques limites des données utilisées, notamment la faible taille de l’échantillon, la non-confirmation par voie médicale des données sanitaires et le caractère transversal desdites données. Toutefois, les résultats trouvés pourront être utiles aux planificateurs et décideurs qui ont la charge de la gestion de l’espace urbain dans le but de mieux concevoir de nouvelles politiques urbaines mettant l’accent sur la restructuration des quartiers précaires afin de mieux combattre les maladies évitables. En conclusion, en tenant compte des limites relevées, il serait utile de procéder à d’autres investigations afin de tirer des conclusions moins sujettes à débat du point de vue méthodologique.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
This thesis was created in Word and converted to PDF using Mac OS X 10.7.5 Quartz PDFContext.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
Ce mémoire se concentre sur le problème de la régression épistémique. Il s’agit d’un problème très important puisqu’il remet en question la possibilité de la justification. Nous nous intéresserons aux détails de ce problème, ainsi qu’aux réponses qui lui sont offertes. Traditionnellement, deux réponses sont concurrentes : le fondationnalisme et le cohérentisme. La première propose d’arrêter la régression à un fondement, alors que la seconde propose de s’intéresser à la cohérence partagée par les croyances. Toutefois, le but de notre mémoire est de présenter et de défendre une troisième solution : l’infinitisme. Introduite dans les années 1990 par Peter Klein, l’infinitisme est une des plus récentes théories de la justification et, malgré son intérêt, elle est encore très peu défendue. Cette théorie propose de résoudre le problème de la régression en basant la justification des croyances sur des séries infinies et non répétitives de raisons. Cette idée est intéressante, car l’infinitisme renverse le problème d’origine, puisque les régressions infinies sont généralement perçues comme étant un problème pour la connaissance et la source du scepticisme. Notre objectif est de montrer que l’infinitisme est la meilleure solution possible au problème de la régression. Pour ce faire, nous faisons la synthèse des principaux arguments pour l’infinitisme. Cela nous permettra de distinguer trois types d’infinitisme pour ensuite retenir un de ces types, une forme impure d’infinitisme, comme étant le meilleur. Finalement, nous confronterons l’infinitisme à ces critiques pour montrer qu’il s’agit d’une théorie de la justification qui est réellement viable.
Resumo:
L’importance accordée à la reconnaissance des droits fondamentaux des personnes en matière d’intégrité physique et de consentement aux soins dans notre société fait que le travailleur social appelé à participer à l’ouverture de régimes de protection du majeur doit développer une expertise multidimensionnelle. De plus, le travailleur social se retrouve à confronté à différentes logiques d’action (juridique et procédurale, médicale, psychosociale, pragmatique) dont il doit tenir compte dans le processus d’évaluation. Ceci nous amène à aborder la position difficile dans laquelle se trouve généralement le travailleur social qui oscille entre la possibilité de favoriser l’autonomie de la personne et la volonté de protéger celle-ci. L’objectif de ce mémoire est donc d’accroître notre compréhension du processus de prise de décision du travailleur social dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur. D’une manière plus spécifique, cette étude consiste à retracer et à théoriser, par l’analyse de sa logique d’action, le processus à travers lequel le travailleur social se positionne lorsqu’il se retrouve confronté à des dilemmes éthiques par rapport à la détermination de l’inaptitude d’une personne âgée. L’analyse de l’expérience du travailleur social a été réalisée à travers le paradigme de l’individualisme méthodologique tel que définit par Raymond Boudon. Les données furent recueillies lors d’entrevues semi-dirigées réalisées auprès de sept intervenants. Les témoignages recueillis par le biais de cette recherche exploratoire montrent à quel point il peut être difficile et éprouvant pour le travailleur social de devoir se positionner dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur et comment ces interventions s’inscrivent dans un jeu infiniment complexe d’interactions multiples entre acteurs et actants. Les principaux obstacles à la prise de décision éthique dont ont fait part les travailleurs sociaux interrogés sont liés au contexte de pratique. Il s’agit du manque de ressources financières et humaines disponibles ainsi que le fait que les décisions ne soient pas toujours prises en équipe interdisciplinaire et dans un climat qui soit non menaçant. La reconnaissance de l’expertise des travailleurs sociaux en matière d’ouverture de régimes protection est d’ailleurs ressortie comme un enjeu important.