996 resultados para arbre de régression et de classification
Resumo:
Comme la plupart des villes en Afrique subsaharienne, Ouagadougou, capitale du Burkina Faso, a connu au cours de ces dernières décennies une croissance démographique rapide. Cette situation pose de nombreux problèmes d’ordre sanitaire et environnemental. Pourtant, les liens entre la santé et l’environnement immédiat sont encore faiblement étudiés du fait de la qualité des données qui, lorsqu’elles existent, se révèlent peu appropriées. La présente thèse vise à analyser les liens entre l’environnement immédiat et certains symptômes de maladies, plus spécifiquement la fièvre et la diarrhée ; deux problèmes majeurs de santé liés à l’environnement chez les enfants de moins de 5 ans dans les villes d’Afrique subsaharienne. Cette étude se base sur des données de l’Observatoire de population de Ouagadougou (OPO) recueillies entre 2009 et 2010 dans l’objectif d’étudier les inégalités de santé en milieu urbain (notamment les données de l’enquête santé portant sur 950 enfants de moins de 5 ans recueillies en 2010). La thèse décrit d’abord la santé environnementale en milieu urbain en dépassant l’opposition classique quartiers lotis/quartiers non lotis (zones d’habitation formelles/zones d’habitation informelles). Elle s’intéresse ensuite à l’évaluation plus fine des liens entre l’environnement immédiat et la fièvre en tenant compte des facteurs démographiques et socio-économiques pertinents dans l’estimation. Enfin, la thèse approfondit les analyses sur la co-occurrence de la diarrhée et de la fièvre en mettant en évidence les effets conjoints des facteurs environnementaux et démographiques. À l’aide des analyses spatiales basées sur la distance euclidienne, des analyses factorielles et de classification, cette étude décrit le contexte sanitaire des quartiers formels et informels et analyse la pertinence de la dichotomie entre les quartiers lotis et les quartiers non lotis dans les zones suivies par l’OPO. L’étude effectue également des analyses multivariées en recourant respectivement aux modèles logit simple et ordonné pour estimer les effets propres de l’environnement immédiat sur la fièvre et la co-occurrence de la diarrhée et de la fièvre chez les enfants. Les résultats de l’étude montrent que les risques environnementaux sont variables d’un quartier à l’autre, et que les quartiers lotis bien qu’étant les plus pourvus en services urbains de base sont les plus exposés aux dangers environnementaux. Néanmoins, ce constat ne suffit pas pour rendre compte de la vulnérabilité des enfants dans les quartiers lotis que dans les quartiers non lotis, puisque l’accès à l’eau, l’assainissement, la nature du sol, et le niveau d’éducation de la mère sont des facteurs clés dans l’occurrence des symptômes liés à l’environnement immédiat. On note également une hétérogénéité concernant la santé environnementale, notamment dans les zones non loties. En considérant les effets de l’environnement immédiat sur la fièvre chez les enfants, les résultats montrent que ces effets baissent après la prise en compte des variables démographiques, socio-économiques et du quartier de résidence. Les facteurs de l’environnement tels que la gestion des ordures ménagères et celle des eaux usées discriminent significativement la fièvre. Les enfants à Nioko 2 (quartier non loti), par exemple, ont deux fois plus de risque d’avoir eu de la fièvre par rapport à Kilwin (quartier loti). Les effets conjoints des facteurs environnementaux et démographiques sont également mis en exergue dans la co-occurrence de la diarrhée et de la fièvre, même si ces effets diminuent régulièrement avec le nombre des symptômes chez les enfants. Le fait d’être dans un ménage insalubre ou d’avoir le sol extérieur en terre augmente la propension de co-occurrence de la diarrhée et de la fièvre. En revanche, cette co-occurrence chez les enfants diminue significativement avec l’âge. Les effets de l’environnement sur l’occurrence ou la co-occurrence des symptômes existent, quand bien même ces effets diminuent avec la prise en compte des facteurs démographiques et socio-économiques et du quartier de résidence. Les résultats de la thèse plaident pour un effort méthodologique, afin d’affiner la définition des variables de l’environnement en milieu urbain.
Resumo:
Contexte: L’arthrite juvénile idiopathique (AJI) est l’une des maladies chroniques auto-immune les plus répandues chez les enfants et est caractérisée par des enflures articulaires (maladie active), de la douleur, de la fatigue et des raideurs matinales pouvant restreindre leur niveau de participation aux activités quotidiennes (par exemple: les loisirs, l’activité physique, la mobilité et les soins personnels) à la maison comme à l’école. Participer aux activités de loisirs et à l’activité physique a des bienfaits au niveau de la santé et du développement de tous les enfants et démontrent aussi des effets positifs qui réduisent les symptômes des maladies chroniques telle l’AJI. Malgré ces bienfaits la participation aux loisirs chez les jeunes avec l’AJI demeure largement sous-étudiée. Objectifs: Cette étude vise à évaluer le niveau de participation aux loisirs et à l’activité physique chez les enfants et les adolescents atteints d’AJI, ainsi qu’à identifier les facteurs liés à la maladie, la personne et l’environnement. Méthodes : L’évaluation du niveau de participation et l’exploration des facteurs associés aux loisirs et à l’activité physique ont été complétés par l’entremise d’une revue systématique de la littérature, l’analyse de données d’un échantillon national représentatif d’enfants canadiens atteints d’arthrite âgés entre 5 et 14 ans (npondéré = 4350), ainsi que l’analyse standardisée du niveau de participation aux loisirs à l’aide du Children’s Assessment of Participation and Enjoyment (n=107) et la mesure objective de l’activité physique par accéléromètre (n=76) auprès d’un échantillon d’enfants (âgés entre 8 et 11 ans ) et d’adolescents (âgés entre 12 et 17 ans) suivis en clinique de rhumatologie à l’hôpital de Montréal pour enfants, Centre Universitaire de Santé McGill. Les résultats cliniques ont été comparés à des données normatives, ainsi qu’à un groupe contrôle sans AJI. Nous avons exploré les facteurs associés avec le niveau de participation aux loisirs et à l’activité physique en utilisant les modèles de régression linéaire multiple et l’analyse hiérarchique. Résultats : Les enfants et les adolescents atteints d’AJI participent à une multitude d’activités de loisirs; cependant ils sont moins souvent impliqués dans des activités physiques et de raffinement en comparaison aux autres types d’activités de loisirs. Ceux avec l’AJI étaient en général moins actifs que leurs pairs sans arthrite et la plupart n’atteignaient pas les recommandations nationales d’activité physique. Les garçons avec l’AJI participent plus souvent à des activités physiques et moins aux activités sociales, de raffinement et de développement de soi en comparaison avec les filles ayant l’AJI. En général, être un garçon, être plus âgé, avoir une meilleure motivation pour participer aux activités de motricité globale, avoir un statut socio-économique plus élevé et être d’origine culturelle canadienne sont associés à un niveau de participation plus élevé aux activités physiques. La préférence pour les activités de raffinement, un niveau d’éducation maternelle plus élevé et être une fille étaient associés à un niveau de participation plus élevé aux activités de raffinement. Conclusion: La participation aux loisirs et à l’activité physique en AJI est un concept complexe et semble surtout être expliqué par des facteurs personnels et environnementaux. L’identification des facteurs associés aux loisirs et à l’activité physique est très importante en AJI puisqu’elle peut permettre aux professionnels de la santé de développer des interventions significatives basées sur les activités préférées des enfants, améliorer l’observance au traitement et promouvoir des habitudes de vie saine.
Resumo:
Vinte e sete amostras de mel, produzidas em dez cidades do Estado do Pará (Região Amazônica, norte do Brasil) por três espécies diferentes de abelhas (Apis mellifera, Melipona fasciculata e Melipona flavoneata), foram analisadas em seus teores de elementos minerais (Al, As, Ba, Be, Bi, Ca, Cd, Co, Cr, Cu, Fe, K, Li, Mg, Mn, Na, Ni, Sr e Zn) e alguns parâmetros fisicoquímicos (cor, umidade, densidade, pH, sólidos insolúveis e solúveis totais, cinzas, condutividade elétrica, índice de formol, acidez livre, hidroximetilfurfural, açúcares redutores e totais e sacarose). Os teores minerais foram determinados via espectrometria de emissão atômica por plasma acoplado indutivamente (ICP OES) e as análises dos parâmetros físico-químicos seguiram metodologias oficiais. Os resultados das análises físico-químicas apresentaram-se de acordo com a legislação nacional e internacional, bem como com outros trabalhos similares ao redor do mundo. A análise estatística multivariada (análise por agrupamento hierárquico (HCA) e por componentes principais (PCA)) foi aplicada aos resultados dos teores metálicos e aos parâmetros físico-químicos, sendo possível a separação das amostras de mel conforme a espécie produtora.
Resumo:
Half title; subtitle supplied from Brit. Mus. (Nat. Hist.) Cat.
Resumo:
Le secteur administratif se veut la scène d'innombrables transformations dont certaines affectent en profondeur la nature même des tâches et fonctions du personnel. Les travailleuses et travailleurs de bureau subissent, entre autres, les conséquences de ce remue-ménage quasi permanent dont l'informatique constitue l'un des principaux éléments bouleversants. Constamment en évolution, donc en changement, les individus doivent adapter leurs méthodes de travail, leurs horaires et leurs tâches de manière à répondre aux besoins des gestionnaires, eux-mêmes tributaires de systèmes économiquement et socialement instables. Devant cet état de fait, nous nous sommes demandé comment réagissait le personnel de soutien administratif. Partant du principe que de fréquentes innovations engendrent un haut niveau de stress, nous avons voulu identifier les principaux facteurs qui influencent négativement cette catégorie d'employées et employés. Pour ce faire, nous avons mené une recherche descriptive dont la population s'est limitée à la région de Rimouski. Après avoir effectué une revue de la littérature traitant de la problématique du stress et des conditions de travail en général, nous avons sélectionné 17 facteurs de stress et les avons analysés selon cinq variables précises et une classification préétablie de répondantes et de répondants. Les résultats obtenus indiquent qu'effectivement certains éléments causent et entretiennent un niveau de stress qualifié de négatif chez le personnel de soutien et ce, indépendamment des variables étudiées. Comme peu d'études se sont intéressées aux travailleuses et travailleurs de bureau jusqu'à ce jour, nous faisons un peu figure de pionnière et constatons que les pistes de recherche fourmillent pour qui veut connaître davantage les problèmes relatifs au stress chez le personnel de soutien administratif et y remédier éventuellement.
Resumo:
Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.
Resumo:
Quelles représentations de la schizophrénie les psychiatres vont-ils construire à travers l'étude des écrits asilaires des patients et des scientifiques dans la première moitié du XXème siècle? Le psychiatre helvétique Hans Steck (1891-1980), qui a travaillé à l'Asile psychiatrique de Cery de 1920 à 1960 et qui s'est fait connaître du public grâce à l'oeuvre d'Aloïse Corbaz, reconnue comme auteure d'art brut par Jean Dubuffet en 1945, constitue le fil rouge de la thèse. Dans le contexte des mouvements tels que Γ "art psychopathologique" et Γ "art brut", Steck étudie les théories de "la mentalité primitive et les peintures magiques des schizophrènes". En 1927, il se tourne vers les théories évolutionnistes de la régression et les premières études de Lévy-Bruhl pour avancer l'idée qu'il existe un "parallélisme schizo-primitif'. Puis il développe des explications de la pensée délirante, à partir des théories exposées lors du Premier Congrès International de Psychiatrie en 1950. Enfin, adoptant la perspective phénoménologique, il explique que "la fonction de l'art et la fonction du délire visent à reconstituer un monde viable pour le malade". En ce sens, l'expression artistique, bien que n'entrant pas dans le champ de la psychothérapie, fournit des indicateurs de l'état psychique du malade en même temps qu'elle contribue à son bien-être. Sont abordés les problèmes concernant la reconnaissance de Γ "auteur" interné, dont les oeuvres appartiennent soit aux archives médicales, soit au musée. La pérennité des critères qui définissent les oeuvres d'"art psychopathologique" ou d'"art brut" est également mise en question. Enfin, le rôle essentiel de l'écriture à l'hôpital, tant pour les patients que pour les soignants, fait l'objet de nombreux développements. - What representations of schizophrenia have psychiatrists been constructing when studying writings by patients and scientists in mental asylums in the first half of the 20th century? The Swiss psychiatrist Hans Steck (1891-1980) is the protagonist of this dissertation. From 1920 to 1960, he has been working at the "Asile psychiatrique de Cery" near Lausanne. Steck is known thanks to the paintings of Aloïse Corbaz, an artist recognized by Jean Dubuffet as belonging to the "art brut" movement in 1945. In the context of movements like "art psychopathologique" and "art brut," Steck studies theories of "primitive character and magic paintings of schizophrenics." In 1927, Steck engages with theories of regression and Lévy-Bruhl's early studies in order to push the idea of a "parallelism schizo-primitif." On the occasion of the First International Congress of psychiatry held in Paris in 1950, Steck develops explanations for the "pensée délirante." Finally, turning to a phenomenological point of view, he explains, "the function of art and the function of the delusion help the patient to reconstruct a viable environment for the sick person." In this way, artistic expression is not thought of as a psychotherapeutical means, but provides insight into the state of mind of a mentally sick person at the same time as contributing to his well-being. The dissertation discusses whether the "author's" work belongs in medical archives or museums. The continuity of "psychopathological art" and "art brut" criteria will be discussed. Finally, the essential role that writing played in the hospital for the patients as well as for the medical staff is presented.
Resumo:
Les fractures du bassin, groupe polymorphe, sont liées au mécanisme traumatique. L'enjeu des fractures isolées du cotyle est principalement fonctionnel. Les radiographies standards, les scanner 3D et la classification de Letournel orientent le traitement. Ce dernier visera à rétablir une congruence articulaire prévenant la coxarthrose précoce. Les fractures du pelvis surviennent le plus souvent suite à des traumatismes violents, associés à des lésions viscérales, menaçant le pronostic vital. Le bilan radiologique s'intègre dans une prise en charge pluridisciplinaire grâce au scanner. La classification de Tile/AO permet la description des mécanismes et des lésions et une prise en charge adaptée. En cas de chocs hémodynamiques, la stabilisation externe, suivie si nécessaire de l'embolisation, à une place prépondérante. Pelvic trauma A great variety of very polymorphous lesions of pelvic trauma are deffering from each other by their context, their anatomical aspect and therapeutic implication. In the isolated acetabular fractures, function is mainly at stake. The management consists mainly of re-establishing a joint congruence to prevent early coxarthrosis. Pelvic fractures often occur in violent trauma and are associated with visceral lesions, putting vital prognosis at stake. In case of hemodynamic shock, external fracture stabilization when it is indicated associated to embolisation of pelvic bleeding if necessary and after external fixation are preponderant.
Resumo:
Abstract : This work is concerned with the development and application of novel unsupervised learning methods, having in mind two target applications: the analysis of forensic case data and the classification of remote sensing images. First, a method based on a symbolic optimization of the inter-sample distance measure is proposed to improve the flexibility of spectral clustering algorithms, and applied to the problem of forensic case data. This distance is optimized using a loss function related to the preservation of neighborhood structure between the input space and the space of principal components, and solutions are found using genetic programming. Results are compared to a variety of state-of--the-art clustering algorithms. Subsequently, a new large-scale clustering method based on a joint optimization of feature extraction and classification is proposed and applied to various databases, including two hyperspectral remote sensing images. The algorithm makes uses of a functional model (e.g., a neural network) for clustering which is trained by stochastic gradient descent. Results indicate that such a technique can easily scale to huge databases, can avoid the so-called out-of-sample problem, and can compete with or even outperform existing clustering algorithms on both artificial data and real remote sensing images. This is verified on small databases as well as very large problems. Résumé : Ce travail de recherche porte sur le développement et l'application de méthodes d'apprentissage dites non supervisées. Les applications visées par ces méthodes sont l'analyse de données forensiques et la classification d'images hyperspectrales en télédétection. Dans un premier temps, une méthodologie de classification non supervisée fondée sur l'optimisation symbolique d'une mesure de distance inter-échantillons est proposée. Cette mesure est obtenue en optimisant une fonction de coût reliée à la préservation de la structure de voisinage d'un point entre l'espace des variables initiales et l'espace des composantes principales. Cette méthode est appliquée à l'analyse de données forensiques et comparée à un éventail de méthodes déjà existantes. En second lieu, une méthode fondée sur une optimisation conjointe des tâches de sélection de variables et de classification est implémentée dans un réseau de neurones et appliquée à diverses bases de données, dont deux images hyperspectrales. Le réseau de neurones est entraîné à l'aide d'un algorithme de gradient stochastique, ce qui rend cette technique applicable à des images de très haute résolution. Les résultats de l'application de cette dernière montrent que l'utilisation d'une telle technique permet de classifier de très grandes bases de données sans difficulté et donne des résultats avantageusement comparables aux méthodes existantes.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La thèse a pour objectif d’étudier l’influence du financement des soins de santé sur la performance des systèmes de soins compte tenu des caractéristiques organisationnelles sanitaires des systèmes. Elle s’articule autour des trois objectifs suivants : 1) caractériser le financement des soins de santé à travers les différents modèles émergeant des pays à revenu élevé ; 2) apprécier la performance des systèmes de soins en établissant les divers profils apparaissant dans ces mêmes pays ; 3) examiner le lien entre le financement et la performance en tenant compte du pouvoir modérateur du contexte organisationnel des soins. Inspirée du processus de circulation de l’argent dans le système de soins, l’approche a d’abord consisté à classer les pays étudiés – par une analyse configurationnelle opérationnalisée par les analyses de correspondance multiples (ACM) et de classification hiérarchique ascendante (CHA) – dans des modèles types, chacun représentant une configuration particulière de processus de financement des soins de santé (article 1). Appliquée aux données recueillies auprès des 27 pays de l’OCDE à revenu élevé via les rapports Health Care in Transition des systèmes de santé des pays produits par le bureau Européen de l’OMS, la banque de données Eco-Santé OCDE 2007 et les statistiques de l’OMS 2008, les analyses ont révélé cinq modèles de financement. Ils se distinguent selon les fonctions de collecte de l’argent dans le système (prélèvement), de mise en commun de l’argent collecté (stockage), de la répartition de l’argent collecté et stocké (allocation) et du processus de paiement des professionnels et des établissements de santé (paiement). Les modèles ainsi développés, qui vont au-delà du processus unique de collecte de l’argent, donnent un portrait plus complet du processus de financement des soins de santé. Ils permettent ainsi une compréhension de la cohérence interne existant entre les fonctions du financement lors d’un éventuel changement de mode de financement dans un pays. Dans un deuxième temps, nous appuyant sur une conception multidimensionnelle de la performance des systèmes, nous avons classé les pays : premièrement, selon leur niveau en termes de ressources mobilisées, de services produits et de résultats de santé atteints (définissant la performance absolue) ; deuxièmement, selon les efforts qu’ils fournissent pour atteindre un niveau élevé de résultats de santé proportionnellement aux ressources mobilisées et aux services produits en termes d’efficience, d’efficacité et de productivité (définissant ainsi la performance relative) ; et troisièmement, selon les profils types de performance globale émergeant en tenant compte simultanément des niveaux de performance absolue et relative (article 2). Les analyses effectuées sur les données collectées auprès des mêmes 27 pays précédents ont dégagé quatre profils de performance qui se différencient selon leur niveau de performance multidimensionnelle et globale. Les résultats ainsi obtenus permettent d’effectuer une comparaison entre les niveaux globaux de performance des systèmes de soins. Pour terminer, afin de répondre à la question de savoir quel mode – ou quels modes – de financement générerait de meilleurs résultats de performance, et ce, dans quel contexte organisationnel de soins, une analyse plus fine des relations entre le financement et la performance (tous définis comme précédemment) compte tenu des caractéristiques organisationnelles sanitaires a été réalisée (article 3). Les résultats montrent qu’il n’existe presque aucune relation directe entre le financement et la performance. Toutefois, lorsque le financement interagit avec le contexte organisationnel sanitaire pour appréhender le niveau de performance des systèmes, des relations pertinentes et révélatrices apparaissent. Ainsi, certains modes de financement semblent plus attrayants que d’autres en termes de performance dans des contextes organisationnels sanitaires différents. Les résultats permettent ainsi à tous les acteurs du système de comprendre qu’il n’existe qu’une influence indirecte du financement de la santé sur la performance des systèmes de soins due à l’interaction du financement avec le contexte organisationnel sanitaire. L’une des originalités de cette thèse tient au fait que très peu de travaux ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de financement et de performance avant d’analyser les associations susceptibles d’exister entre eux. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au coeur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le financement et le contexte organisationnel sanitaire sur la performance des systèmes de soins.
Resumo:
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.
Resumo:
L'otite moyenne est une condition fréquente chez le veau et peut parfois être subclinique, rendant difficile son diagnostic à la ferme. L'objectif de cette étude est d’estimer la sensibilité et la spécificité de l'échographie des bulles tympaniques pour le diagnostic d'otite moyenne clinique et subclinique et de déterminer sa répétabilité. Quarante veaux âgés entre 19 et 50 jours ont été sélectionnés dans une ferme de veaux de grain, en fonction des résultats de l'échographie réalisée à la ferme (A). L'échographie a été réalisée une seconde fois par le même échographiste (A') et par un second échographiste (B), et le diagnostic noté pour chaque bulle tympanique comme étant négatif, suspect ou positif. Les images ont été enregistrées pour relecture et le diagnostic noté. Les veaux ont été euthanasiés, soumis en nécropsie et l'histologie a été utilisée comme méthode de référence. À l'histologie, 45 bulles tympaniques étaient atteintes d'otite moyenne et 35 bulles tympaniques étaient saines. Selon l'échographiste et la classification des bulles tympaniques suspectes, la sensibilité de l'échographie variait de 32% à 63% et la spécificité variait de 84% à 100%. La répétabilité était modérée, avec des valeurs de kappa de 0,53 entre A' et B, de 0,48 entre A et A', et de 0,58 et 0,75 pour la relecture de leurs images par A' et B respectivement.
Resumo:
Dans les crypto-monnaies telles Bitcoin, l’anonymité des utilisateurs peut être compromise de plusieurs façons. Dans ce mémoire, nous effectuons une revue de littérature et une classification des différents protocoles existants pour anonymiser les usagers et analysons leur efficacité. S’appuyant sur certains critères désirables dans de tels protocoles, nous proposons un modèle de mixeur synchrone décentralisé. Nous avons ciblé deux approches qui s’inscrivent dans ce modèle, le plan de transaction et le réseau de transactions, le second étant une contribution originale de ce mémoire. Nous expliquons son fonctionnement puis analysons son efficacité dans le contexte actuel d’utilisation de Bitcoin
Resumo:
La fibrillation auriculaire est le trouble du rythme le plus fréquent chez l'homme. Elle conduit souvent à de graves complications telles que l'insuffisance cardiaque et les accidents vasculaires cérébraux. Un mécanisme neurogène de la fibrillation auriculaire mis en évidence. L'induction de tachyarythmie par stimulation du nerf médiastinal a été proposée comme modèle pour étudier la fibrillation auriculaire neurogène. Dans cette thèse, nous avons étudié l'activité des neurones cardiaques intrinsèques et leurs interactions à l'intérieur des plexus ganglionnaires de l'oreillette droite dans un modèle canin de la fibrillation auriculaire neurogène. Ces activités ont été enregistrées par un réseau multicanal de microélectrodes empalé dans le plexus ganglionnaire de l'oreillette droite. L'enregistrement de l'activité neuronale a été effectué continument sur une période de près de 4 heures comprenant différentes interventions vasculaires (occlusion de l'aorte, de la veine cave inférieure, puis de l'artère coronaire descendante antérieure gauche), des stimuli mécaniques (toucher de l'oreillette ou du ventricule) et électriques (stimulation du nerf vague ou des ganglions stellaires) ainsi que des épisodes induits de fibrillation auriculaire. L'identification et la classification neuronale ont été effectuées en utilisant l'analyse en composantes principales et le partitionnement de données (cluster analysis) dans le logiciel Spike2. Une nouvelle méthode basée sur l'analyse en composante principale est proposée pour annuler l'activité auriculaire superposée sur le signal neuronal et ainsi augmenter la précision de l'identification de la réponse neuronale et de la classification. En se basant sur la réponse neuronale, nous avons défini des sous-types de neurones (afférent, efférent et les neurones des circuits locaux). Leur activité liée à différents facteurs de stress nous ont permis de fournir une description plus détaillée du système nerveux cardiaque intrinsèque. La majorité des neurones enregistrés ont réagi à des épisodes de fibrillation auriculaire en devenant plus actifs. Cette hyperactivité des neurones cardiaques intrinsèques suggère que le contrôle de cette activité pourrait aider à prévenir la fibrillation auriculaire neurogène. Puisque la stimulation à basse intensité du nerf vague affaiblit l'activité neuronale cardiaque intrinsèque (en particulier pour les neurones afférents et convergents des circuits locaux), nous avons examiné si cette intervention pouvait être appliquée comme thérapie pour la fibrillation auriculaire. Nos résultats montrent que la stimulation du nerf vague droit a été en mesure d'atténuer la fibrillation auriculaire dans 12 des 16 cas malgré un effet pro-arythmique défavorable dans 1 des 16 cas. L'action protective a diminué au fil du temps et est devenue inefficace après ~ 40 minutes après 3 minutes de stimulation du nerf vague.