13 resultados para Régularité


Relevância:

20.00% 20.00%

Publicador:

Resumo:

2000 Mathematics Subject Classification: 49J15, 49J30, 53B50.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Introduction : L'utilisation de méthodes endoscopiques peu invasives est en constante augmentation pour le traitement des lésions tumorales précoces de l'oesophage. Le but du traitement comprend l'éradication complète de tous les foyers de dysplasie ou de carcinome in situ, notamment dans les métaplasies intestinales de l'oesophage de Barrett, qui peuvent dégénérer en adénocarcinome. Plusieurs techniques d'ablation de la muqueuse oesophagienne (laser, argon plasma, electrocoagulation, photothérapie dynamique, résection endoscopique) ont été utilisées jusqu'à présent, mais aucune n'a vraiment donné entière satisfaction. Les techniques actuelles de résections endoscopiques par fibroscopie sont entre autres limitées par le grand nombre de séances nécessaires à l'éradication complète de la lésion et par la petite taille des fragments de muqueuse obtenus, ce qui rend l'analyse histologique difficile. Dans notre étude animale, nous avons évalué la faisabilité, l'efficacité et la sécurité d'une méthode de résection endoscopique à l'aide d'un nouvel oesophagoscope rigide. Matériel et méthode : Le résectoscope est formé d'un oesophagoscope rigide avec une fenêtre distale transparente à travers laquelle la muqueuse et une partie de la sous-muqueuse sont aspirées et ensuite réséquées avec une anse thermique. Les diverses fenêtres utilisées ont une taille comprise entre 2.2 et 4.4 cm. Le mouton a été choisi en raison de la ressemblance de son oesophage avec celui de l'humain en ce qui concerne l'épaisseur de son oesophage et sa structure histologique. Nous avons effectué 55 résections hémi-circonférentielles sur 21 animaux et 11 résections circonférentielles sur 11 autres. La Mitomycine-C, une substance qui inhibe la prolifération fibroblastique, a été utilisée dans 8 résections circonférentielles à différents intervalles de temps afin d'empêcher la survenue de sténoses oesophagiennes. Résultats : Toutes les résections hémi-circonférentielles ont permis d'obtenir des fragments compacts de tissu avec des bords nets, ce qui permet une excellente étude histologique. La surface du tissu prélevé était en corrélation avec la taille de la fenêtre du resectoscope. Nous avons ainsi pu obtenir des fragments avec des dimensions comprises entre 6 et 12 cm2. Pour les résections circonférentielles, les tissus étaient obtenus en 2 parties, en inversant de 180° la position de l'appareil. La profondeur de la résection a été optimale dans 58 cas sur 65 avec une découpe précise au niveau de la sous-muqueuse sans lésion de la couche musculaire sous- jacente. Il n'y a pas eu de complications après les résections hémi-circonférentielles. Les complications engendrées par les résections circonférentielles (sténose, perforation) n'ont plus été rencontrées après application locale de Mitomycine-C administrée à des intervalles de temps bien précis. Conclusion : Notre méthode de résection endoscopique de la muqueuse oesophagienne offre une nouvelle approche très prometteuse par rapport aux options déjà disponibles. Elle apparaît supérieure en ce qui concerne la taille de tissu prélevé, la précision et régularité de la profondeur de résection, ainsi que la facilité et sûreté du diagnostic histologique et des marges de sécurité. Les résections hémi-circonférentielles se sont révélées sûres chez le modèle animal. Cette nouvelle technique mérite de plus amples investigations pour les résections circonférentielles avant son utilisation chez l'humain. Abstract: Background and Study Aims: We undertook this retrospective study to evaluate the frequency and prognosis of endoscopic treatment of laterally spreading tumors (LSTs) in the rectum. The recurrence rate for lesions of the lower rectum was compared with that of the upper rectum. Patients and Methods: During the period from July 1989 to June 2002, a total of 1237 rectal tumors were detected. LSTs accounted for 6.9% (85/1237) of all rectal tumors. A total of 224 tumors of the lower rectum were detected among the 1237 rectal tumors. LSTs accounted for 16.1 % (36/224) of all the lower rectal tumors. From 85 LST lesions, 67 were evaluated for their prognosis after endoscopic mucosal resection (EMR). Patients whose LSTs had been resected were followed up by endoscopy at the following frequencies: once 15 (22.4%); twice (more than 1 year), 20 (29.9%); three times (more than 3 years), 21(31.3%); and four times or more (more than 5 years), 11 (16.4%). Results: A total of 67 patients with endoscopically treated LSTs were followed up by endoscopy. We observed recurrences in two lesions of the upper rectum (2/38, 5.3%) and five lesions of the lower rectum (5/29, 17.2%) (P = 0.2364); all seven lesions were resected piecemeal. LSTs whose horizontal margin reached the pectinate line frequently recurred in the lower rectum, at a rate of 80% (4/5). However, all patients were completely cured by additional endoscopic resections, the greatest number of treatments being four. Conclusion: For early detection of recurrence and successful endoscopic cure, further colonoscopic examination within a few months after the first treatment is necessary.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Les centres de jour offrent des interventions de groupe à des personnes âgées qui présentent des incapacités, dans le but de favoriser leur maintien à domicile. Des études récentes tendent à démontrer qu’une utilisation régulière du service serait nécessaire pour induire des effets bénéfiques. Objectifs: Cette recherche visait à documenter l’utilisation des centres de jour par des personnes âgées qui présentent des incapacités. Elle comportait trois principaux objectifs: 1) Caractériser les utilisateurs de centre de jour et ce qui les distingue des non-utilisateurs et analyser les déterminants de l’utilisation du centre de jour. 2) Explorer l’adéquation entre les activités offertes par les centres de jour et les caractéristiques d’autonomie et de santé des utilisateurs. 3) Définir les facteurs associés à la régularité de la participation. Méthodes: Cette recherche s’appuie sur une analyse secondaire de données recueillies auprès de 723 personnes âgées qui ont participé au projet de démonstration SIPA (Services intégrés pour personnes âgées) implanté dans deux CLSC de la région de Montréal. L’utilisation du centre de jour a été documentée pendant une période de six mois, auprès des cinq centres de jour existant sur ce même territoire. Des informations sur le fonctionnement des centres de jour ont été obtenues par des entrevues et des rencontres de groupe auprès de coordonnateurs de ces centres. Les données ont été analysées à l’aide de statistiques descriptives, d’analyses en regroupement et d’analyses de régression logistique et multiple. Résultats: Les résultats sont présentés dans trois articles, soit un pour chacun des objectifs. Article 1: La proportion d’utilisateurs de centre de jour est de 18,8% (IC-0,95: 16,0 à 21,7%). Les facteurs suivants augmentent la probabilité d’utiliser le centre de jour: être plus jeune (RC: 1,12; IC-0,95: 1,06 à 1,19); ne pas avoir une éducation universitaire (RC: 1,92; IC-0,95: 1,04 à 3,57); recevoir l’aide du CLSC pour les activités de vie quotidienne plus d’une fois par semaine (RC: 1,73 et 2,48 pour aide de deux à cinq fois par semaine et aide de six à sept fois par semaine respectivement; IC-0,95: 1,06 à 2,80 et 1,22 à 5,06); faire partie du bassin de desserte d’un centre de jour dont les coûts sont moins élevés (RC: 1,054 ; IC-0,95: 1,001 à 1,108 pour chaque augmentation de 1$); et pour les hommes seulement, avoir déjà subi un accident vasculaire cérébral et présenter davantage d’incapacités fonctionnelles (interaction entre le sexe et la présence d’un AVC: RC: 0,298; IC-0,95: 0,108 à 0,825; interaction entre le sexe et les capacités fonctionnelles mesurées à l’OARS: RC: 1,096; IC-0,95: 1,019 à 1,178). De plus, on observe une plus grande probabilité d’utiliser le centre de jour chez les personnes qui cohabitent avec une personne de soutien. Toutefois, cette relation ne s’observe que chez les personnes nées au Canada (interaction entre la cohabitation avec la personne de soutien et le pays de naissance: RC: 0,417; IC-0,95: 0,185 à 0,938). Article 2: Des analyses en regroupement ont permis de distinguer quatre profils de participants ayant des caractéristiques similaires: 1) les personnes fragilisées par un âge avancé et un grand nombre de problèmes de santé; 2) les participants plus jeunes et plus autonomes que la moyenne, qui semblent des utilisateurs précoces; 3) les personnes qui présentent des incapacités d’origine cognitive; et 4) celles qui présentent des incapacités d’origine motrice. Les activités de groupe des centres de jour ont été regroupées en huit catégories: exercices physiques; groupe spécifique pour un diagnostic ou un problème fonctionnel commun; activités fonctionnelles; stimulation cognitive; activités musicales ou de réminiscence; sports et jeux physiques; intégration sociale; prévention et promotion de la santé. Les activités les plus fréquentes sont les exercices physiques et les activités d’intégration sociale auxquelles ont participé plus de 90% des utilisateurs de centre de jour, et ce en moyenne à respectivement 78% (±23%) et 72% (±24%) de leurs présences au centre de jour. Les autres catégories d’activités rejoignent de 45% à 77% des participants, et ce en moyenne à 35% (±15%) à 46% (±33%) de leurs présences. La participation aux diverses catégories d’activités a été étudiée pour chaque profil d’utilisateurs et comparée aux activités recommandées pour divers types de clientèle. On observe une concordance partielle entre les activités offertes et les besoins des utilisateurs. Cette concordance apparaît plus grande pour les participants qui présentent des problèmes de santé physique ou des incapacités d’origine motrice et plus faible pour ceux qui présentent des symptômes dépressifs ou des atteintes cognitives. Article 3: Les participants au centre de jour y sont inscrits en moyenne à raison de 1,56 (±0,74) jours par semaine mais sont réellement présents à 68,1% des jours attendus. Les facteurs suivants sont associés à une participation plus régulière au centre de jour en termes de taux de présences réelles / présences attendues: ne pas avoir travaillé dans le domaine de la santé (b: ,209; IC-0,95: ,037 à ,382); recevoir de l’aide du CLSC les jours de fréquentation du centre de jour (b: ,124; IC-0,95: ,019 à ,230); être inscrit pour la journée plutôt que la demi-journée (b: ,209: IC-0,95: ,018 à ,399); lors de ses présences au centre de jour, avoir une moins grande proportion d’activités de prévention et promotion de la santé (b: ,223; IC-0,95: ,044 à ,402); et enfin, avoir un aidant qui présente un fardeau moins élevé pour les personnes avec une atteinte cognitive et un fardeau plus élevé pour les personnes sans atteinte cognitive (interaction entre la présence d’atteinte cognitive et le fardeau de l’aidant: b: -,008; IC-0,95: -,014 à -,044). Conclusion: Conformément à leur mission, les centres de jour rejoignent une bonne proportion des personnes âgées qui présentent des incapacités. Cette étude fait ressortir les caractéristiques des personnes les plus susceptibles d’y participer. Elle suggère la nécessité de revoir la planification des activités pour assurer une offre de services qui tienne davantage compte des besoins des participants, en particulier de ceux qui présentent des atteintes cognitives et des symptômes de dépression. Elle démontre aussi que l’intensité d’exposition au service semble faible, ce qui soulève la question des seuils d’exposition nécessaires pour induire des effets favorables sur le maintien à domicile et sur la qualité de vie de la clientèle cible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse montre comment s’est constituée la figure du génie en France au cours des XVIe, XVIIe et XVIIIe siècles, en mettant en évidence les paradoxes qui lui ont permis de devenir l’une des notions fondamentales de la modernité. Cette analyse s’articule autour de trois axes principaux. D’abord, il s’agit d’interroger les circonstances de l’invention du terme « génie » dans la langue française, en insistant sur son bagage culturel gréco-latin. La notion de génie apparaît alors comme intimement liée au génie de la langue française et à son histoire. Ensuite, l’analyse s’intéresse au rôle que la notion de génie joue dans le cadre régulateur de la théorie poétique à la fin du XVIIe siècle. Le génie, qui se définit alors comme une aptitude naturelle à l’exercice d’une régularité normée du faire, n’a cependant de valeur que si cette régularité est transgressée, dépassée. Cette relation fait apparaître le paradoxe social que représente le génie, considéré à la fois comme exceptionnel et exemplaire. Ce paradoxe du génie est ensuite analysé dans le cadre du développement des théories esthétiques au XVIIIe siècle, fondées sur une expérience communautarisante du beau. Cette problématique est étudiée au regard de l’intérêt des philosophes sensualistes pour le problème que constitue le génie, en particulier quant aux mécanismes de l’invention et de la découverte. À l’issue de ce parcours, il apparaît que le génie est à la fois problématique pour les théories qui tentent de le circonscrire et unificateur pour la communauté qu’il permet d’illustrer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ostéochondrite disséquante (OCD) est un défaut focal du processus d’ossification endochondrale en des sites spécifiques au niveau épiphysaire. Elle est caractérisée par la présence de fragments ostéochondraux pouvant se détacher de la surface articulaire. Cette maladie a un impact majeur sur les performances athlétiques des chevaux. Les deux hypothèses principales présentement véhiculées quant à sa pathogénie sont une nécrose ischémique du cartilage de croissance et une altération du métabolisme de la matrice de collagène de type II au sein du cartilage de croissance. Malgré de nombreuses années de recherche sur le sujet, plusieurs aspects de cette maladie demeurent inconnus. L’objectif de cette étude était de décrire le développement épiphysaire équin au niveau du membre pelvien à l’aide de l’imagerie médicale afin de déterminer si des variations du processus de maturation à certains sites pouvaient être un facteur prédisposant au développement de lésions d’OCD. Des membres pelviens de fœtus et de jeunes poulains ont été étudiés post-mortem. L’épiphyse du fémur distal, tibia distal et du talus ont été examinées par tomodensitométrie (CT) et résonnance magnétique 1.5 Tesla (IRM) dans le but de documenter le degré et le patron d’ossification, la régularité du front d’ossification, de même que le pourcentage du diamètre épiphysaire demeurant occupé par le complexe de cartilage articulaire-épiphysaire, et ce au niveau de certains sites prédéterminés. Les centres secondaires d’ossification (SOCs) ont été détectés pour la première fois à 7 mois de gestation (MOG) au niveau de l’épiphyse fémorale distale et à 8 MOG au niveau de l’épiphyse tibiale distale et du talus. À 8-9 MOG la lèvre latérale de la trochlée fémorale, la malléole médiale du tibia (MM) et la partie crâniale de la crête intermédiaire du tibia distal (DIRT(Cr)), tous des sites prédisposés à la maladie, avaient le plus haut pourcentage de cartilage de tous les sites évalués. Post-partum, le pourcentage de cartilage de la MM et de la DIRT(Cr) sont demeurés importants. Le CT et l’IRM ont su illustrer le développement épiphysaire équin et soutenir d’avantage le fait qu’un cartilage plus épais à certains sites articulaires pourrait avoir un rôle dans le développement de lésions d’OCD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette réflexion autour de la notion de rythme a été motivée par le désir d'expliciter le rôle qu'il joue dans l'organisation du sens des œuvres littéraires. Elle s'est imposée en particulier pour décrire des textes — poésies contemporaines, proses — qui, ne présentant aucun signe évident de mesure régulière, semblent mettre en échec une conception du rythme fondée sur la régularité, qui a longtemps prévalu dans le domaine de la poétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude qualitative visait à décrire l’expérience de mères québécoises vivant une grossesse à risque élevé dans le contexte d’une hospitalisation prolongée avec alitement et leur appréciation des soins reçus, deux aspects peu étudiés jusqu’à maintenant. Des entrevues individuelles semi-dirigées ont été effectuées auprès de huit mères hospitalisées et alitées depuis 30 jours en moyenne. Un devis qualitatif d’inspiration phénoménologique (Giorgi 1997, 2009) a été utilisé pour l’analyse des données, d’où a émergé 24 sous-thèmes, sept thèmes et deux énoncés descriptifs. Les résultats de recherche mettent en évidence la réalité évolutive et complexe des mères dans laquelle elles rapportent : 1) Passer du choc à l’ennui, du chaos à la réorganisation et de l’incompréhension à la compréhension ; 2) Avoir une nouvelle vie remplie de contraintes, de difficultés et de craintes ; 3) Vivre essentiellement des émotions négatives ; 4) Être orientée vers le futur tout en persévérant dans le présent. Les mères qualifient les soins prénataux reçus de techniques routinières, peu nombreuses et faciles à exécuter. Ils comportent deux principales lacunes : les oublis occasionnels et l’absence d’activités prénatales éducatives. Le manque de régularité et de constance dans l’assignation des infirmières aux mères hospitalisées est aussi relevé. Toutefois, à travers ces lacunes, les participantes soulignent les grandes forces du personnel soignant : l’humanisme, la gentillesse et la compétence. Les résultats de cette étude offrent une description approfondie de l’expérience subjective de huit mères, laquelle permet de perfectionner les connaissances des professionnels de la santé et de les sensibiliser davantage à ce vécu. Ces retombées peuvent contribuer à humaniser et à améliorer les soins périnataux actuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.