891 resultados para Process control - Statistical methods
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
In this paper, we use identification-robust methods to assess the empirical adequacy of a New Keynesian Phillips Curve (NKPC) equation. We focus on the Gali and Gertler’s (1999) specification, on both U.S. and Canadian data. Two variants of the model are studied: one based on a rationalexpectations assumption, and a modification to the latter which consists in using survey data on inflation expectations. The results based on these two specifications exhibit sharp differences concerning: (i) identification difficulties, (ii) backward-looking behavior, and (ii) the frequency of price adjustments. Overall, we find that there is some support for the hybrid NKPC for the U.S., whereas the model is not suited to Canada. Our findings underscore the need for employing identificationrobust inference methods in the estimation of expectations-based dynamic macroeconomic relations.
Resumo:
This paper prepared for the Handbook of Statistics (Vol.14: Statistical Methods in Finance), surveys the subject of stochastic volatility. the following subjects are covered: volatility in financial markets (instantaneous volatility of asset returns, implied volatilities in option prices and related stylized facts), statistical modelling in discrete and continuous time and, finally, statistical inference (methods of moments, quasi-maximum likelihood, likelihood-based and bayesian methods and indirect inference).
Resumo:
In the analysis of tax reform, when equity is traded off against efficiency, the measurement of the latter requires us to know how tax-induced price changes affect quantities supplied and demanded. in this paper, we present various econometric procedures for estimating how taxes affect demand.
Resumo:
L’objectif de cette étude est de saisir une image des éléments explicitement reconnaissables de la recherche en communication visibles dans les revues savantes Canadian Journal of Communication et dans Communication de 1974 à 2005. Il s’agit d’une analyse bibliométrique des articles publiés par les chercheurs d’institutions canadiennes et de leurs références bibliographiques. La bibliométrie est « l’application de méthodes statistiques aux livres et aux autres moyens de communication » (Pritchard, 1969: 348-349). C’est la première fois qu’une analyse de ce type est tentée dans ce corpus particulier. Nous nous sommes appuyés sur des postulats théoriques provenant de la sociologie des sciences et des études en communication scientifique. L’idée maîtresse est la suivante : l’activité scientifique est un « continuum de création de nouvelles connaissances » (Vassallo, 1999), dont l’organisation est basée sur l’échange d’information (Price, 1963; Crane, 1972), qui se traduit en reconnaissance sociale, en autorité scientifique, et constitue un investissement pour l’acquisition de crédibilité (Merton, 1938; Hagstrom, 1965; Bourdieu, 1975; Latour et Woolgar, 1986). À partir de l’analyse des articles, nous identifions s’ils sont le résultat de recherches empiriques ou fondamentales, ou le produit d’une réflexion critique. Il s’agit aussi de détecter les approches méthodologiques et les techniques d’investigation utilisées, ainsi que les sujets qui y sont abordés par les chercheurs. Nous détectons également les principaux lieux de recherche (universités et types de départements). Nous analysons aussi les thématiques des articles. Enfin, nous analysons des références bibliographiques des articles afin de cerner les sources d’idées qui y sont décelables. Notre corpus principal comporte 1154 articles et 12 840 titres de documents en référence. L’analyse bibliométrique des articles révèle ainsi une recherche canadienne en communication d’emblée qualitative, intéressée pour les spécificités historiques, le contexte social et la compréhension des interrelations sous-jacentes aux phénomènes de communication, en particulier, au Canada et au Québec. Au cœur de ces études se distingue principalement l’application de l’analyse de contenu qualitative dans les médias en général. Cependant, à partir de 1980, l’exploration du cinéma, de l’audiovisuel, des nouvelles technologies de l’information et de la communication, ainsi que la multiplication des sujets de recherche, annoncent un déplacement dans l’ordre des intérêts. Communication et le CJC, se distinguent cependant par l’origine linguistique des chercheurs qui y publient ainsi que dans les thématiques. L’analyse des références bibliographiques, et de leurs auteurs, met en relief l’intérêt partagé des chercheurs d’institutions universitaires canadiennes pour les agences de réglementation et les politiques gouvernementales canadiennes s’appuyant souvent sur l’analyse de documents législatifs et de rapports de diverses commissions d’enquête du gouvernement canadien. L’analyse révèle aussi les principales inspirations théoriques et méthodologiques des chercheurs. Parmi les plus citées, on voit Innis, McLuhan, Habermas, Tuchman, Bourdieu, Foucault, Raboy, et Rogers. Mais ces références évoluent dans le temps. On voit aussi une distinction relativement claire entre les sources citées par la recherche francophone et la recherche anglophone.
Resumo:
Objectif—Comparer les effets de la stérilisation au plasma de gaz de peroxyde d’hydrogène (HPGP) à l’oxyde d’éthylène (EO) et à la vapeur (ST) sur les propriétés physico-chimiques et d’adhésion bactérienne de fils de nylon et de polyéthylène. Design expérimental—Etude in vitro. Matériel—Des brins non stérilisés, stérilisés au HPGP, à l’EO et ST; de fil nylon leader (FNL), de fil de nylon pêche (FNP) et de fil de polyéthylène (PE) ont été utilisés. Méthodes—Une analyse de surface au spectroscope photo-électronique à rayons X (XPS), une mesure de l’angle de contact, une analyse par microscopie à force atomique (AFM) et l’adhésion bactérienne de Staphylococcus intermedius et d’Escherichia Coli ont été testés sur les brins. Résultats—Une oxydation de la surface de tous les échantillons stérilisés a été observée quelque soit la méthode de stérilisation. La stérilisation a augmenté significativement l’angle de contact pour tous les types de fil quelque soit la méthode. La rugosité n’a pas été affectée significativement par la méthode de stérilisation pour le FNL et FNP. L’adhésion bactérienne a été affectée significativement par la méthode de stérilisation. Le PE a un angle de contact, une rugosité et une adhésion bactérienne significativement plus élevée que le FNL et FNP, peu importe la méthode de stérilisation. Conclusion—La stérilisation au HPGP constitue une alternative intéressante à la vapeur et l’EO. Le PE n’est peut être pas un matériel idéal par sa capacité d’adhésion bactérienne. De futures études sont nécessaires pour déterminer la signification clinique de ces trouvailles.
Resumo:
L’objectif principal de la présente thèse était de déterminer les facteurs susceptibles d’influencer l’efficacité des processus de contrôle en ligne des mouvements d’atteinte manuelle. De nos jours, les mouvements d’atteinte manuelle réalisés dans un environnement virtuel (déplacer une souris d’ordinateur pour contrôler un curseur à l’écran, par exemple) sont devenus chose commune. Par comparaison aux mouvements réalisés en contexte naturel (appuyer sur le bouton de mise en marche de l’ordinateur), ceux réalisés en contexte virtuel imposent au système nerveux central des contraintes importantes parce que l’information visuelle et proprioceptive définissant la position de l’effecteur n’est pas parfaitement congruente. Par conséquent, la présente thèse s’articule autour des effets d’un contexte virtuel sur le contrôle des mouvements d’atteinte manuelle. Dans notre premier article, nous avons tenté de déterminer si des facteurs tels que (a) la quantité de pratique, (b) l’orientation du montage virtuel (aligné vs. non-aligné) ou encore (c) l’alternance d’un essai réalisé avec et sans la vision de l’effecteur pouvaient augmenter l’efficacité des processus de contrôle en ligne de mouvement réalisés en contexte virtuel. Ces facteurs n’ont pas influencé l’efficacité des processus de contrôle de mouvements réalisés en contexte virtuel, suggérant qu’il est difficile d’optimiser le contrôle des mouvements d’atteinte manuelle lorsque ceux-ci sont réalisés dans un contexte virtuel. L’un des résultats les plus surprenants de cette étude est que nous n’avons pas rapporté d’effet concernant l’orientation de l’écran sur la performance des participants, ce qui était en contradiction avec la littérature existante sur ce sujet. L’article 2 avait pour but de pousser plus en avant notre compréhension du contrôle du mouvement réalisé en contexte virtuel et naturel. Dans le deuxième article, nous avons mis en évidence les effets néfastes d’un contexte virtuel sur le contrôle en ligne des mouvements d’atteinte manuelle. Plus précisément, nous avons observé que l’utilisation d’un montage non-aligné (écran vertical/mouvement sur un plan horizontal) pour présenter l’information visuelle résultait en une importante diminution de la performance comparativement à un montage virtuel aligné et un montage naturel. Nous avons aussi observé une diminution de la performance lorsque les mouvements étaient réalisés dans un contexte virtuel aligné comparativement à un contexte naturel. La diminution de la performance notée dans les deux conditions virtuelles s’expliquait largement par une réduction de l’efficacité des processus de contrôle en ligne. Nous avons donc suggéré que l’utilisation d’une représentation virtuelle de la main introduisait de l’incertitude relative à sa position dans l’espace. Dans l’article 3, nous avons donc voulu déterminer l’origine de cette incertitude. Dans ce troisième article, deux hypothèses étaient à l’étude. La première suggérait que l’augmentation de l’incertitude rapportée dans le contexte virtuel de la précédente étude était due à une perte d’information visuelle relative à la configuration du bras. La seconde suggérait plutôt que l’incertitude provenait de l’information visuelle et proprioceptive qui n’est pas parfaitement congruente dans un contexte virtuel comparativement à un contexte naturel (le curseur n’est pas directement aligné avec le bout du doigt, par exemple). Les données n’ont pas supporté notre première hypothèse. Plutôt, il semble que l’incertitude soit causée par la dissociation de l’information visuelle et proprioceptive. Nous avons aussi démontré que l’information relative à la position de la main disponible sur la base de départ influence largement les processus de contrôle en ligne, même lorsque la vision de l’effecteur est disponible durant le mouvement. Ce résultat suggère que des boucles de feedback interne utilisent cette information afin de moduler le mouvement en cours d’exécution.
Resumo:
Contexte : Pour les patients atteints d’une polyarthrite rhumatoïde débutante (PARD), l’utilisation de médicaments antirhumatismaux à longue durée d’action améliore les résultats pour les patients de manière significative. Les patients traités par un rhumatologue ont une plus grande probabilité de recevoir des traitements et donc d’avoir de meilleurs résultats de santé. Toutefois, les délais observés entre le début des symptômes et une première visite avec un rhumatologue sont souvent supérieurs à la recommandation de trois mois énoncée par les guides de pratiques. Au Québec, le temps d’attente pour voir un rhumatologue à la suite d’une demande de consultation est généralement long et contribue aux délais totaux. Objectifs : Nous avons évalué la capacité d’un programme d’accès rapide avec un triage effectué par une infirmière à correctement identifier les patients avec PARD et à réduire leur temps d’attente, dans le but d’améliorer le processus de soin. Méthodes : Une infirmière a évalué tous les nouveaux patients référés en 2009 et 2010 dans une clinique de rhumatologie située en banlieue de Montréal. Un niveau de priorité leur a été attribué sur la base du contenu de la demande de consultation, de l’information obtenue à la suite d’une entrevue téléphonique avec le patient et, si requis, d’un examen partiel des articulations. Les patients avec PARD, avec une arthrite inflammatoire non différentiée, ou atteints d’une autre pathologie rhumatologique aiguë étaient priorisés et obtenaient un rendez-vous le plus rapidement possible. Les principales mesures de résultat étudiées étaient la validité (sensibilité et spécificité) du triage pour les patients atteints de PARD ainsi que les délais entre la demande de consultation et la première visite avec un rhumatologue. Résultats : Parmi les 701 patients nouvellement référés, 65 ont eu un diagnostic final de PARD. Le triage a correctement identifié 85,9% de ces patients et a correctement identifié 87,2% des patients avec l’une des pathologies prioritaires. Le délai médian entre la demande de consultation et la première visite était de 22 jours pour les patients atteints de PARD et de 115 pour tous les autres. Discussion et conclusion : Ce programme d’accès rapide avec triage effectué par une infirmière a correctement identifié la plupart des patients atteints de PARD, lesquels ont pu être vus rapidement en consultation par le rhumatologue. Considérant qu’il s’agit d’un programme qui requiert beaucoup d’investissement de temps et de personnel, des enjeux de faisabilités doivent être résolus avant de pouvoir implanter un tel type de programme dans un système de soins de santé ayant des ressources très limitées.
Resumo:
Contexte : Jusqu’à 90% des fumeurs qui tentent d’arrêter de fumer vont rechuter dans l’année suivant la date d’arrêt. L’impulsivité, au même titre que le « craving », a démontré être un bon facteur de prédiction de la rechute tabagique. Ainsi, la présente étude visait à évaluer, à l’aide de la neuroimagerie fonctionnelle, l’influence de l’impulsivité sur les mécanismes neuronaux du « craving » de la cigarette. Parmi les régions cérébrales impliquées dans le « craving » de la nicotine, les cortex préfrontal dorsolatéral, orbitofrontal et cingulaire sont d’importantes structures dans les processus de contrôle de soi. Méthodes : 31 fumeurs chroniques ont passé une session de neuroimagerie durant laquelle ils devaient regarder des images appétitives de cigarettes et des images neutres. Ils ont ensuite dû inscrire le « craving » ressenti à la vue des images et répondre à un questionnaire portant sur les traits de personnalité de l’impulsivité (BIS-11). Résultats : Tel qu’attendu, le score d’impulsivité était positivement corrélé au « craving » rapporté par les participants à la vue d’images de cigarettes. Au niveau cérébral, plus les fumeurs présentaient de forts traits d’impulsivité, moins grande était l’activité du cortex cingulaire postérieur (CCP) durant le « craving ». Enfin, l’activité du CCP présentait une connectivité fonctionnelle négative avec l’insula, le cortex préfrontal dorsolatéral et le cortex cingulaire antérieur. Conclusions : Comme le CCP est le siège des processus de mentalisation et de référence à soi, nous suggérons que plus les fumeurs étaient impulsifs, moins ils prenaient conscience de leur état et moins ils en exerçaient un contrôle, donc plus ils ressentaient de forts « cravings ». En poussant plus loin, nos résultats mettent l’accent sur l’aspect identitaire (le soi, les mémoires autobiographiques) et l’aspect d’introspection en toxicomanie : deux avenues à explorer.
Resumo:
Nous proposons dans cette thèse un système permettant de déterminer, à partir des données envoyées sur les microblogs, les évènements qui stimulent l’intérêt des utilisateurs durant une période donnée et les dates saillantes de chaque évènement. Étant donné son taux d’utilisation élevé et l’accessibilité de ses données, nous avons utilisé la plateforme Twitter comme source de nos données. Nous traitons dans ce travail les tweets portant sur la Tunisie dont la plupart sont écrits par des tunisiens. La première tâche de notre système consistait à extraire automatiquement les tweets d’une façon continue durant 67 jours (de 8 février au 15 avril 2012). Nous avons supposé qu’un évènement est représenté par plusieurs termes dont la fréquence augmente brusquement à un ou plusieurs moments durant la période analysée. Le manque des ressources nécessaires pour déterminer les termes (notamment les hashtags) portant sur un même sujet, nous a obligé à proposer des méthodes permettant de regrouper les termes similaires. Pour ce faire, nous avons eu recours à des méthodes phonétiques que nous avons adaptées au mode d’écriture utilisée par les tunisiens, ainsi que des méthodes statistiques. Pour déterminer la validité de nos méthodes, nous avons demandé à des experts, des locuteurs natifs du dialecte tunisien, d’évaluer les résultats retournés par nos méthodes. Ces groupes ont été utilisés pour déterminer le sujet de chaque tweet et/ou étendre les tweets par de nouveaux termes. Enfin, pour sélectionner l'ensemble des évènements (EV), nous nous sommes basés sur trois critères : fréquence, variation et TF-IDF. Les résultats que nous avons obtenus ont montré la robustesse de notre système.
Resumo:
L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.
Resumo:
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.
Resumo:
Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)
Resumo:
Domaine en plein développement, le transfert des connaissances (TC) se définit, comme l’ensemble des activités, des mécanismes et des processus favorisant l’utilisation de connaissances pertinentes (tacites et empiriques) par un public cible tel que les intervenants psychosociaux. Cette recherche vise à améliorer l’efficacité des méthodes linéaires écrites de TC en identifiant mieux les besoins d’information des intervenants en protection de la jeunesse. Notons que les méthodes linéaires écrites de TC désignent des outils d’information écrits unidirectionnels tels que les revues, les publications, les sites Internet, etc. Le premier objectif est de déterminer les catégories de besoins exprimés par les intervenants, c’est-à-dire déterminer si les besoins rapportés par des intervenants se regroupent en types ou sortes de besoins. Le deuxième objectif est d’établir l’importance relative de chacune de ces catégories. Enfin, cette étude vise à déterminer si ces besoins diffèrent selon les caractéristiques des intervenants ou de l’environnement. Deux facteurs sont étudiés, l’expérience de l’intervenant et la direction pour laquelle celui-ci travaille (Direction des services milieu à l’enfance ou Direction des services milieu à l’adolescence et ressources). Un devis mixte séquentiel exploratoire a été développé. Lors de la première étape, une analyse thématique a été effectuée à partir des réponses à une question ouverte posée aux membres de trois équipes et à partir d’un document résumant les requêtes effectuées auprès de l’équipe de la bibliothèque du Centre jeunesse de Montréal. Les résultats permettent de répondre au premier objectif de ce mémoire. En effet, les analyses ont permis de créer un arbre thématique comprenant 42 éléments classés hiérarchiquement. Les besoins se regroupent en deux thèmes généraux, soit les besoins qui concernent les « opérations » (c’est-à-dire l’action de l’intervenant) et les besoins concernant les « systèmes » (c’est-à-dire les éléments sur lesquels peuvent porter l’intervention). Cette dernière catégorie se subdivise entre l’usager, ses environnements et le contexte culturel et sociétal. Lors de la deuxième étape, une analyse de la variance (ANOVA) et une analyse de variance multivariée (MANOVA) ont été effectuées à partir des réponses de 82 intervenants à un questionnaire en ligne structuré selon les catégories de besoins d’informations déterminées à l’étape qualitative précédente. Les résultats permettent de répondre au deuxième objectif de ce mémoire et de mesurer le degré de force ou d’importance de chacune des catégories de besoins, identifiées lors de la première étape, selon les intervenants eux-mêmes. Les besoins ont ainsi pu être classés par ordre décroissant d’importance. Il a été possible de définir un groupe de neuf besoins prioritaires (portant sur l’animation, les caractéristiques personnelles des usagers, les caractéristiques des parents et leurs relations avec l’enfant, ainsi que l’intervention interculturelle et les problématiques sociales) et un autre groupe de sept besoins moins élevés (portant sur les autres « opérations » et les services professionnels dont a bénéficié l’usager). L’interprétation de ces résultats indique que les besoins en TC des intervenants se limitent aux informations qui concernent directement leur mandat, leur pratique ou les problématiques rencontrées. Les résultats de cette étape ont également permis de répondre au troisième objectif de ce mémoire. En effet, les résultats indiquent que l’importance ressentie des besoins (sur une échelle de 1 à 7) ne diffère pas significativement selon la direction pour laquelle travaille l’intervenant, mais elle diffère significativement selon l’expérience de ce dernier (moins de 10 ans ou plus de 10 ans). Cette différence est discutée et plusieurs hypothèses explicatives sont envisagées telles que l’accumulation de connaissances liée à l’expérience ou les changements cognitifs liés à l’expertise. Enfin, dans la discussion, les résultats sont mis en contexte parmi les autres types de besoins existants et les autres caractéristiques des connaissances qui doivent être prises en considération. Cela permet de formuler des recommandations pour améliorer la production de documents écrits ainsi que pour poursuivre la recherche dans le domaine de l’évaluation des besoins de TC. Bien que présentant certaines limites méthodologiques, cette recherche ouvre la voie au développement de meilleurs outils d’évaluation des besoins et à l’amélioration des techniques de transfert linéaires écrites.
Resumo:
This Thesis deals with the fabrication and characterization of novel all-fiber components for access networks. All fiber components offer distinctive advantages due to low forward and backward losses, epoxy free optical path and high power handling. A novel fabrication method for monolithic 1x4 couplers, which are vital components in distributed passive optical networks, is realized. The fabrication method differs from conventional structures with a symmetric coupling profile and hence offers ultra wideband performance and easy process control. New structure for 1x4 couplers, by fusing five fibers is proposed to achieve high uniformity, which gives equivalent uniformity performance to 1x4 planar lightwave splitters, isolation in fused fiber WDM is improved with integration of long period gratings. Packaging techniques of fused couplers are analyzed for long term stability.