970 resultados para Large Eddy Simulation (LES)
Resumo:
Ce mémoire visait à comprendre la dynamique temporelle et les patrons floristiques actuels de deux tourbières du sud-ouest du Québec (Small et Large Tea Field) et à identifier les facteurs anthropiques, environnementaux et spatiaux sous-jacents. Pour répondre aux objectifs, des inventaires floristiques anciens (1985) ont d’abord été comparés à des inventaires récents (2012) puis les patrons actuels et les facteurs sous-jacents ont été identifiés à l’aide d’analyses multi-variables. Mes résultats montrent d’abord qu’un boisement important s’est produit au cours des 30 dernières années dans les tourbières à l’étude, probablement en lien avec le drainage des terres agricoles avoisinantes, diminuant la hauteur de la nappe phréatique. Simultanément, les sphaignes ont proliférées dans le centre des sites s’expliquant par une recolonisation des secteurs ayant brûlés en 1983. D’autre part, mes analyses ont montré que les patrons floristiques actuels étaient surtout liés aux variables environnementales (pH et conductivité de l’eau, épaisseur des dépôts), bien que la variance associée aux activités humaines était aussi significative, notamment dans la tourbière Large (18.6%). Les patrons floristiques ainsi que les variables environnementales et anthropiques explicatives étaient aussi fortement structurés dans l’espace, notamment selon un gradient bordure-centre. Enfin, la diversité béta actuelle était surtout liée à la présence d’espèces non-tourbicoles ou exotiques. Globalement, cette étude a montré que les perturbations humaines passées et actuelles avaient un impact important sur la dynamique et la distribution de la végétation des tourbières Small et Large Tea Field.
Resumo:
Ce mémoire a pour objectif de comprendre l’impact des avantages sociaux novateurs et des avantages sociaux traditionnels sur l’intention de rester des travailleurs via l’effet médiateur de l’engagement organisationnel. Pour étudier cette question, nous avons émis trois hypothèses basées sur notre revue de littérature ainsi que sur les théories de l’échange social de Blau (1964) et de la dépendance à l’égard des ressources de Balkin et Bannister (1993). La première hypothèse stipule que les avantages sociaux novateurs ont un impact positif et indirect sur l’intention de rester via l’engagement organisationnel. La deuxième hypothèse indique que les avantages sociaux traditionnels ont un impact positif et indirect sur l’intention de rester via l’engagement organisationnel. La dernière hypothèse suggère que les avantages sociaux novateurs ont un impact plus important sur l’intention de rester que les avantages sociaux traditionnels via l’engagement organisationnel. Les données utilisées, de nature longitudinale, proviennent d’une enquête plus large portant sur « les liens entre la rémunération, la formation et le développement de compétences avec l’attraction et la rétention des employés clés ». L’échantillon est composé de 235 nouveaux travailleurs embauchés entre le 1er avril 2009 et le 30 septembre 2010 d’une entreprise multinationale du secteur des technologies de l’information et des communications (TIC) localisée à Montréal. Nos résultats confirment nos deux premières hypothèses. En effet, nos résultats indiquent que les avantages sociaux traditionnels et les avantages sociaux novateurs ont un impact positif sur l’intention de rester des travailleurs via l’effet médiateur de l’engagement organisationnel. Nos résultats indiquent également que les avantages sociaux traditionnels ont un impact plus significatif que les avantages sociaux novateurs sur l’intention de rester via l’effet médiateur de l’engagement organisationnel. Le soutien organisationnel perçu et le travail sous supervision ont également un impact important sur l’intention de rester des travailleurs. Finalement, nous indiquons en conclusion les implications pratiques de ce mémoire pour les gestionnaires du secteur des TIC en matière de fidélisation des travailleurs. Nous présentons également les limites de notre étude et des pistes de recherches futures.
Resumo:
The influence of surface waves and an applied wind stress is studied in an ensemble of large eddy simulations to investigate the nature of deeply penetrating jets into an unstratified mixed layer. The influence of a steady monochromatic surface wave propagating parallel to the wind direction is parameterized using the wave-filtered Craik-Leibovich equations. Tracer trajectories and instantaneous downwelling velocities reveal classic counterrotating Langmuir rolls. The associated downwelling jets penetrate to depths in excess of the wave's Stokes depth scale, δs. Qualitative evidence suggests the depth of the jets is controlled by the Ekman depth scale. Analysis of turbulent kinetic energy (tke) budgets reveals a dynamical distinction between Langmuir turbulence and shear-driven turbulence. In the former, tke production is dominated by Stokes shear and a vertical flux term transports tke to a depth where it is dissipated. In the latter, tke production is from the mean shear and is locally balanced by dissipation. We define the turbulent Langmuir number Lat = (v*/Us)0.5 (v* is the ocean's friction velocity and Us is the surface Stokes drift velocity) and a turbulent anisotropy coefficient Rt = /( + ). The transition between shear-driven and Langmuir turbulence is investigated by varying external wave parameters δs and Lat and by diagnosing Rt and the Eulerian mean and Stokes shears. When either Lat or δs are sufficiently small the Stokes shear dominates the mean shear and the flow is preconditioned to Langmuir turbulence and the associated deeply penetrating jets.
Resumo:
The identification of signatures of natural selection in genomic surveys has become an area of intense research, stimulated by the increasing ease with which genetic markers can be typed. Loci identified as subject to selection may be functionally important, and hence (weak) candidates for involvement in disease causation. They can also be useful in determining the adaptive differentiation of populations, and exploring hypotheses about speciation. Adaptive differentiation has traditionally been identified from differences in allele frequencies among different populations, summarised by an estimate of F-ST. Low outliers relative to an appropriate neutral population-genetics model indicate loci subject to balancing selection, whereas high outliers suggest adaptive (directional) selection. However, the problem of identifying statistically significant departures from neutrality is complicated by confounding effects on the distribution of F-ST estimates, and current methods have not yet been tested in large-scale simulation experiments. Here, we simulate data from a structured population at many unlinked, diallelic loci that are predominantly neutral but with some loci subject to adaptive or balancing selection. We develop a hierarchical-Bayesian method, implemented via Markov chain Monte Carlo (MCMC), and assess its performance in distinguishing the loci simulated under selection from the neutral loci. We also compare this performance with that of a frequentist method, based on moment-based estimates of F-ST. We find that both methods can identify loci subject to adaptive selection when the selection coefficient is at least five times the migration rate. Neither method could reliably distinguish loci under balancing selection in our simulations, even when the selection coefficient is twenty times the migration rate.
Resumo:
The P-found protein folding and unfolding simulation repository is designed to allow scientists to perform analyses across large, distributed simulation data sets. There are two storage components in P-found: a primary repository of simulation data and a data warehouse. Here we demonstrate how grid technologies can support multiple, distributed P-found installations. In particular we look at two aspects, first how grid data management technologies can be used to access the distributed data warehouses; and secondly, how the grid can be used to transfer analysis programs to the primary repositories --- this is an important and challenging aspect of P-found because the data volumes involved are too large to be centralised. The grid technologies we are developing with the P-found system will allow new large data sets of protein folding simulations to be accessed and analysed in novel ways, with significant potential for enabling new scientific discoveries.
Resumo:
The P-found protein folding and unfolding simulation repository is designed to allow scientists to perform data mining and other analyses across large, distributed simulation data sets. There are two storage components in P-found: a primary repository of simulation data that is used to populate the second component, and a data warehouse that contains important molecular properties. These properties may be used for data mining studies. Here we demonstrate how grid technologies can support multiple, distributed P-found installations. In particular, we look at two aspects: firstly, how grid data management technologies can be used to access the distributed data warehouses; and secondly, how the grid can be used to transfer analysis programs to the primary repositories — this is an important and challenging aspect of P-found, due to the large data volumes involved and the desire of scientists to maintain control of their own data. The grid technologies we are developing with the P-found system will allow new large data sets of protein folding simulations to be accessed and analysed in novel ways, with significant potential for enabling scientific discovery.
Resumo:
The ability of six scanning cloud radar scan strategies to reconstruct cumulus cloud fields for radiation study is assessed. Utilizing snapshots of clean and polluted cloud fields from large eddy simulations, an analysis is undertaken of error in both the liquid water path and monochromatic downwelling surface irradiance at 870 nm of the reconstructed cloud fields. Error introduced by radar sensitivity, choice of radar scan strategy, retrieval of liquid water content (LWC), and reconstruction scheme is explored. Given an in␣nitely sensitive radar and perfect LWC retrieval, domain average surface irradiance biases are typically less than 3 W m␣2 ␣m␣1, corresponding to 5–10% of the cloud radiative effect (CRE). However, when using a realistic radar sensitivity of ␣37.5 dBZ at 1 km, optically thin areas and edges of clouds are dif␣cult to detect due to their low radar re-ectivity; in clean conditions, overestimates are of order 10 W m␣2 ␣m␣1 (~20% of the CRE), but in polluted conditions, where the droplets are smaller, this increases to 10–26 W m␣2 ␣m␣1 (~40–100% of the CRE). Drizzle drops are also problematic; if treated as cloud droplets, reconstructions are poor, leading to large underestimates of 20–46 W m␣2 ␣m␣1 in domain average surface irradiance (~40–80% of the CRE). Nevertheless, a synergistic retrieval approach combining the detailed cloud structure obtained from scanning radar with the droplet-size information and location of cloud base gained from other instruments would potentially make accurate solar radiative transfer calculations in broken cloud possible for the first time.
Resumo:
Inverse methods are widely used in various fields of atmospheric science. However, such methods are not commonly used within the boundary-layer community, where robust observations of surface fluxes are a particular concern. We present a new technique for deriving surface sensible heat fluxes from boundary-layer turbulence observations using an inverse method. Doppler lidar observations of vertical velocity variance are combined with two well-known mixed-layer scaling forward models for a convective boundary layer (CBL). The inverse method is validated using large-eddy simulations of a CBL with increasing wind speed. The majority of the estimated heat fluxes agree within error with the proscribed heat flux, across all wind speeds tested. The method is then applied to Doppler lidar data from the Chilbolton Observatory, UK. Heat fluxes are compared with those from a mast-mounted sonic anemometer. Errors in estimated heat fluxes are on average 18 %, an improvement on previous techniques. However, a significant negative bias is observed (on average −63%) that is more pronounced in the morning. Results are improved for the fully-developed CBL later in the day, which suggests that the bias is largely related to the choice of forward model, which is kept deliberately simple for this study. Overall, the inverse method provided reasonable flux estimates for the simple case of a CBL. Results shown here demonstrate that this method has promise in utilizing ground-based remote sensing to derive surface fluxes. Extension of the method is relatively straight-forward, and could include more complex forward models, or other measurements.
Resumo:
Y aurait-il un lien indissoluble entre révolution et terreur? de nos jours, une partie de ce qui a été autrefois la gauche y croit Contre l'idée de révolution, saisie corne la source du totalitarisme, on propose le renforcement de la démocratie. Cet article a l'intention de contribuer à ce débat en montrant l'alternative révolutionnaire et démocratique présentée par Rosa Luxemburg. Pour elle la démocratie n'est pas une valeur universelle abstraite mais justement le résultat d'un processus révolutionnaire où les masses prolétariennes, agissant dans la plus large liberté, lancent les fondements d'une nouvelle époque. Néanmoins la révolution allemande où Rosa Luxemburg et Karl Liebknecht ont eu un rôle de premier plan avorte et ils sont assassinés. Cette défaite trace, d'une certaine manière, le destin de l'Allemagne contemporaine.
Resumo:
The thesis is concerned with local trigonometric regression methods. The aim was to develop a method for extraction of cyclical components in time series. The main results of the thesis are the following. First, a generalization of the filter proposed by Christiano and Fitzgerald is furnished for the smoothing of ARIMA(p,d,q) process. Second, a local trigonometric filter is built, with its statistical properties. Third, they are discussed the convergence properties of trigonometric estimators, and the problem of choosing the order of the model. A large scale simulation experiment has been designed in order to assess the performance of the proposed models and methods. The results show that local trigonometric regression may be a useful tool for periodic time series analysis.
Resumo:
Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.
Resumo:
The lack of analytical models that can accurately describe large-scale networked systems makes empirical experimentation indispensable for understanding complex behaviors. Research on network testbeds for testing network protocols and distributed services, including physical, emulated, and federated testbeds, has made steady progress. Although the success of these testbeds is undeniable, they fail to provide: 1) scalability, for handling large-scale networks with hundreds or thousands of hosts and routers organized in different scenarios, 2) flexibility, for testing new protocols or applications in diverse settings, and 3) inter-operability, for combining simulated and real network entities in experiments. This dissertation tackles these issues in three different dimensions. First, we present SVEET, a system that enables inter-operability between real and simulated hosts. In order to increase the scalability of networks under study, SVEET enables time-dilated synchronization between real hosts and the discrete-event simulator. Realistic TCP congestion control algorithms are implemented in the simulator to allow seamless interactions between real and simulated hosts. SVEET is validated via extensive experiments and its capabilities are assessed through case studies involving real applications. Second, we present PrimoGENI, a system that allows a distributed discrete-event simulator, running in real-time, to interact with real network entities in a federated environment. PrimoGENI greatly enhances the flexibility of network experiments, through which a great variety of network conditions can be reproduced to examine what-if questions. Furthermore, PrimoGENI performs resource management functions, on behalf of the user, for instantiating network experiments on shared infrastructures. Finally, to further increase the scalability of network testbeds to handle large-scale high-capacity networks, we present a novel symbiotic simulation approach. We present SymbioSim, a testbed for large-scale network experimentation where a high-performance simulation system closely cooperates with an emulation system in a mutually beneficial way. On the one hand, the simulation system benefits from incorporating the traffic metadata from real applications in the emulation system to reproduce the realistic traffic conditions. On the other hand, the emulation system benefits from receiving the continuous updates from the simulation system to calibrate the traffic between real applications. Specific techniques that support the symbiotic approach include: 1) a model downscaling scheme that can significantly reduce the complexity of the large-scale simulation model, resulting in an efficient emulation system for modulating the high-capacity network traffic between real applications; 2) a queuing network model for the downscaled emulation system to accurately represent the network effects of the simulated traffic; and 3) techniques for reducing the synchronization overhead between the simulation and emulation systems.
Resumo:
En avril 1975, les Khmers rouges prennent le pouvoir du Cambodge et forcent l’évacuation presque complète des villes du pays vers les campagnes. Le régime restreint à l’extrême les droits individuels, dont la propriété privée. À la chute du régime khmer rouge en janvier 1979, le foncier urbain est en théorie détaché de tous droits antérieurs. Par une enquête historique et ethnographique menée à Battambang, ce mémoire explore comment les relations de propriété autour des ressources foncières et immobilières préexistantes de la ville se sont développées dans ce contexte. Il examine plus précisément les mécanismes d’accès et d’exclusion, issus à la fois des normes politico-légales et de la coutume, qui ont alors légitimé la propriété sur divers types de biens immobiliers situés surtout en ville. La recherche couvre une période historique allant de 1979 à 1992-1993, années de la transition du régime socialiste vers une démocratie libérale. Les résultats montrent que plusieurs logiques d’accès et de possession se sont croisées durant ces années, souvent en marge de la loi et parfois de manière conflictuelle et violente. La diversité de relations de propriété révélée par l’éclairage historique « par en bas » nuance l’idée que l’allocation de la propriété en contexte socialiste a été essentiellement chaotique et contrôlée par un État néopatrimonial. Elle nuance aussi l’idée qu’une pleine privatisation de la propriété a eu lieu au tournant des années 1990. Les nombreuses frictions qui ont résulté de cette formalisation, particulièrement entre l’État local et les petits occupants, invitent à conceptualiser la propriété de manière plus large et à repenser les penchants normatifs pour un régime foncier strict basé sur des droits de propriété individuels et exclusifs, particulièrement dans des régimes post-conflit. En outre, le mémoire sert à donner une profondeur historique à la crise foncière que connaît actuellement le Cambodge.
Resumo:
Les sources laser à large bande possédant les caractéristiques requises pour émettre sur la plage spectrale correspondant à la seconde fenêtre de transmission atmosphérique (3 à 5 μm) exercent un attrait considérable pour divers domaines tels que la télédétection de polluants atmosphériques et les contremesures infrarouges. Les supercontinua générés à l’intérieur de fibres optiques représentent une option intéressante pour réaliser ce type de sources laser. En effet, ils possèdent une intensité élevée, un large contenu spectral, une excellente directionnalité de faisceau, ainsi qu’un bon potentiel pour constituer des sources lumineuses compactes et robustes. Toutefois, la génération d’un tel supercontinuum implique certains défis à relever sur le plan de la conception des fibres optiques employées. En fait, ces fibres optiques doivent présenter de faibles pertes de propagation sur la plage spectrale de 3 à 5 μm, posséder un paramètre de non-linéarité élevé et permettre le pompage en régime anomal de dispersion à des longueurs d’onde pour lesquelles des sources laser compactes sont offertes commercialement. En matière de robustesse, ces fibres doivent également démontrer de bonnes propriétés mécaniques ainsi qu’une stabilité chimique appropriée vis-à-vis de la corrosion causée par l’humidité. Dans le cadre de cette thèse, un nouveau type de fibres composites à saut d’indice fortement contrasté a été développé pour atteindre ces objectifs de génération de supercontinuum. Ce type de fibres combine respectivement un verre de tellurite et un verre de germanate pour son coeur et sa gaine permettant ainsi d’atteindre une différence d’indice de réfraction d’environ 0.3 entre ces deux dernières structures. Grâce à cet important saut d’indice, ces fibres peuvent fortement confiner les modes optiques à l’intérieur de leur coeur, ce qui leur donne la possibilité d’atteindre un niveau élevé de non-linéarité et d’optimiser leurs caractéristiques de dispersion chromatique pour la génération du supercontinuum. D’autre part, leur section transversale toute solide leur confère aussi une meilleure stabilité environnementale comparativement à celle démontrée par les fibres optiques microstructurées à base de verres d’oxydes de métaux lourds, de verres de chalcogénure et de verres fluorés. Toutefois, leur fabrication nécessite l’appariement de verres dont les propriétés thermomécaniques concordent suffisamment ensemble pour permettre leur fibrage. Les travaux effectués ici démontrent la production de fibres optiques composites et leur potentiel pour la génération du supercontinuum dans l’infrarouge moyen.