976 resultados para Ionospheric electromagnetic
Resumo:
Electrical machine drives are the most electrical energy-consuming systems worldwide. The largest proportion of drives is found in industrial applications. There are, however many other applications that are also based on the use of electrical machines, because they have a relatively high efficiency, a low noise level, and do not produce local pollution. Electrical machines can be classified into several categories. One of the most commonly used electrical machine types (especially in the industry) is induction motors, also known as asynchronous machines. They have a mature production process and a robust rotor construction. However, in the world pursuing higher energy efficiency with reasonable investments not every application receives the advantage of using this type of motor drives. The main drawback of induction motors is the fact that they need slipcaused and thus loss-generating current in the rotor, and additional stator current for magnetic field production along with the torque-producing current. This can reduce the electric motor drive efficiency, especially in low-speed, low-power applications. Often, when high torque density is required together with low losses, it is desirable to apply permanent magnet technology, because in this case there is no need to use current to produce the basic excitation of the machine. This promotes the effectiveness of copper use in the stator, and further, there is no rotor current in these machines. Again, if permanent magnets with a high remanent flux density are used, the air gap flux density can be higher than in conventional induction motors. These advantages have raised the popularity of PMSMs in some challenging applications, such as hybrid electric vehicles (HEV), wind turbines, and home appliances. Usually, a correctly designed PMSM has a higher efficiency and consequently lower losses than its induction machine counterparts. Therefore, the use of these electrical machines reduces the energy consumption of the whole system to some extent, which can provide good motivation to apply permanent magnet technology to electrical machines. However, the cost of high performance rare earth permanent magnets in these machines may not be affordable in many industrial applications, because the tight competition between the manufacturers dictates the rules of low-cost and highly robust solutions, where asynchronous machines seem to be more feasible at the moment. Two main electromagnetic components of an electrical machine are the stator and the rotor. In the case of a conventional radial flux PMSM, the stator contains magnetic circuit lamination and stator winding, and the rotor consists of rotor steel (laminated or solid) and permanent magnets. The lamination itself does not significantly influence the total cost of the machine, even though it can considerably increase the construction complexity, as it requires a special assembly arrangement. However, thin metal sheet processing methods are very effective and economically feasible. Therefore, the cost of the machine is mainly affected by the stator winding and the permanent magnets. The work proposed in this doctoral dissertation comprises a description and analysis of two approaches of PMSM cost reduction: one on the rotor side and the other on the stator side. The first approach on the rotor side includes the use of low-cost and abundant ferrite magnets together with a tooth-coil winding topology and an outer rotor construction. The second approach on the stator side exploits the use of a modular stator structure instead of a monolithic one. PMSMs with the proposed structures were thoroughly analysed by finite element method based tools (FEM). It was found out that by implementing the described principles, some favourable characteristics of the machine (mainly concerning the machine size) will inevitable be compromised. However, the main target of the proposed approaches is not to compete with conventional rare earth PMSMs, but to reduce the price at which they can be implemented in industrial applications, keeping their dimensions at the same level or lower than those of a typical electrical machine used in the industry at the moment. The measurement results of the prototypes show that the main performance characteristics of these machines are at an acceptable level. It is shown that with certain specific actions it is possible to achieve a desirable efficiency level of the machine with the proposed cost reduction methods.
Resumo:
Several methods are used to estimate anaerobic threshold (AT) during exercise. The aim of the present study was to compare AT obtained by a graphic visual method for the estimate of ventilatory and metabolic variables (gold standard), to a bi-segmental linear regression mathematical model of Hinkley's algorithm applied to heart rate (HR) and carbon dioxide output (VCO2) data. Thirteen young (24 ± 2.63 years old) and 16 postmenopausal (57 ± 4.79 years old) healthy and sedentary women were submitted to a continuous ergospirometric incremental test on an electromagnetic braking cycloergometer with 10 to 20 W/min increases until physical exhaustion. The ventilatory variables were recorded breath-to-breath and HR was obtained beat-to-beat over real time. Data were analyzed by the nonparametric Friedman test and Spearman correlation test with the level of significance set at 5%. Power output (W), HR (bpm), oxygen uptake (VO2; mL kg-1 min-1), VO2 (mL/min), VCO2 (mL/min), and minute ventilation (VE; L/min) data observed at the AT level were similar for both methods and groups studied (P > 0.05). The VO2 (mL kg-1 min-1) data showed significant correlation (P < 0.05) between the gold standard method and the mathematical model when applied to HR (r s = 0.75) and VCO2 (r s = 0.78) data for the subjects as a whole (N = 29). The proposed mathematical method for the detection of changes in response patterns of VCO2 and HR was adequate and promising for AT detection in young and middle-aged women, representing a semi-automatic, non-invasive and objective AT measurement.
Resumo:
Acute cerebral hemorrhage (ACH) is an important clinical problem that is often monitored and studied with expensive devices such as computed tomography, magnetic resonance imaging, and positron emission tomography. These devices are not readily available in economically underdeveloped regions of the world, emergency departments, and emergency zones. We have developed a less expensive tool for non-contact monitoring of ACH. The system measures the magnetic induction phase shift (MIPS) between the electromagnetic signals on two coils. ACH was induced in 6 experimental rabbits and edema was induced in 4 control rabbits by stereotactic methods, and their intracranial pressure and heart rate were monitored for 1 h. Signals were continuously monitored for up to 1 h at an exciting frequency of 10.7 MHz. Autologous blood was administered to the experimental group, and saline to the control group (1 to 3 mL) by injection of 1-mL every 5 min. The results showed a significant increase in MIPS as a function of the injection volume, but the heart rate was stable. In the experimental (ACH) group, there was a statistically significant positive correlation of the intracranial pressure and MIPS. The change of MIPS was greater in the ACH group than in the control group. This high-sensitivity system could detect a 1-mL change in blood volume. The MIPS was significantly related to the intracranial pressure. This observation suggests that the method could be valuable for detecting early warning signs in emergency medicine and critical care units.
Resumo:
PhotoAcoustic Imaging (PAI) is a branch in clinical and pre-clinical imaging, that refers to the techniques mapping acoustic signals caused by the absorption of the short laser pulse. This conversion of electromagnetic energy of the light to the mechanical (acoustic) energy is usually called photoacoustic effect. PAI, by combining optical excitation with acoustical detection, is able to preserve the diffraction limited spatial resolution. At the same time, the penetration depth is extended beyond the diffusive limit. The Laser-Scanning PhotoAcoustic Microscope system (LS-PAM) has been developed, that offers the axial resolution of 7.75 µm with the lateral resolution better than 10 µm. The first in vivo imaging experiments were carried out. Thus, in vivo label-free imaging of the mouse ear was performed. The principle possibility to image vessels located in deep layers of the mouse skin was shown. As well as that, a gold printing sample, vasculature of the Chick Chorioallantoic Membrane Assay, Drosophila larvae were imaged by PAI. During the experimental work, a totally new application of PAM was found, in which the acoustic waves, generated by incident light can be used for further imaging of another sample. In order to enhance the performance of the presented system two main recommendation can be offered. First, the current system should be transformed into reflection-mode setup system. Second, a more powerful source of light with the sufficient repetition rate should be introduced into the system.
Resumo:
Aktiivinen magneettilaakeri on järjestelmä joka mahdollistaa pyörivän kappaleen, esimerkiksi sähkökoneen roottorin, leijuttamisen magneettikentässä ilman fyysistä kontaktia vastakappaleiden välillä. Tekniikalla on joitain merkittäviä etuja muihin laakerointijärjestelmiin verrattuna erityisesti suurnopeuksisissa tai puhdastiloissa käytettävissä sähkökäytöissä. Magneettilaakereiden yleistymistä nopeuttaisi ja niiden hintaa laskisi mikäli laakereiden säätöön ja tehonsyöttöön voitaisiin käyttää standardeja teollisuusautomaatiolaitteita erityisesti tätä käyttötarkoitusta varten kehitettyjen laitteiden sijaan. Tässä työssä luodaan menetelmä määrittää vähimmäisvaatimukset aktiivisen magneettilaakerin säätöalgoritmien suorittamiseen käytetylle säätöjärjestelmälle ja anturoinnille sekä laakerin toimintaan tarvittavalle tehoelektroniikalle. Näiden vaatimusten perusteella luodaan katsaus soveltuviin laitteisiin ja kootaan esimerkkikokoonpanot kahdelle erilaiselle magneettilaakeroitavalle kohteelle. Lisäksi työssä esitellään LUT:ssa vuosina 2014-2015 kehitetty magneettilaakerin teholähdeprototyyppi ja selvitetään edellytykset käyttää laitetta laakerijärjestelmän osana.
Power Electronic Converters in Low-Voltage Direct Current Distribution – Analysis and Implementation
Resumo:
Over the recent years, smart grids have received great public attention. Many proposed functionalities rely on power electronics, which play a key role in the smart grid, together with the communication network. However, “smartness” is not the driver that alone motivates the research towards distribution networks based on power electronics; the network vulnerability to natural hazards has resulted in tightening requirements for the supply security, set both by electricity end-users and authorities. Because of the favorable price development and advancements in the field, direct current (DC) distribution has become an attractive alternative for distribution networks. In this doctoral dissertation, power electronic converters for a low-voltage DC (LVDC) distribution system are investigated. These include the rectifier located at the beginning of the LVDC network and the customer-end inverter (CEI) on the customer premises. Rectifier topologies are introduced, and according to the LVDC system requirements, topologies are chosen for the analysis. Similarly, suitable CEI topologies are addressed and selected for study. Application of power electronics into electricity distribution poses some new challenges. Because the electricity end-user is supplied with the CEI, it is responsible for the end-user voltage quality, but it also has to be able to supply adequate current in all operating conditions, including a short-circuit, to ensure the electrical safety. Supplying short-circuit current with power electronics requires additional measures, and therefore, the short-circuit behavior is described and methods to overcome the high-current supply to the fault are proposed. Power electronic converters also produce common-mode (CM) and radio-frequency (RF) electromagnetic interferences (EMI), which are not present in AC distribution. Hence, their magnitudes are investigated. To enable comprehensive research on the LVDC distribution field, a research site was built into a public low-voltage distribution network. The implementation was a joint task by the LVDC research team of Lappeenranta University of Technology and a power company Suur-Savon S¨ahk¨o Oy. Now, the measurements could be conducted in an actual environment. This is important especially for the EMI studies. The main results of the work concern the short-circuit operation of the CEI and the EMI issues. The applicability of the power electronic converters to electricity distribution is demonstrated, and suggestions for future research are proposed.
Resumo:
K-(BETS)2FeBr4 is a quasi-2D charge transfer organic metal with interesting electronic and magnetic properties. It undergoes a transition to an antiferromagnetic (AF) state at ambient pressure at the Neel temperature (T^^) = 2.5 K, as well as to a superconducting (SC) state at 1.1 K [1]. The temperature dependence of the electrical resistivity shows a small decrease at T;v indicating the resistivity drops as a result of the onset of the ordering of Fe'*''" spins. A sharp drop in the resistivity at 1.1 K is due to its superconducting transition. The temperature dependence of the susceptibility indicates an antiferromagnetic spin structure with the easy axis parallel to the a-axis. The specific heat at zero-field shows a large peak at about 2.4 K, which corresponds to the antiferromagnetic transition temperature (Tat) and no anomaly is observed around the superconducting transition temperature (1.1 K) demonstrating that the magnetically ordered state is not destroyed by the appearance of another phase transition (the superconducting transition) in the 7r-electron layers [1], [2]. This work presents an investigation of how the low frequency electromagnetic response is affected by the antiferromagnetic and superconducting states, as well as the onset of strong correlation. The location of the easy axis of three samples was determined and polarized thermal reflectance measurements of these «-(BETS)2FeBr4 samples oriented with their vertical axis along the a- and c axes were then carried out using a *He refrigerator cryostat and a Martin-Puplett type polarizing interferometer at various temperatures (T = 0.5 K, 1.4 K. 1.9 K, 2.8 K) above and below the superconducting state and/or antiferromagnetic state. Comparison of the SC state to the normal state along the o- and c-axes indicates a rising thermal reflectance at low frequencies (below 10 cm"' ) which may be a manifestation of the superconducting energy gap. A dip-Hke feature is detected at low frequencies (below 15 cm"') in the thermal reflectance plots which probe the antiferromagnetic state along the two axes, and may be due to the opening of a gap in the excitation spectrum as a result of the antiferromagnetism. In another set of experiments, thermal reflectance measurements carried out along the a- and c-axes at higher temperatures (10 K-80 K) show that the reflectivity decreases with increasing temperature to 60 K (the coherence temperature) above which it increases again. Comparison of the thermal reflectance plots along the a- and c-axes at higher temperatures reveals an anisotropy between these two axes. The Hagen-Rubens thermal reflectance plots corresponding to an average over the ac-plane were calculated using experimental hterature resistivity values. Comparison of the Hagen-Rubens plots with the experimental thermal reflectance along the a- and c-axes indicates that both exhibit the general trend of a decrease in thermal reflectance with increasing frequency, however the calculated Hagen-Rubens thermal reflectance at different temperatures is much lower than the experimental curves.
Resumo:
Photosynthesis is a process in which electromagnetic radiation is converted into chemical energy. Photosystems capture photons with chromophores and transfer their energy to reaction centers using chromophores as a medium. In the reaction center, the excitation energy is used to perform chemical reactions. Knowledge of chromophore site energies is crucial to the understanding of excitation energy transfer pathways in photosystems and the ability to compute the site energies in a fast and accurate manner is mandatory for investigating how protein dynamics ef-fect the site energies and ultimately energy pathways with time. In this work we developed two software frameworks designed to optimize the calculations of chro-mophore site energies within a protein environment. The first is for performing quantum mechanical energy optimizations on molecules and the second is for com-puting site energies of chromophores in a fast and accurate manner using the polar-izability embedding method. The two frameworks allow for the fast and accurate calculation of chromophore site energies within proteins, ultimately allowing for the effect of protein dynamics on energy pathways to be studied. We use these frame-works to compute the site energies of the eight chromophores in the reaction center of photosystem II (PSII) using a 1.9 Å resolution x-ray structure of photosystem II. We compare our results to conflicting experimental data obtained from both isolat-ed intact PSII core preparations and the minimal reaction center preparation of PSII, and find our work more supportive of the former.
Resumo:
The employment of the bridging/chelating Schiff bases, N-salicylidene-4-methyl-o-aminophenol (samphH2) and N-naphthalidene-2-amino-5-chlorobenzoic acid (nacbH2), in nickel cluster chemistry has afforded eight polynuclear Ni(II) complexes with new structural motifs, interesting magnetic and optical properties, and unexpected organic ligand transformations. In the present thesis, Chapter 1 deals with all the fundamental aspects of polynuclear metal complexes, molecular magnetism and optics, while research results are reported in Chapters 2 and 3. In the first project (Chapter 2), I investigated the coordination chemistry of the organic chelating/bridging ligand, N-salicylidene-4-methyl-o-aminophenol (samphH2). The general NiII/tBuCO2-/samphH2 reaction system afforded two new tetranuclear NiII clusters, namely [Ni4(samph)4(EtOH)4] (1) and [Ni4(samph)4(DMF)2] (2), with different structural motifs. Complex 1 possessed a cubane core while in complex 2 the four NiII ions were located at the four vertices of a defective dicubane. The nature of the organic solvent was found to be of pivotal importance, leading to compounds with the same nuclearity, but different structural topologies and magnetic properties. The second project, the results of which are summarized in Chapter 3, included the systematic study of a new optically-active Schiff base ligand, N-naphthalidene-2-amino-5-chlorobenzoic acid (nacbH2), in NiII cluster chemistry. Various reactions between NiX2 (X- = inorganic anions) and nacbH2 were performed under basic conditions to yield six new polynuclear NiII complexes, namely (NHEt3)[Ni12(nacb)12(H2O)4](ClO4) (3), (NHEt3)2[Ni5(nacb)4(L)(LH)2(MeOH)] (4), [Ni5(OH)2(nacb)4(DMF)4] (5), [Ni5(OMe)Cl(nacb)4(MeOH)3(MeCN)] (6), (NHEt3)2[Ni6(OH)2(nacb)6(H2O)4] (7), and [Ni6(nacb)6(H2O)3(MeOH)6] (8). The nature of the solvent, the inorganic anion, X-, and the organic base were all found to be of critical importance, leading to products with different structural topologies and nuclearities (i.e., {Ni5}, {Ni6} and {Ni12}). Magnetic studies on all synthesized complexes revealed an overall ferromagnetic behavior for complexes 4 and 8, with the remaining complexes being dominated by antiferromagnetic exchange interactions. In order to assess the optical efficiency of the organic ligand when bound to the metal centers, photoluminescence studies were performed on all synthesized compounds. Complexes 4 and 5 show strong emission in the visible region of the electromagnetic spectrum. Finally, the ligand nacbH2 allowed for some unexpected organic transformations to occur; for instance, the pentanuclear compound 5 comprises both nacb2- groups and a new organic chelate, namely the anion of 5-chloro-2-[(3-hydroxy-4-oxo-1,4-dihydronaphthalen-1-yl)amino]benzoic acid. In the last section of this thesis, an attempt to compare the NiII cluster chemistry of the N-naphthalidene-2-amino-5-chlorobenzoic acid ligand with that of the structurally similar but less bulky, N-salicylidene-2-amino-5-chlorobenzoic acid (sacbH2), was made.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
De nombreuses études concluent que la charge mécanique supportée par le genou, qu’elle soit reliée à l’obésité, aux sports intenses, à une altération biomécanique des structures de l’articulation ou à une exposition à des charges lourdes durant les activités occupationnelles, est considérée comme un facteur de risque important au développement de la gonarthrose. La gonarthrose reliée au travail a été le sujet de nombreuses études et plusieurs d’entre elles ont rapporté une prévalence accrue de la gonarthrose chez les travailleurs de certains domaines en particulier, comme la construction, la pose de plancher, la peinture, l’exploitation minière, l’agriculture et le travail en atelier et en milieu de la santé. Les personnes qui travaillent dans ces métiers sont exposées à des positions ou des activités nuisibles, comme travailler à genoux ou accroupi, monter des escaliers ou des échelles, transporter des changes lourdes et marcher de façon prolongée. Ces gestes surchargent l’articulation du genou, ce qui cause des modifications aux structures de l’articulation du genou ou aux adaptations neuromusculaires de patron de mouvement du genou. Ces modifications structurelles et adaptations neuromusculaires peuvent apporter des changements cinématiques à la marche qui peuvent initier la gonarthrose ou contribuer à sa progression. L’objectif principal de la présente étude était d’analyser l’effet d’une surcharge mécanique sur l’articulation fémoro-tibiale (AF-T) subie au travail lors d’une tâche de marche et comparer le patron cinématique de l’articulation fémoro-tibiale des travailleurs exposés à une surcharge mécanique à celui des travailleurs non exposés. Vingt-quatre travailleurs exposés à une surcharge mécanique et neuf travailleurs non exposés ont participé à l’étude. Les données cinématiques de la marche ont été enregistrées au niveau du genou dans des conditions cliniques en utilisant un système de suivi du mouvement électromagnétique. Les paramètres suivant ont été extraits et utilisés pour la comparaison des groupes : l’angle maximum lors du contact initial, l’angle ii maximum de flexion durant la réponse à la charge, l’angle minimum au moment de l’appui unipodal et l’étendue max-min du cycle. La comparaison des groupes pour les variables cliniques et cinématiques a été effectué par l’utilisation de tests-t bilatéraux (« Student-t tests ») et de tests ANCOVA utilisant le poids et la vitesse comme covariables. Les travailleurs exposés à une surcharge mécanique présentaient un plus grand angle de flexion de l’articulation fémoro-tibiale au contact initial, durant la réponse au chargement et à la phase unipodale et ils ont démontré une étendue d’angle moindre que les travailleurs non exposés. Nous croyons que les données cinématiques de la marche peuvent donner des idées sur les facteurs biomécaniques qui pourraient prédisposer les travailleurs au développement ou à la progression de la gonarthrose. Une meilleure compréhension de ces facteurs pourrait être un premier pas vers le développement d’une intervention plus efficace pour cette population.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.
Resumo:
Une variété d’opérations cognitives dépend de la capacité de retenir de l’information auditive pour une courte période de temps. Notamment l’information auditive prend son sens avec le temps; la rétention d’un son disparu permet donc de mieux comprendre sa signification dans le contexte auditif et mène ultimement à une interaction réussite avec l’environnement. L’objectif de cette thèse était d’étudier l’activité cérébrale reliée à la rétention des sons et, ce faisant, parvenir à une meilleure compréhension des mécanismes de bas niveau de la mémoire à court-terme auditive. Trois études empiriques se sont penchées sur différents aspects de la rétention des sons. Le premier article avait pour but d’étudier les corrélats électrophysiologiques de la rétention des sons variant en timbre en utilisant la technique des potentiels reliés aux événements. Une composante fronto-centrale variant avec la charge mnésique a été ainsi révélée. Dans le deuxième article, le patron électro-oscillatoire de la rétention a été exploré. Cette étude a dévoilé une augmentation de l’amplitude variant avec la charge mnésique dans la bande alpha pendant la rétention des sons ainsi qu’une dissociation entre l’activité oscillatoire observée pendant la rétention et celle observée pendant la présentation des sons test. En démontrant des différentes modulations des amplitudes dans la bande alpha et la bande beta, cette étude a pu révéler des processus distincts mais interdépendants de la mémoire à court-terme auditive. Le troisième article a davantage visé à mieux connaître les structures cérébrales soutenant la rétention de sons. L’activité cérébrale a été mesurée avec la magnétoencéphalographie, et des localisations des sources ont été effectuées à partir de ces données. Les résultats ont dévoilé l’implication d’un réseau cérébral contenant des structures temporales, frontales, et pariétales qui était plus important dans l’hémisphère droit que dans l’hémisphère gauche. Les résultats des études empiriques ont permis de souligner l’aspect sensoriel de la mémoire à court-terme auditive et de montrer des similarités dans la rétention de différentes caractéristiques tonales. Dans leur ensemble, les études ont contribué à l’identification des processus neuronaux reliés à la rétention des sons en étudiant l’activité électromagnétique et l’implication des structures cérébrales correspondantes sur une échelle temporelle fine.