984 resultados para SCALAR
Resumo:
Työssä tutkitaan nopeusanturittoman vaihtovirtakäytön skalaarisia ohjaus- ja säätömenetelmiä. Työn alussa esitetään perusteoriat taajuusmuuttajista ja oikosulkumoottoreista. Tämän jälkeen esitellään yleisimmin kirjallisuudessa esiintyneet skalaariohjaukset ja –säädöt. Vektorisäätöä ja erityisesti moottoriparametrien vaikutusta säädön toimivuuteen esitellään lyhyesti. Työn tavoitteena on ACS800 taajuusmuuttajan skalaarisäädön tutkiminen. ACS800:n nykyinen skalaarisäätö on liian sidoksissa vektorisäätöön, joten simulointien ja kirjallisuustutkimuksen tarkoituksena on täysin vektorisäädöstä eriytetyn skalaarisäädön kehitysmahdollisuuksien tutkiminen. Kirjallisuudessa esiintyneiden säätöjen avulla muodostetaan diskreettiaikainen toteutus skalaarisäädölle vaihtovirtakäytössä, jossa on käytössä virran ja välipiirijännitteen takaisinkytkentä. Säädettävää moottoria mallinnetaan jatkuvaaikaisella L-sijaiskytkennällä. Välipiirin mallinnus toimii myös jatkuva-aikaisena lukuun ottamatta välipiirin tasavirtakomponenttia, joka muodostetaan virran takaisinkytkennän ja PWM-modulaattorin kytkinasentojen avulla. Simuloinnin tarkoituksena on mallintaa skalaarisäädön suurimpia ongelmia, kuten virta- ja välijännitesäätöä. Tuloksista voidaan päätellä, että perussäädöt toimivat moitteettomasti, mutta erityisesti virtasäätöä tulisi kehittää.
Resumo:
We perform Hartree calculations of symmetric and asymmetric semi-infinite nuclear matter in the framework of relativistic models based on effective hadronic field theories as recently proposed in the literature. In addition to the conventional cubic and quartic scalar self-interactions, the extended models incorporate a quartic vector self-interaction, scalar-vector non-linearities and tensor couplings of the vector mesons. We investigate the implications of these terms on nuclear surface properties such as the surface energy coefficient, surface thickness, surface stiffness coefficient, neutron skin thickness and the spin-orbit force.
Resumo:
We analyze the results for infinite nuclear and neutron matter using the standard relativistic mean field model and its recent effective field theory motivated generalization. For the first time, we show quantitatively that the inclusion in the effective theory of vector meson self-interactions and scalar-vector cross-interactions explains naturally the recent experimental observations of the softness of the nuclear equation of state, without losing the advantages of the standard relativistic model for finite nuclei.
Resumo:
This article examines the mainstream categorical definition of coreference as "identity of reference." It argues that coreference is best handled when identity is treated as a continuum, ranging from full identity to non-identity, with room for near-identity relations to explain currently problematic cases. This middle ground is needed to account for those linguistic expressions in real text that stand in relations that are neither full coreference nor non-coreference, a situation that has led to contradictory treatment of cases in previous coreference annotation efforts. We discuss key issues for coreference such as conceptual categorization, individuation, criteria of identity, and the discourse model construct. We redefine coreference as a scalar relation between two (or more) linguistic expressions that refer to discourse entities considered to be at the same granularity level relevant to the linguistic and pragmatic context. We view coreference relations in terms of mental space theory and discuss a large number of real life examples that show near-identity at different degrees.
Resumo:
In diffusion MRI, traditional tractography algorithms do not recover truly quantitative tractograms and the structural connectivity has to be estimated indirectly by counting the number of fiber tracts or averaging scalar maps along them. Recently, global and efficient methods have emerged to estimate more quantitative tractograms by combining tractography with local models for the diffusion signal, like the Convex Optimization Modeling for Microstructure Informed Tractography (COMMIT) framework. In this abstract, we show the importance of using both (i) proper multi-compartment diffusion models and (ii) adequate multi-shell acquisitions, in order to evaluate the accuracy and the biological plausibility of the tractograms.
Resumo:
Verkon harmonisvirtoja rajoittavien standardien tiukentuessa joudutaan etenkin suuritehoisissa tehoelektronisissa laitteissa siirtymään aktiivisiin transistoriohjattuihin tasasuuntaajiin, jotka korjaavat tehokerrointa ja siten pienentävät verkkoon kytkeytyviä häiriövirtoja. Tässä diplomityössä esitellään yleisimpien kolmivaiheisten tasasuuntaajatopologioiden eroja ja vertaillaan puoliohjatun kolmikytkintopologian ja kuusikytkintopologian suorituskykyä tehokertoimen ja harmonissärön osalta, 16 kilowatin teholuokan taajuusmuuttajassa. Tasasuuntaajille tehtiin skalaariohjaukseen perustuva simulointimalli. Työn tavoitteena esitellään simulointitulokset harmonistason sekä tehokertoimen osalta. Työ liittyy Lappeenrannan teknillisen yliopiston sovelletun elektroniikan laboratorion ja Vacon Oyj:n yhteiseen hankkeeseen.
Resumo:
The identification of biomarkers of vascular cognitive impairment is urgent for its early diagnosis. The aim of this study was to detect and monitor changes in brain structure and connectivity, and to correlate them with the decline in executive function. We examined the feasibility of early diagnostic magnetic resonance imaging (MRI) to predict cognitive impairment before onset in an animal model of chronic hypertension: Spontaneously Hypertensive Rats. Cognitive performance was tested in an operant conditioning paradigm that evaluated learning, memory, and behavioral flexibility skills. Behavioral tests were coupled with longitudinal diffusion weighted imaging acquired with 126 diffusion gradient directions and 0.3 mm(3) isometric resolution at 10, 14, 18, 22, 26, and 40 weeks after birth. Diffusion weighted imaging was analyzed in two different ways, by regional characterization of diffusion tensor imaging (DTI) indices, and by assessing changes in structural brain network organization based on Q-Ball tractography. Already at the first evaluated times, DTI scalar maps revealed significant differences in many regions, suggesting loss of integrity in white and gray matter of spontaneously hypertensive rats when compared to normotensive control rats. In addition, graph theory analysis of the structural brain network demonstrated a significant decrease of hierarchical modularity, global and local efficacy, with predictive value as shown by regional three-fold cross validation study. Moreover, these decreases were significantly correlated with the behavioral performance deficits observed at subsequent time points, suggesting that the diffusion weighted imaging and connectivity studies can unravel neuroimaging alterations even overt signs of cognitive impairment become apparent.
Resumo:
We show how certain N-dimensional dynamical systems are able to exploit the full instability capabilities of their fixed points to do Hopf bifurcations and how such a behavior produces complex time evolutions based on the nonlinear combination of the oscillation modes that emerged from these bifurcations. For really different oscillation frequencies, the evolutions describe robust wave form structures, usually periodic, in which selfsimilarity with respect to both the time scale and system dimension is clearly appreciated. For closer frequencies, the evolution signals usually appear irregular but are still based on the repetition of complex wave form structures. The study is developed by considering vector fields with a scalar-valued nonlinear function of a single variable that is a linear combination of the N dynamical variables. In this case, the linear stability analysis can be used to design N-dimensional systems in which the fixed points of a saddle-node pair experience up to N21 Hopf bifurcations with preselected oscillation frequencies. The secondary processes occurring in the phase region where the variety of limit cycles appear may be rather complex and difficult to characterize, but they produce the nonlinear mixing of oscillation modes with relatively generic features
Resumo:
The application of the Extreme Value Theory (EVT) to model the probability of occurrence of extreme low Standardized Precipitation Index (SPI) values leads to an increase of the knowledge related to the occurrence of extreme dry months. This sort of analysis can be carried out by means of two approaches: the block maxima (BM; associated with the General Extreme Value distribution) and the peaks-over-threshold (POT; associated with the Generalized Pareto distribution). Each of these procedures has its own advantages and drawbacks. Thus, the main goal of this study is to compare the performance of BM and POT in characterizing the probability of occurrence of extreme dry SPI values obtained from the weather station of Ribeirão Preto-SP (1937-2012). According to the goodness-of-fit tests, both BM and POT can be used to assess the probability of occurrence of the aforementioned extreme dry SPI monthly values. However, the scalar measures of accuracy and the return level plots indicate that POT provides the best fit distribution. The study also indicated that the uncertainties in the parameters estimates of a probabilistic model should be taken into account when the probability associated with a severe/extreme dry event is under analysis.
Resumo:
Biofuels for transport are a renewable source of energy that were once heralded as a solution to multiple problems associated with poor urban air quality, the overproduction of agricultural commodities, the energy security of the European Union (EU) and climate change. It was only after the Union had implemented an incentivizing framework of legal and political instruments for the production, trade and consumption of biofuels that the problems of weakening food security, environmental degradation and increasing greenhouse gases through land-use changes began to unfold. In other words, the difference between political aims for why biofuels are promoted and their consequences has grown – which is also recognized by the EU policy-makers. Therefore, the global networks of producing, trading and consuming biofuels may face a complete restructure if the European Commission accomplishes its pursuit to sideline crop-based biofuels after 2020. My aim with this dissertation is not only to trace the manifold evolutions of the instruments used by the Union to govern biofuels but also to reveal how this evolution has influenced the dynamics of biofuel development. Therefore, I study the ways the EU’s legal and political instruments of steering biofuels are coconstitutive with the globalized spaces of biofuel development. My analytical strategy can be outlined through three concepts. I use the term ‘assemblage’ to approach the operations of the loose entity of actors and non-human elements that are the constituents of multi-scalar and -sectorial biofuel development. ‘Topology’ refers to the spatiality of this European biofuel assemblage and its parts whose evolving relations are treated as the active constituents of space, instead of simply being located in space. I apply the concept of ‘nomosphere’ to characterize the framework of policies, laws and other instruments that the EU applies and construes while attempting to govern biofuels. Even though both the materials and methods vary in the independent articles, these three concepts characterize my analytical strategy that allows me to study law, policy and space associated with each other. The results of my examinations underscore the importance of the instruments of governance of the EU constituting and stabilizing the spaces of producing and, on the other hand, how topological ruptures in biofuel development have enforced the need to reform policies. This analysis maps the vast scope of actors that are influenced by the mechanism of EU biofuel governance and, what is more, shows how they are actively engaging in the Union’s institutional policy formulation. By examining the consequences of fast biofuel development that are spatially dislocated from the established spaces of producing, trading and consuming biofuels such as indirect land use changes, I unfold the processes not tackled by the instruments of the EU. Indeed, it is these spatially dislocated processes that have pushed the Commission construing a new type of governing biofuels: transferring the instruments of climate change mitigation to land-use policies. Although efficient in mitigating these dislocated consequences, these instruments have also created peculiar ontological scaffolding for governing biofuels. According to this mode of governance, the spatiality of biofuel development appears to be already determined and the agency that could dampen the negative consequences originating from land-use practices is treated as irrelevant.
Resumo:
Through a case-study analysis of Ontario's ethanol policy, this thesis addresses a number of themes that are consequential to policy and policy-making: spatiality, democracy and uncertainty. First, I address the 'spatial debate' in Geography pertaining to the relevance and affordances of a 'scalar' versus a 'flat' ontoepistemology. I argue that policy is guided by prior arrangements, but is by no means inevitable or predetermined. As such, scale and network are pragmatic geographical concepts that can effectively address the issue of the spatiality of policy and policy-making. Second, I discuss the democratic nature of policy-making in Ontario through an examination of the spaces of engagement that facilitate deliberative democracy. I analyze to what extent these spaces fit into Ontario's environmental policy-making process, and to what extent they were used by various stakeholders. Last, I take seriously the fact that uncertainty and unavoidable injustice are central to policy, and examine the ways in which this uncertainty shaped the specifics of Ontario's ethanol policy. Ultimately, this thesis is an exercise in understanding sub-national environmental policy-making in Canada, with an emphasis on how policy-makers tackle the issues they are faced with in the context of environmental change, political-economic integration, local priorities, individual goals, and irreducible uncertainty.
Resumo:
In this paper, we consider testing marginal normal distributional assumptions. More precisely, we propose tests based on moment conditions implied by normality. These moment conditions are known as the Stein (1972) equations. They coincide with the first class of moment conditions derived by Hansen and Scheinkman (1995) when the random variable of interest is a scalar diffusion. Among other examples, Stein equation implies that the mean of Hermite polynomials is zero. The GMM approach we adopted is well suited for two reasons. It allows us to study in detail the parameter uncertainty problem, i.e., when the tests depend on unknown parameters that have to be estimated. In particular, we characterize the moment conditions that are robust against parameter uncertainty and show that Hermite polynomials are special examples. This is the main contribution of the paper. The second reason for using GMM is that our tests are also valid for time series. In this case, we adopt a Heteroskedastic-Autocorrelation-Consistent approach to estimate the weighting matrix when the dependence of the data is unspecified. We also make a theoretical comparison of our tests with Jarque and Bera (1980) and OPG regression tests of Davidson and MacKinnon (1993). Finite sample properties of our tests are derived through a comprehensive Monte Carlo study. Finally, three applications to GARCH and realized volatility models are presented.
Resumo:
Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.