914 resultados para Linear boundary value control problems


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Scholars have long debated whether ownership structure matters for firm performance. The standard view with respect to Victorian Britain is that family-controlled companies had a detrimental effect on operating profit and shareholder value. Here, we examine this view using a hand-collected corporate ownership dataset. Our main finding is that it was not necessarily the broad structure of corporate ownership that mattered for performance, but whether family blockholders had a governance role. Large active blockholders tended to increase operating performance, implying that they reduced managerial agency problems. In contrast, we find that directors who were independent of large family owners were more likely to increase shareholder value.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The Arc-Length Method is a solution procedure that enables a generic non-linear problem to pass limit points. Some examples are provided of mode-jumping problems solutions using a commercial nite element package, and other investigations are carried out on a simple structure of which the numerical solution can be compared with an analytical one. It is shown that Arc-Length Method is not reliable when bifurcations are present in the primary equilibrium path; also the presence of very sharp snap-backs or special boundary conditions may cause convergence diÆculty at limit points. An improvement to the predictor used in the incremental procedure is suggested, together with a reliable criteria for selecting either solution of the quadratic arc-length constraint. The gap that is sometimes observed between the experimantal load level of mode-jumping and its arc-length prediction is explained through an example.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

As propriedades funcionais dos materiais ferroeléctricos tais como a polarização reversível, piroelectricidade, piezoelectricidade, elevada actividade óptica não linear e comportamento dieléctrico não linear são fundamentais para a sua aplicação em sensores, microactuadores, detectores de infravermelhos, filtros de fase de microondas e memórias não-voláteis. Nos últimos anos, motivado pelas necessidades industriais de redução do tamanho dos dispositivos microelectrónicos, aumentando a eficiência volumétrica, tem sido feito um grande esforço ao nível da investigação para desenvolver estruturas ferroeléctricas à escala micro- e nano- métrica. É sabido que a redução de tamanho em materiais ferroeléctricos afecta significamente as suas propriedades. Neste sentido e considerando que foi previsto teoreticamente por cálculos ab initio que estruturas do tipo nanocilindros e nanodiscos apresentariam um novo tipo de ordem ferroeléctrica e, na expectativa de alcançar conhecimento para o desenvolvimento de uma nova geração de dispositivos microelectróncos, existe um grande interesse em desenvolver métodos de fabrico de nanoestruturas ferroeléctricas unidimensionais (1D) tais como nanocilindros e nanotubos. As estratégias de fabrico de nanoestruturas 1D até agora descritas na literatura indicam claramente as dificuldades inerentes à sua preparação. Existem duas grandes vias de síntese destas nanoestruturas: i) o método “topdown” que consiste na redução de tamanho de um dado material até à obtenção duma estrutura 1D; e ii) o método “bottom-up” em que átomos, iões e moléculas são agrupados para formar um material 1D. O método “top down” envolve em geral técnicas de desgaste, como o uso do feixe de electrões, que apesar de permitirem elevada precisão no posicionamento e no controlo do tamanho, falham em termos de resolução, exigem muito tempo e causam facilmente defeitos que deterioram as propriedades físicas destes materiais. Na metodologia “bottom up” a utilização de moléculas ou estruturas “molde” tem sido a mais explorada. As estructuras 1D podem também ser preparadas sem recorrer a “moldes”. Neste caso a agregação orientada é promovida pelo recurso a aditivos que controlam o crescimento dos cristais em direcções preferenciais. Neste contexto, neste trabalho utilizaram-se duas estratégias “bottom up” de baixo custo para a preparação de nanopartículas de titanato de bário (BaTiO3) com morfologia controlada: 1) síntese química (em solução e em fase vapor) com utilização de nanotubos de titanato TiNTs) como “moldes” e precursores de titânio 2) síntese química em solução com presença de aditivos. Os nanotubos de titanato de sódio foram preparados por síntese hidrotermal. Como existiam muitas dúvidas acerca da natureza estrutural e do mecanismo de formação dos NTs, a parte inicial do trabalho foi dedicada à realização de um estudo sistemático dos parâmetros intervenientes na síntese e à caracterização da sua estrutura e microestrutura. Foi demonstrado que os NTs têm a fórmula geral A2Ti2O5 (A = H+ or Na+), e não TiO2 (anátase) com defendido por vários autores na literatura, e podem ser preparados por método hidrotermal em meio fortemente alcalino usando como fonte de titânio TiO2 comercial na forma de anátase ou rútilo. A menor reactividade do rútilo exige temperaturas de síntese superiores ou tempos de reacção mais longos. A forma tubular resulta do tratamento hidrotermal e não de processos de lavagem e neutralização subsequentes. Se os NTs forem tratados após a síntese hidrotérmica em água a 200 ºC, transformam-se em nanocilindros. Uma das partes principais desta tese consistiu na investigação do papel dos NTs de titanato no crescimento anisotrópico de BaTiO3. O potencial funcionamento dos NTs como “moldes” para além de precursores foi testado em reacção com hidróxido de bário em síntese em solução e por reacção com um precursor orgânico de bário em fase vapor. Tendo por base os estudos cinéticos realizados, bem como as alterações estruturais e morfológicas das amostras, é possível concluir que a formação do BaTiO3 a partir de NTs de titanato de sódio, ocorre por dois mecanismos dependendo da temperatura e tempo de reacção. Assim, a baixa temperatura e curto tempo de reacção verifica-se que se formam partículas dendríticas de BaTiO3 cuja superfície é bastante irregular (“wild”) e que apresentam estrutura pseudo-cúbica. Estas partículas formam-se por reacção topotáctica na fronteira dos nanotubos de titanato de sódio. A temperaturas mais altas e/ou reacções mais longas, a reacção é controlada por um mecanismo de dissolução e precipitação com formação de dendrites de BaTiO3 tetragonais com superfície mais regular (“seaweed”). A microscopia de força piezoeléctrica mostrou que as dendrites “seaweeds“ possuem actividade piezoeléctrica superior à das dendrites “wild”, o que confirma o papel desempenhado pela estrutura e pela concentração de defeitos na rede na coerência e ordem ferroeléctrica de nanoestruturas. Os nossos resultados confirmam que os NTs de titanato não actuam facilmente como “moldes” na síntese em solução de BaTiO3 já que a velocidade de dissolução dos NTs em condições alcalinas é superior à velocidade de formação do BaTiO3. Assumindo que a velocidade de reacção dos NTs com o precursor de bário é superior em fase vapor, efectuou-se a deposição de um precursor orgânico de bário por deposição química de vapor sobre um filme de NTs de titnato de sódio depositados por deposição electroforética. Estudou-se a estabilidade dos NTs nas diferentes condições do reactor. Quando os NTs são tratados a temperaturas superiores a 700 ºC, ocorre a transformação dos NTs em nanocilindros de anatase por um mecanismo de agregação orientada. Quando se faz a deposição do precursor de bário, seguida de calcinação a 700 ºC em atmosfera oxidante de O2, verifica-se que a superficie dos NTs fica coberta com nanocristais de BaTiO3 independentemente da concentração de bário. O papel dos NTs de titanato no crescimento anisotrópico de BaTiO3 em fase vapor é assim descrito pela primeira vez. Em relação à metodologias de crescimento de partículas na ausência de “moldes” mas com aditivos fez-se um estudo sistemático utilizando 5 aditivos de natureza differente. As diferenças entre aditivos foram sistematizadas tendo em conta as diferenças estruturais e morfológicas verificadas. Está provado que os aditivos podem funcionar como modificadores de crescimento cristalino por alteração do seu padrão de crescimento ou por alteração da cinética de crescimento das faces cristalográficas do cristal. Entre os aditivos testados verificou-se que o ácido poliacrilíco adsorve em faces específicas do BaTiO3 alterando a cinética de crescimento e induzindo a agregação orientada das partículas. O polivinilpirrolidona, o docecilsulfato de sódio e hidroxipropilmetilcelulose actuam mais como inibidores de crescimento do que como modificadores do tipo de crescimento. A D-frutose aumenta a energia de activação da etapa de nucleação não ocorrendo formação de BaTiO3 para as mesmas condições dos outros aditivos. Esta tese clarifica o papel dos NTs de titanato de sódio enquanto precursores e “moldes” no crescimento anisotrópico de BaTiO3 em solução e em fase vapor. É feita também a abordagem do controlo morfológico do BaTiO3 através do uso de aditivos. As estratégias de preparação de BaTiO3 propostas são de baixo custo, reprodutíveis e fáceis de efectuar. Os resultados contribuem para uma melhor compreensão da relação tamanho – morfologia – propriedade em materiais ferroeléctricos nanométricos com vista à sua potencial aplicação.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper is on the implementation of a dual axis positioning system controller. The system was designed to be used for space-dependent ultrasound signal acquisition problems, such as pressure field mapping. The work developed can be grouped in two main subjects: hardware and software. Each axis includes one stepper motor connected to a driver circuit, which is then connected to a processing unit. The graphical user interface is simple and clear for the user. The system resolution was computed as 127 mu m with an accuracy of 2.44 mu m. Although the target application is ultrasound signal acquisition, the controller can be applied to other devices that has up to four stepper motors. The application was developed as an open source software, thus it can be used or changed to fit different purposes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Linear Algebra—Selected Problems is a unique book for senior undergraduate and graduate students to fast review basic materials in Linear Algebra. Vector spaces are presented first, and linear transformations are reviewed secondly. Matrices and Linear systems are presented. Determinants and Basic geometry are presented in the last two chapters. The solutions for proposed excises are listed for readers to references.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Fuzzy logic controllers (FLC) are intelligent systems, based on heuristic knowledge, that have been largely applied in numerous areas of everyday life. They can be used to describe a linear or nonlinear system and are suitable when a real system is not known or too difficult to find their model. FLC provide a formal methodology for representing, manipulating and implementing a human heuristic knowledge on how to control a system. These controllers can be seen as artificial decision makers that operate in a closed-loop system, in real time. The main aim of this work was to develop a single optimal fuzzy controller, easily adaptable to a wide range of systems – simple to complex, linear to nonlinear – and able to control all these systems. Due to their efficiency in searching and finding optimal solution for high complexity problems, GAs were used to perform the FLC tuning by finding the best parameters to obtain the best responses. The work was performed using the MATLAB/SIMULINK software. This is a very useful tool that provides an easy way to test and analyse the FLC, the PID and the GAs in the same environment. Therefore, it was proposed a Fuzzy PID controller (FL-PID) type namely, the Fuzzy PD+I. For that, the controller was compared with the classical PID controller tuned with, the heuristic Ziegler-Nichols tuning method, the optimal Zhuang-Atherton tuning method and the GA method itself. The IAE, ISE, ITAE and ITSE criteria, used as the GA fitness functions, were applied to compare the controllers performance used in this work. Overall, and for most systems, the FL-PID results tuned with GAs were very satisfactory. Moreover, in some cases the results were substantially better than for the other PID controllers. The best system responses were obtained with the IAE and ITAE criteria used to tune the FL-PID and PID controllers.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The aim of this contribution is to extend the techniques of composite materials design to non-linear material behaviour and apply it for design of new materials for passive vibration control. As a first step a computational tool allowing determination of macroscopic optimized one-dimensional isolator behaviour was developed. Voigt, Maxwell, standard and more complex material models can be implemented. Objective function considers minimization of the initial reaction and/or displacement peak as well as minimization of the steady-state amplitude of reaction and/or displacement. The complex stiffness approach is used to formulate the governing equations in an efficient way. Material stiffness parameters are assumed as non-linear functions of the displacement. The numerical solution is performed in the complex space. The steady-state solution in the complex space is obtained by an iterative process based on the shooting method which imposes the conditions of periodicity with respect to the known value of the period. Extension of the shooting method to the complex space is presented and verified. Non-linear behaviour of material parameters is then optimized by generic probabilistic meta-algorithm, simulated annealing. Dependence of the global optimum on several combinations of leading parameters of the simulated annealing procedure, like neighbourhood definition and annealing schedule, is also studied and analyzed. Procedure is programmed in MATLAB environment.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper employs the Lyapunov direct method for the stability analysis of fractional order linear systems subject to input saturation. A new stability condition based on saturation function is adopted for estimating the domain of attraction via ellipsoid approach. To further improve this estimation, the auxiliary feedback is also supported by the concept of stability region. The advantages of the proposed method are twofold: (1) it is straightforward to handle the problem both in analysis and design because of using Lyapunov method, (2) the estimation leads to less conservative results. A numerical example illustrates the feasibility of the proposed method.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La présente thèse de doctorat visait d’abord à valider les résultats des études antérieures démontrant un accroissement de la prévalence des problèmes de santé mentale et ensuite, à évaluer l’importance du contexte social dans l’explication des changements de prévalence, à partir des effets d’âge, de période et de cohorte. L’atteinte de ces objectifs s’est faite à partir de deux études empiriques, chacune ciblant sa propre problématique en santé mentale. La première étude, basée sur les données de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) de Statistique Canada, a permis de conclure à un accroissement réel de la prévalence du diagnostic de trouble déficitaire de l’attention/hyperactivité (TDA/H) et de la consommation de psychostimulants chez les enfants canadiens entre 1994 et 2007. Toutefois, cette tendance n’est ni constante, ni universelle, puisque des effets de période et d’âge apparaissent clairement : l’augmentation des prévalences est uniquement remarquée dans les années 2000, et survient seulement chez les enfants d’âge scolaire. L’identification d’inégalités de prévalence dues à la période historique et à l’âge des enfants souligne l’importance du contexte social dans la problématique du diagnostic de TDA/H et de la consommation de psychostimulants. La seconde étude a été réalisée à partir des données du Panel Study of Belgian Households (PSBH) et cherchait à expliquer l’accroissement des symptômes dépressifs observé ces vingt dernières années chez les adultes belges. L’utilisation de l’analyse multiniveaux longitudinale permettant la distinction des effets d’âge et des effets de cohortes a été privilégiée. Bien que l’intensité des symptômes dépressifs ait varié de manière relativement importante chez les individus au cours des années 1990, nos conclusions démontrent que les symptômes auto-rapportés de dépression sont davantage associés aux conditions de vie, qu’à la personnalité. L’augmentation résulte d’un effet de la succession des cohortes, où les individus des cohortes les plus récentes rapportent toujours une plus grande intensité de symptômes dépressifs que les individus des cohortes précédentes. Les membres d’une même cohorte de naissance partagent donc des expériences communes à un âge similaire, ce qui a un impact durable sur leurs comportements et sur leur santé mentale. De manière générale, les résultats des deux articles empiriques ont, chacun à leur manière, confirmé la réalité de l’accroissement des problèmes de santé mentale dans les sociétés occidentales contemporaines, et permis de constater que la prévalence diffère selon l’âge et la cohorte de naissance des individus, ainsi que selon la période historique, renforçant ainsi l’hypothèse de l’importance des facteurs sociaux dans l’étiologie des problèmes de santé mentale. Bien que la nature de ces facteurs n’ait pu être testée de manière directe, de nombreuses explications sociales furent tout de même proposées. À cet égard, des changements dans les normes comportementales associées à l’âge, dans les normes sociales, dans la conceptualisation des troubles mentaux, des modifications dans la sphère éducative, ainsi que des innovations pharmacologiques, médicales et technologiques constituent des explications sociales aux effets d’âge, de période et de cohorte qui ont été observés.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.