869 resultados para Hyperbolic Boundary-Value Problem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

PURPOSE:

To assess the noneconomic value of tests used in the diagnosis and management of glaucoma, and explore the contexts and factors that determine such value.

DESIGN:

Perspective.

METHODS:

Selected articles from primary and secondary sources were reviewed and interpreted in the context of the authors' clinical and research experience, influenced by our perspectives on the tasks of reducing the global problem of irreversible blindness caused by glaucoma. The value of any test used in glaucoma is addressed by 3 questions regarding: its contexts, its kind of value, and its implicit or explicit benefits.

RESULTS:

Tonometry, slit-lamp gonioscopy, and optic disc evaluation remain the foundation of clinic-based case finding, whether in areas of more or less abundant resources. In resource-poor areas, there is urgency in identifying patients at risk for severe functional loss of vision; screening strategies have proven ineffective, and efforts are hindered by the inadequate allocation of support. In resource-abundant areas, the wider spectrum of glaucoma is addressed, with emphasis on early detection of structural changes of little functional consequence; these are increasingly the focus of new and expensive technologies whose clinical value has not been established in longitudinal and population-based studies. These contrasting realities in part reflect differences among the value ascribed, often implicitly, to the tests used in glaucoma.

CONCLUSIONS:

The value of any test is determined by 3 aspects: its context of usage; its comparative worth and to whom its benefit accrues; and how we define historically what we are testing. These multiple factors

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho, no âmbito da Didáctica da Matemática, foca-se no estudo de abordagens alternativas de ensino e aprendizagem da Geometria Euclidiana, no Ensino Secundário, no sentido de promover níveis estruturados do pensamento matemático. Em particular, as potencialidades do recurso a outros modelos de Geometria Plana (e.g. Geometria Hiperbólica, Geometria do Motorista de Táxi) em relação a este problema serão investigadas. A opção pelo Ensino Secundário deve-se ao facto de se tratar de um nível de ensino onde se regista uma elevada taxa de insucesso escolar (especialmente no 10º ano) e onde é notório o abismo existente, entre o ensino Secundário e Universitário, no âmbito do raciocínio lógico - dedutivo. O trabalho a desenvolver pretende aprofundar o estudo de questões ligadas à natureza do conhecimento envolvido que estarão na base de decisões, tais como: Quais os processos que vão ser ensinados? Que processos queremos que os alunos dominem? E, por outro lado, ter em conta que se pretende desenvolver capacidades de ordem superior, significando que o ensino da Matemática deve dirigir-se para níveis elevados de pensamento, tais como: resolução de problemas; comunicar matematicamente; raciocínio e demonstração. No currículo de matemática para o Ensino Básico e Secundário tem-se negligenciado a demonstração matemática, contribuindo para que exista uma desconformidade entre os graus de ensino, secundário e universitário. Muitas vezes as abordagens de ensino centram-se na verificação de resultados e desvalorizam a exploração e explicação (Villiers, 1998). Actualmente, assiste-se a uma tendência para retomar o raciocínio lógico - dedutivo. O principal objectivo desta investigação é analisar ambientes de aprendizagem em que os alunos sejam solicitados a resolver problemas de prova em contextos diversificados e, de uma forma mais geral promover o desenvolvimento do raciocínio dedutivo e uma visão mais alargada do conhecimento matemático. Em particular, a abordagem de problemas de prova num contexto de geometria não Euclidiana, com recurso a artefactos e a software de geometria dinâmica, será investigada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We study the existence and multiplicity of positive radial solutions of the Dirichlet problem for the Minkowski-curvature equation { -div(del upsilon/root 1-vertical bar del upsilon vertical bar(2)) in B-R, upsilon=0 on partial derivative B-R,B- where B-R is a ball in R-N (N >= 2). According to the behaviour off = f (r, s) near s = 0, we prove the existence of either one, two or three positive solutions. All results are obtained by reduction to an equivalent non-singular one-dimensional problem, to which variational methods can be applied in a standard way.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Container Loading Problem (CLP) literature has traditionally evaluated the dynamic stability of cargo by applying two metrics to box arrangements: the mean number of boxes supporting the items excluding those placed directly on the floor (M1) and the percentage of boxes with insufficient lateral support (M2). However, these metrics, that aim to be proxies for cargo stability during transportation, fail to translate real-world cargo conditions of dynamic stability. In this paper two new performance indicators are proposed to evaluate the dynamic stability of cargo arrangements: the number of fallen boxes (NFB) and the number of boxes within the Damage Boundary Curve fragility test (NB_DBC). Using 1500 solutions for well-known problem instances found in the literature, these new performance indicators are evaluated using a physics simulation tool (StableCargo), replacing the real-world transportation by a truck with a simulation of the dynamic behaviour of container loading arrangements. Two new dynamic stability metrics that can be integrated within any container loading algorithm are also proposed. The metrics are analytical models of the proposed stability performance indicators, computed by multiple linear regression. Pearson’s r correlation coefficient was used as an evaluation parameter for the performance of the models. The extensive computational results show that the proposed metrics are better proxies for dynamic stability in the CLP than the previous widely used metrics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Information systems are widespread and used by anyone with computing devices as well as corporations and governments. It is often the case that security leaks are introduced during the development of an application. Reasons for these security bugs are multiple but among them one can easily identify that it is very hard to define and enforce relevant security policies in modern software. This is because modern applications often rely on container sharing and multi-tenancy where, for instance, data can be stored in the same physical space but is logically mapped into different security compartments or data structures. In turn, these security compartments, to which data is classified into in security policies, can also be dynamic and depend on runtime data. In this thesis we introduce and develop the novel notion of dependent information flow types, and focus on the problem of ensuring data confidentiality in data-centric software. Dependent information flow types fit within the standard framework of dependent type theory, but, unlike usual dependent types, crucially allow the security level of a type, rather than just the structural data type itself, to depend on runtime values. Our dependent function and dependent sum information flow types provide a direct, natural and elegant way to express and enforce fine grained security policies on programs. Namely programs that manipulate structured data types in which the security level of a structure field may depend on values dynamically stored in other fields The main contribution of this work is an efficient analysis that allows programmers to verify, during the development phase, whether programs have information leaks, that is, it verifies whether programs protect the confidentiality of the information they manipulate. As such, we also implemented a prototype typechecker that can be found at http://ctp.di.fct.unl.pt/DIFTprototype/.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study examined students considered at risk of non-completion of their Ontario Secondary School Diploma and aimed to offer insight into the questions, "What factors currently lead to school disconnect" and "How can these factors be addressed?" Eight students currently enrolled in an alternative learning environment participated in the study. Each was asked to take part in two, digitally recorded interviews that were subsequently transcribed by the researcher. The data were then coded and analysed according to specific themes: obstacles, empowerment, goals, views about success, opinions of school, and power of the teacher. From these themes, three broad focus areas emerged that were used to keep the data analysis focused: worldview, school effects, and self-image. Variances between the data collected and ideas presented in the current literature were highlighted as a reminder that when dealing with a human population, we cannot rely on textbook definitions and theory alone.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Calculations are performed on the \S <:Jd ground states of d ' + the H and HC) molecules using a basis set of non-integral ~ ~ I elliptical orbitals. Different variational wavefunctions constructed i- for H~ involved one parameter to three par~~eter variation. In order to l"'educe the ntunber of parameters in most commonly 0- used basis orbitals set, the importance of the term (,+~) Y\ over the term ;u 'Where n is a variational pararneter and the value of cr may be given by boundary condition or cusp condition is outlined in Chapters II and III. It is found that the two parameter -+ problem, the variational energy is computed for the H~ molecule from unrestricted two parameter closed shell wavefunctions including the term U+ft)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this paper is to demonstrate that, even if Marx's solution to the transformation problem can be modified, his basic concusions remain valid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire a pour but d'étudier les propriétés des solutions à l'équation aux valeurs propres de l'opérateur de Laplace sur le disque lorsque les valeurs propres tendent vers l'in ni. En particulier, on s'intéresse au taux de croissance des normes ponctuelle et L1. Soit D le disque unitaire et @D sa frontière (le cercle unitaire). On s'inté- resse aux solutions de l'équation aux valeurs propres f = f avec soit des conditions frontières de Dirichlet (fj@D = 0), soit des conditions frontières de Neumann ( @f @nj@D = 0 ; notons que sur le disque, la dérivée normale est simplement la dérivée par rapport à la variable radiale : @ @n = @ @r ). Les fonctions propres correspondantes sont données par : f (r; ) = fn;m(r; ) = Jn(kn;mr)(Acos(n ) + B sin(n )) (Dirichlet) fN (r; ) = fN n;m(r; ) = Jn(k0 n;mr)(Acos(n ) + B sin(n )) (Neumann) où Jn est la fonction de Bessel de premier type d'ordre n, kn;m est son m- ième zéro et k0 n;m est le m-ième zéro de sa dérivée (ici on dénote les fonctions propres pour le problème de Dirichlet par f et celles pour le problème de Neumann par fN). Dans ce cas, on obtient que le spectre SpD( ) du laplacien sur D, c'est-à-dire l'ensemble de ses valeurs propres, est donné par : SpD( ) = f : f = fg = fk2 n;m : n = 0; 1; 2; : : :m = 1; 2; : : :g (Dirichlet) SpN D( ) = f : fN = fNg = fk0 n;m 2 : n = 0; 1; 2; : : :m = 1; 2; : : :g (Neumann) En n, on impose que nos fonctions propres soient normalisées par rapport à la norme L2 sur D, c'est-à-dire : R D F2 da = 1 (à partir de maintenant on utilise F pour noter les fonctions propres normalisées et f pour les fonctions propres quelconques). Sous ces conditions, on s'intéresse à déterminer le taux de croissance de la norme L1 des fonctions propres normalisées, notée jjF jj1, selon . Il est vi important de mentionner que la norme L1 d'une fonction sur un domaine correspond au maximum de sa valeur absolue sur le domaine. Notons que dépend de deux paramètres, m et n et que la dépendance entre et la norme L1 dépendra du rapport entre leurs taux de croissance. L'étude du comportement de la norme L1 est étroitement liée à l'étude de l'ensemble E(D) qui est l'ensemble des points d'accumulation de log(jjF jj1)= log : Notre principal résultat sera de montrer que [7=36; 1=4] E(B2) [1=18; 1=4]: Le mémoire est organisé comme suit. L'introdution et les résultats principaux sont présentés au chapitre 1. Au chapitre 2, on rappelle quelques faits biens connus concernant les fonctions propres du laplacien sur le disque et sur les fonctions de Bessel. Au chapitre 3, on prouve des résultats concernant la croissance de la norme ponctuelle des fonctions propres. On montre notamment que, si m=n ! 0, alors pour tout point donné (r; ) du disque, la valeur de F (r; ) décroit exponentiellement lorsque ! 1. Au chapitre 4, on montre plusieurs résultats sur la croissance de la norme L1. Le probl ème avec conditions frontières de Neumann est discuté au chapitre 5 et on présente quelques résultats numériques au chapitre 6. Une brève discussion et un sommaire de notre travail se trouve au chapitre 7.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente thèse de doctorat visait d’abord à valider les résultats des études antérieures démontrant un accroissement de la prévalence des problèmes de santé mentale et ensuite, à évaluer l’importance du contexte social dans l’explication des changements de prévalence, à partir des effets d’âge, de période et de cohorte. L’atteinte de ces objectifs s’est faite à partir de deux études empiriques, chacune ciblant sa propre problématique en santé mentale. La première étude, basée sur les données de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) de Statistique Canada, a permis de conclure à un accroissement réel de la prévalence du diagnostic de trouble déficitaire de l’attention/hyperactivité (TDA/H) et de la consommation de psychostimulants chez les enfants canadiens entre 1994 et 2007. Toutefois, cette tendance n’est ni constante, ni universelle, puisque des effets de période et d’âge apparaissent clairement : l’augmentation des prévalences est uniquement remarquée dans les années 2000, et survient seulement chez les enfants d’âge scolaire. L’identification d’inégalités de prévalence dues à la période historique et à l’âge des enfants souligne l’importance du contexte social dans la problématique du diagnostic de TDA/H et de la consommation de psychostimulants. La seconde étude a été réalisée à partir des données du Panel Study of Belgian Households (PSBH) et cherchait à expliquer l’accroissement des symptômes dépressifs observé ces vingt dernières années chez les adultes belges. L’utilisation de l’analyse multiniveaux longitudinale permettant la distinction des effets d’âge et des effets de cohortes a été privilégiée. Bien que l’intensité des symptômes dépressifs ait varié de manière relativement importante chez les individus au cours des années 1990, nos conclusions démontrent que les symptômes auto-rapportés de dépression sont davantage associés aux conditions de vie, qu’à la personnalité. L’augmentation résulte d’un effet de la succession des cohortes, où les individus des cohortes les plus récentes rapportent toujours une plus grande intensité de symptômes dépressifs que les individus des cohortes précédentes. Les membres d’une même cohorte de naissance partagent donc des expériences communes à un âge similaire, ce qui a un impact durable sur leurs comportements et sur leur santé mentale. De manière générale, les résultats des deux articles empiriques ont, chacun à leur manière, confirmé la réalité de l’accroissement des problèmes de santé mentale dans les sociétés occidentales contemporaines, et permis de constater que la prévalence diffère selon l’âge et la cohorte de naissance des individus, ainsi que selon la période historique, renforçant ainsi l’hypothèse de l’importance des facteurs sociaux dans l’étiologie des problèmes de santé mentale. Bien que la nature de ces facteurs n’ait pu être testée de manière directe, de nombreuses explications sociales furent tout de même proposées. À cet égard, des changements dans les normes comportementales associées à l’âge, dans les normes sociales, dans la conceptualisation des troubles mentaux, des modifications dans la sphère éducative, ainsi que des innovations pharmacologiques, médicales et technologiques constituent des explications sociales aux effets d’âge, de période et de cohorte qui ont été observés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study attempted to quantify the variations of the surface marine atmospheric boundary layer (MABL) parameters associated with the tropical Cyclone Gonu formed over the Arabian Sea during 30 May–7 June 2007 (just after the monsoon onset). These characteristics were evaluated in terms of surface wind, drag coefficient, wind stress, horizontal divergence, and frictional velocity using 0.5◦ × 0.5◦ resolution Quick Scatterometer (QuikSCAT) wind products. The variation of these different surface boundary layer parameters was studied for three defined cyclone life stages: prior to the formation, during, and after the cyclone passage. Drastic variations of the MABL parameters during the passage of the cyclone were observed. The wind strength increased from 12 to 22 m s−1 in association with different stages of Gonu. Frictional velocity increased from a value of 0.1–0.6 m s−1 during the formative stage of the system to a high value of 0.3–1.4 m s−1 during the mature stage. Drag coefficient varied from 1.5 × 10−3 to 2.5 × 10−3 during the occurrence of Gonu. Wind stress values varied from 0.4 to 1.1 N m−2. Wind stress curl values varied from 10 × 10−7 to 45 × 10−7 N m−3. Generally, convergent winds prevailed with the numerical value of divergence varying from 0 to –4 × 10−5 s−1. Maximum variations of the wind parameters were found in the wall cloud region of the cyclone. The parameters returned to normally observed values in 1–3 days after the cyclone passage

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atmospheric surface boundary layer parameters vary anomalously in response to the occurrence of annular solar eclipse on 15th January 2010 over Cochin. It was the longest annular solar eclipse occurred over South India with high intensity. As it occurred during the noon hours, it is considered to be much more significant because of its effects in all the regions of atmosphere including ionosphere. Since the insolation is the main driving factor responsible for the anomalous changes occurred in the surface layer due to annular solar eclipse, occurred on 15th January 2010, that played very important role in understanding dynamics of the atmosphere during the eclipse period because of its coincidence with the noon time. The Sonic anemometer is able to give data of zonal, meridional and vertical wind as well as the air temperature at a temporal resolution of 1 s. Different surface boundary layer parameters and turbulent fluxes were computed by the application of eddy correlation technique using the high resolution station data. The surface boundary layer parameters that are computed using the sonic anemometer data during the period are momentum flux, sensible heat flux, turbulent kinetic energy, frictional velocity (u*), variance of temperature, variances of u, v and w wind. In order to compare the results, a control run has been done using the data of previous day as well as next day. It is noted that over the specified time period of annular solar eclipse, all the above stated surface boundary layer parameters vary anomalously when compared with the control run. From the observations we could note that momentum flux was 0.1 Nm 2 instead of the mean value 0.2 Nm-2 when there was eclipse. Sensible heat flux anomalously decreases to 50 Nm 2 instead of the mean value 200 Nm 2 at the time of solar eclipse. The turbulent kinetic energy decreases to 0.2 m2s 2 from the mean value 1 m2s 2. The frictional velocity value decreases to 0.05 ms 1 instead of the mean value 0.2 ms 1. The present study aimed at understanding the dynamics of surface layer in response to the annular solar eclipse over a tropical coastal station, occurred during the noon hours. Key words: annular solar eclipse, surface boundary layer, sonic anemometer