942 resultados para Curves, Transcendental
Resumo:
ABSTRACT: The comparison of the different bids in the tender for a project, with the traditional contract system based on unit rates open to and re-measurement, requires analysis tools that are able to discriminate proposals having a similar overall economic impact, but that might show a very different behaviour during the execution of the works. RESUMEN: La estimación rápida de costes en fases iniciales del proyecto por métodos paramétricos y referencias estadísticas es un tema bien estudiado, divulgado y aplicado en el sector de la construcción. Sin embargo, existe poca literatura técnica sobre sistemas de predimensionado de tiempos, que permitan realizar rápidamente una planificación con un grado de aproximación razonable. Este texto reúne dos aspectos ya conocidos, pero hasta ahora independientes, y una aportación propia: -La estimación del plazo final por referencias estadísticas (BCIS, 2000) - La estimación del reparto del coste total a lo largo de la ejecución mediante curvas "S" (diversos autores) La estimación de la duración de la ejecución de las actividades en función de su coste. El conjunto de estas tres técnicas, aplicadas a un proyecto, permite obtener una planificación con el suficiente grado de detalle y fiabilidad para tomar decisiones en fases iniciales del proyecto.
Resumo:
The problem of parameterizing approximately algebraic curves and surfaces is an active research field, with many implications in practical applications. The problem can be treated locally or globally. We formally state the problem, in its global version for the case of algebraic curves (planar or spatial), and we report on some algorithms approaching it, as well as on the associated error distance analysis.
Resumo:
The purpose of this study was to compare a number of state-of-the-art methods in airborne laser scan- ning (ALS) remote sensing with regards to their capacity to describe tree size inequality and other indi- cators related to forest structure. The indicators chosen were based on the analysis of the Lorenz curve: Gini coefficient ( GC ), Lorenz asymmetry ( LA ), the proportions of basal area ( BALM ) and stem density ( NSLM ) stocked above the mean quadratic diameter. Each method belonged to one of these estimation strategies: (A) estimating indicators directly; (B) estimating the whole Lorenz curve; or (C) estimating a complete tree list. Across these strategies, the most popular statistical methods for area-based approach (ABA) were used: regression, random forest (RF), and nearest neighbour imputation. The latter included distance metrics based on either RF (NN–RF) or most similar neighbour (MSN). In the case of tree list esti- mation, methods based on individual tree detection (ITD) and semi-ITD, both combined with MSN impu- tation, were also studied. The most accurate method was direct estimation by best subset regression, which obtained the lowest cross-validated coefficients of variation of their root mean squared error CV(RMSE) for most indicators: GC (16.80%), LA (8.76%), BALM (8.80%) and NSLM (14.60%). Similar figures [CV(RMSE) 16.09%, 10.49%, 10.93% and 14.07%, respectively] were obtained by MSN imputation of tree lists by ABA, a method that also showed a number of additional advantages, such as better distributing the residual variance along the predictive range. In light of our results, ITD approaches may be clearly inferior to ABA with regards to describing the structural properties related to tree size inequality in for- ested areas.
Resumo:
When applying computational mathematics in practical applications, even though one may be dealing with a problem that can be solved algorithmically, and even though one has good algorithms to approach the solution, it can happen, and often it is the case, that the problem has to be reformulated and analyzed from a different computational point of view. This is the case of the development of approximate algorithms. This paper frames in the research area of approximate algebraic geometry and commutative algebra and, more precisely, on the problem of the approximate parametrization.
Resumo:
Esta tese de Doutorado procura estudar os métodos teológicos em diálogo, antropologiatranscendental de Karl Rahner e correlação de Paul Tillich, a partir da sistematização da ontologia existencial elaborada pelo jovem Heidegger em Sein und Zeit. Tanto num, como noutro método, o que se discute é a profundidade do ser, na sua possibilidade de aproximação em superação ao que não pode ser dito. Nesse caso, tanto a metafísica tomista, resgatada por Rahner, quanto a secularização protestante e o abismo do ser, enfatizado por Tillich, assumem a impossibilidade de se dizer o conteúdo do sagrado, exatamente por se situarem ou no inconceito da raiz ontológica (Rahner), ou no excesso de sentido do Ultimate Concern (Tillich). Dessas impossibilades, independente se um antes e depois (Rahner), ou se um depois e um antes em profundidade (Tillich), o que se tem é a pergunta ontológica como possibilidade da abertura do ser, nos dois casos sem conteúdo, para que a resposta , que também não responde, seja dada como (im)possibilidade do deslocamento do ser. No resgate da metafísica tomista, em Rahner, há um deslocamento a partir de um sentido, de certo modo linear , daí antropologia-transcendental. Já na leitura protestante de Tillich, o deslocamento se dá por uma dialética , o ser ameaçado pelo não-ser, como uma unidade rompida, daí correlação. A tese é apresentada em quatro capítulos. No primeiro há uma leitura de Heidegger, pela perspectiva da hermenêutica da compreensão. Já no segundo a reflexão se dá em busca da possibilidade da compreensão pela racionalidade ontológica na correlação, Paul Tillich, pela mediação do simbólico. No terceiro, seguindo as mesmas preocupações, se faz a leitura da epistemologia na racionalidade ontológica na antropologia -transcendental, Karl Rahner, pela mediação da pré-apreensão. O quarto capítulo apresenta temas decorrentes, e tradicionais da teologia, em diálogo a partir dos métodos.(AU)
Resumo:
Esta tese de Doutorado procura estudar os métodos teológicos em diálogo, antropologiatranscendental de Karl Rahner e correlação de Paul Tillich, a partir da sistematização da ontologia existencial elaborada pelo jovem Heidegger em Sein und Zeit. Tanto num, como noutro método, o que se discute é a profundidade do ser, na sua possibilidade de aproximação em superação ao que não pode ser dito. Nesse caso, tanto a metafísica tomista, resgatada por Rahner, quanto a secularização protestante e o abismo do ser, enfatizado por Tillich, assumem a impossibilidade de se dizer o conteúdo do sagrado, exatamente por se situarem ou no inconceito da raiz ontológica (Rahner), ou no excesso de sentido do Ultimate Concern (Tillich). Dessas impossibilades, independente se um antes e depois (Rahner), ou se um depois e um antes em profundidade (Tillich), o que se tem é a pergunta ontológica como possibilidade da abertura do ser, nos dois casos sem conteúdo, para que a resposta , que também não responde, seja dada como (im)possibilidade do deslocamento do ser. No resgate da metafísica tomista, em Rahner, há um deslocamento a partir de um sentido, de certo modo linear , daí antropologia-transcendental. Já na leitura protestante de Tillich, o deslocamento se dá por uma dialética , o ser ameaçado pelo não-ser, como uma unidade rompida, daí correlação. A tese é apresentada em quatro capítulos. No primeiro há uma leitura de Heidegger, pela perspectiva da hermenêutica da compreensão. Já no segundo a reflexão se dá em busca da possibilidade da compreensão pela racionalidade ontológica na correlação, Paul Tillich, pela mediação do simbólico. No terceiro, seguindo as mesmas preocupações, se faz a leitura da epistemologia na racionalidade ontológica na antropologia -transcendental, Karl Rahner, pela mediação da pré-apreensão. O quarto capítulo apresenta temas decorrentes, e tradicionais da teologia, em diálogo a partir dos métodos.(AU)
Resumo:
A práxis religiosa dos cristãos na América Latina está profundamente associada aos debates de superação da exclusão social na busca de uma sociedade mais justa e solidária. Desde o pós-guerra os cristãos são fundamentais nas ações de transformação da sociedade. Nesta tradição, a CNBB propõe orientações pastorais sobre as diversas realidades da sociedade, também a economia. Entre 1995 e 2004, os documentos oficiais da CNBB apresentam uma contundente crítica ao sistema de globalização neoliberal, apresentando a exigência dos cristãos trabalharem na superação desta ideologia econômica em busca de uma sociedade mais justa e igualitária. É importante perceber as contribuições específicas do cristianismo deste discurso teológico-pastoral. Esta crítica levada a sua radicalidade teológica deve ser capaz de desvelar a ilusão transcendental, criticando a ingenuidade utópica que absolutiza projetos históricos gerando sacrifícios de vidas humanas. Para isto, é necessário contínuo discernimento a partir da liberdade cristã que se constitui em um critério ético fundamental de discernimento a partir da vida das vítimas. Neste sentido, os textos sociais da CNBB são apresentados no contexto do discurso social católico no Brasil, em sua lógica crítica ao neoliberalismo e na análise da ilusão transcendental às vezes reproduzida nas propostas de superação da sociedade atual.
Resumo:
A práxis religiosa dos cristãos na América Latina está profundamente associada aos debates de superação da exclusão social na busca de uma sociedade mais justa e solidária. Desde o pós-guerra os cristãos são fundamentais nas ações de transformação da sociedade. Nesta tradição, a CNBB propõe orientações pastorais sobre as diversas realidades da sociedade, também a economia. Entre 1995 e 2004, os documentos oficiais da CNBB apresentam uma contundente crítica ao sistema de globalização neoliberal, apresentando a exigência dos cristãos trabalharem na superação desta ideologia econômica em busca de uma sociedade mais justa e igualitária. É importante perceber as contribuições específicas do cristianismo deste discurso teológico-pastoral. Esta crítica levada a sua radicalidade teológica deve ser capaz de desvelar a ilusão transcendental, criticando a ingenuidade utópica que absolutiza projetos históricos gerando sacrifícios de vidas humanas. Para isto, é necessário contínuo discernimento a partir da liberdade cristã que se constitui em um critério ético fundamental de discernimento a partir da vida das vítimas. Neste sentido, os textos sociais da CNBB são apresentados no contexto do discurso social católico no Brasil, em sua lógica crítica ao neoliberalismo e na análise da ilusão transcendental às vezes reproduzida nas propostas de superação da sociedade atual.
Resumo:
Fix an isogeny class
Resumo:
Let E be a modular elliptic curve over ℚ, without complex multiplication; let p be a prime number where E has good ordinary reduction; and let F∞ be the field obtained by adjoining to ℚ all p-power division points on E. Write G∞ for the Galois group of F∞ over ℚ. Assume that the complex L-series of E over ℚ does not vanish at s = 1. If p ⩾ 5, we make a precise conjecture about the value of the G∞-Euler characteristic of the Selmer group of E over F∞. If one makes a standard conjecture about the behavior of this Selmer group as a module over the Iwasawa algebra, we are able to prove our conjecture. The crucial local calculations in the proof depend on recent joint work of the first author with R. Greenberg.
Resumo:
To provide a more general method for comparing survival experience, we propose a model that independently scales both hazard and time dimensions. To test the curve shape similarity of two time-dependent hazards, h1(t) and h2(t), we apply the proposed hazard relationship, h12(tKt)/ h1(t) = Kh, to h1. This relationship doubly scales h1 by the constant hazard and time scale factors, Kh and Kt, producing a transformed hazard, h12, with the same underlying curve shape as h1. We optimize the match of h12 to h2 by adjusting Kh and Kt. The corresponding survival relationship S12(tKt) = [S1(t)]KtKh transforms S1 into a new curve S12 of the same underlying shape that can be matched to the original S2. We apply this model to the curves for regional and local breast cancer contained in the National Cancer Institute's End Results Registry (1950-1973). Scaling the original regional curves, h1 and S1 with Kt = 1.769 and Kh = 0.263 produces transformed curves h12 and S12 that display congruence with the respective local curves, h2 and S2. This similarity of curve shapes suggests the application of the more complete curve shapes for regional disease as templates to predict the long-term survival pattern for local disease. By extension, this similarity raises the possibility of scaling early data for clinical trial curves according to templates of registry or previous trial curves, projecting long-term outcomes and reducing costs. The proposed model includes as special cases the widely used proportional hazards (Kt = 1) and accelerated life (KtKh = 1) models.
Resumo:
The use of computer programs to predict drug absorption in humans and to simulate dissolution profiles has become a valuable tool in the pharmaceutical area. The objective of this study was to use in silico methods through software GastroPlusTM and DDDPlusTM to simulate drug absorption curves and dissolution profiles, and to establish in vitro-in vivo correlations (IVIVCs). The work presented herein is divided into five chapters and includes the drugs ketoprofen, pyrimethamine, metronidazole, fluconazole, carvedilol and doxazosin. In Chapter 1, simulated plasma curves for ketoprofen matrix tablets are presented and IVIVC was established. The use of simulated intrinsic dissolution tests for pyrimethamine and metronidazole as a tool for biopharmaceutics classification is detailed in Chapter 2. In Chapter 3, simulation of plasma curves for fluconazole capsules with different dissolution profiles is demonstrated as a tool for biowaiver. IVIVC studies were also conducted for carvedilol immediate-release tablets from dissolution profiles in Chapter 4. Chapter 5 covers the application of simulated dissolution tests for development of doxazosin extended-release formulations. Simulation of plasma curves and IVIVC using the software GastroPlusTM as well as intrinsic dissolution tests and dissolution profiles using the software DDDPlusTM proved to be a tool of wide application in predicting biopharmaceutical characteristics of drugs and formulations, allowing the reduction of time and costs of experimental laboratory work.
Resumo:
A single and very easy to use Graphical User Interface (GUI- MATLAB) based on the topological information contained in the Gibbs energy of mixing function has been developed as a friendly tool to check the coherence of NRTL parameters obtained in a correlation data procedure. Thus, the analysis of the GM/RT surface, the GM/RT for the binaries and the GM/RT in planes containing the tie lines should be necessary to validate the obtained parameters for the different models for correlating phase equlibrium data.
Resumo:
This paper introduces a more sophisticated modelling of the labour market functioning of the European member and candidate states through the introduction of labour supply curves in an applied general equilibrium model. A labour supply curve offers a middle way in labour supply modelling, sitting between the two commonly adopted extremes of spare capacity and full employment. The first part of the paper outlines the theoretical foundation of the labour supply curve. Real world data is then used to derive labour supply curves for each member state, along with Croatia and Turkey. Finally, the impact of the newly specified labour markets on the results of an illustrative scenario involving reform of the common agricultural policy is explored. The results of computable general equilibrium analysis with the labour supply curve confirm the theoretical expectation that modelling the labour supply through an upwards-sloping curve produces results that lie between the extremes of spare capacity of the labour factor and fully employed labour. This specification captures a greater degree of heterogeneity in the labour markets of the member and candidate states, allowing for a more nuanced modelling of the effects of policy reform, including welfare effects.