914 resultados para least median of squares


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contaminant behaviour in soils and fractured rock is very complex, not least because of the heterogeneity of the subsurface environment. For non-aqueous phase liquids (NAPLs), a liquid density contrast and interfacial tension between the contaminant and interstitial fluid adds to the complexity of behaviour, increasing the difficulty of predicting NAPL behaviour in the subsurface. This paper outlines the need for physical model tests that can improve fundamental understanding of NAPL behaviour in the subsurface, enhance risk assessments of NAPL contaminated sites, reduce uncertainty associated with NAPL source remediation and improve current technologies for NAPL plume remediation. Four case histories are presented to illustrate physical modelling approaches that have addressed problems associated with NAPL transport, remediation and source zone characterization. © 2006 Taylor & Francis Group, London.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We consider cooperation situations where players have network relations. Networks evolve according to a stationary transition probability matrix and at each moment in time players receive payoffs from a stationary allocation rule. Players discount the future by a common factor. The pair formed by an allocation rule and a transition probability matrix is called a forward-looking network formation scheme if, first, the probability that a link is created is positive if the discounted, expected gains to its two participants are positive, and if, second, the probability that a link is eliminated is positive if the discounted, expected gains to at least one of its two participants are positive. The main result is the existence, for all discount factors and all value functions, of a forward-looking network formation scheme. Furthermore, we can always nd a forward-looking network formation scheme such that (i) the allocation rule is component balanced and (ii) the transition probabilities increase in the di erence in payo s for the corresponding players responsible for the transition. We use this dynamic solution concept to explore the tension between e ciency and stability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Support in R for state space estimation via Kalman filtering was limited to one package, until fairly recently. In the last five years, the situation has changed with no less than four additional packages offering general implementations of the Kalman filter, including in some cases smoothing, simulation smoothing and other functionality. This paper reviews some of the offerings in R to help the prospective user to make an informed choice.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Historical definitions of what determines whether one lives in a coastal area or not have varied over time. According to Culliton (1998), a “coastal county” is defined as a county with at least 15% of its total land area located within a nation’s coastal watershed. This emphasizes the land areas within which water flows into the ocean or Great Lakes, but may be better suited for ecosystems or water quality research (Crowell et al. 2007). Some Federal Emergency Management Agency (FEMA) documents suggest that “coastal” includes shoreline-adjacent coastal counties, and perhaps even counties impacted by flooding from coastal storms. An accurate definition of “coastal” is critical in this regard since FEMA uses such definitions to revise and modernize their Flood Insurance Rate Maps (Crowell et al. 2007). A recent map published by the National Oceanic and Atmospheric Administration’s (NOAA) Coastal Services Center for the Coastal Change Analysis Program shows that the “coastal” boundary covers the entire state of New York and Michigan, while nearly all of South Carolina is considered “coastal.” The definition of “coastal” one chooses can have major implications, including a simple count of coastal population and the influence of local or state coastal policies. There is, however, one aspect of defining what is “coastal” that has often been overlooked; using atmospheric long-term climate variables to define the inland extent of the coastal zone. This definition, which incorporates temperature, precipitation, wind speed, and relative humidity, is furthermore scalable and globally applicable - even in the face of shifting shorelines. A robust definition using common climate variables should condense the large broad definition often associated with “coastal” such that completely landlocked locations would no longer be considered “coastal.” Moreover, the resulting definition, “coastal climate” or “climatology of the coast”, will help coastal resource managers make better-informed decisions on a wide range of climatologically-influenced issues. The following sections outline the methodology employed to derive some new maps of coastal boundaries in the United States. (PDF contains 3 pages)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The dissertation studies the general area of complex networked systems that consist of interconnected and active heterogeneous components and usually operate in uncertain environments and with incomplete information. Problems associated with those systems are typically large-scale and computationally intractable, yet they are also very well-structured and have features that can be exploited by appropriate modeling and computational methods. The goal of this thesis is to develop foundational theories and tools to exploit those structures that can lead to computationally-efficient and distributed solutions, and apply them to improve systems operations and architecture.

Specifically, the thesis focuses on two concrete areas. The first one is to design distributed rules to manage distributed energy resources in the power network. The power network is undergoing a fundamental transformation. The future smart grid, especially on the distribution system, will be a large-scale network of distributed energy resources (DERs), each introducing random and rapid fluctuations in power supply, demand, voltage and frequency. These DERs provide a tremendous opportunity for sustainability, efficiency, and power reliability. However, there are daunting technical challenges in managing these DERs and optimizing their operation. The focus of this dissertation is to develop scalable, distributed, and real-time control and optimization to achieve system-wide efficiency, reliability, and robustness for the future power grid. In particular, we will present how to explore the power network structure to design efficient and distributed market and algorithms for the energy management. We will also show how to connect the algorithms with physical dynamics and existing control mechanisms for real-time control in power networks.

The second focus is to develop distributed optimization rules for general multi-agent engineering systems. A central goal in multiagent systems is to design local control laws for the individual agents to ensure that the emergent global behavior is desirable with respect to the given system level objective. Ideally, a system designer seeks to satisfy this goal while conditioning each agent’s control on the least amount of information possible. Our work focused on achieving this goal using the framework of game theory. In particular, we derived a systematic methodology for designing local agent objective functions that guarantees (i) an equivalence between the resulting game-theoretic equilibria and the system level design objective and (ii) that the resulting game possesses an inherent structure that can be exploited for distributed learning, e.g., potential games. The control design can then be completed by applying any distributed learning algorithm that guarantees convergence to the game-theoretic equilibrium. One main advantage of this game theoretic approach is that it provides a hierarchical decomposition between the decomposition of the systemic objective (game design) and the specific local decision rules (distributed learning algorithms). This decomposition provides the system designer with tremendous flexibility to meet the design objectives and constraints inherent in a broad class of multiagent systems. Furthermore, in many settings the resulting controllers will be inherently robust to a host of uncertainties including asynchronous clock rates, delays in information, and component failures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many engineering applications face the problem of bounding the expected value of a quantity of interest (performance, risk, cost, etc.) that depends on stochastic uncertainties whose probability distribution is not known exactly. Optimal uncertainty quantification (OUQ) is a framework that aims at obtaining the best bound in these situations by explicitly incorporating available information about the distribution. Unfortunately, this often leads to non-convex optimization problems that are numerically expensive to solve.

This thesis emphasizes on efficient numerical algorithms for OUQ problems. It begins by investigating several classes of OUQ problems that can be reformulated as convex optimization problems. Conditions on the objective function and information constraints under which a convex formulation exists are presented. Since the size of the optimization problem can become quite large, solutions for scaling up are also discussed. Finally, the capability of analyzing a practical system through such convex formulations is demonstrated by a numerical example of energy storage placement in power grids.

When an equivalent convex formulation is unavailable, it is possible to find a convex problem that provides a meaningful bound for the original problem, also known as a convex relaxation. As an example, the thesis investigates the setting used in Hoeffding's inequality. The naive formulation requires solving a collection of non-convex polynomial optimization problems whose number grows doubly exponentially. After structures such as symmetry are exploited, it is shown that both the number and the size of the polynomial optimization problems can be reduced significantly. Each polynomial optimization problem is then bounded by its convex relaxation using sums-of-squares. These bounds are found to be tight in all the numerical examples tested in the thesis and are significantly better than Hoeffding's bounds.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Hamilton Jacobi Bellman (HJB) equation is central to stochastic optimal control (SOC) theory, yielding the optimal solution to general problems specified by known dynamics and a specified cost functional. Given the assumption of quadratic cost on the control input, it is well known that the HJB reduces to a particular partial differential equation (PDE). While powerful, this reduction is not commonly used as the PDE is of second order, is nonlinear, and examples exist where the problem may not have a solution in a classical sense. Furthermore, each state of the system appears as another dimension of the PDE, giving rise to the curse of dimensionality. Since the number of degrees of freedom required to solve the optimal control problem grows exponentially with dimension, the problem becomes intractable for systems with all but modest dimension.

In the last decade researchers have found that under certain, fairly non-restrictive structural assumptions, the HJB may be transformed into a linear PDE, with an interesting analogue in the discretized domain of Markov Decision Processes (MDP). The work presented in this thesis uses the linearity of this particular form of the HJB PDE to push the computational boundaries of stochastic optimal control.

This is done by crafting together previously disjoint lines of research in computation. The first of these is the use of Sum of Squares (SOS) techniques for synthesis of control policies. A candidate polynomial with variable coefficients is proposed as the solution to the stochastic optimal control problem. An SOS relaxation is then taken to the partial differential constraints, leading to a hierarchy of semidefinite relaxations with improving sub-optimality gap. The resulting approximate solutions are shown to be guaranteed over- and under-approximations for the optimal value function. It is shown that these results extend to arbitrary parabolic and elliptic PDEs, yielding a novel method for Uncertainty Quantification (UQ) of systems governed by partial differential constraints. Domain decomposition techniques are also made available, allowing for such problems to be solved via parallelization and low-order polynomials.

The optimization-based SOS technique is then contrasted with the Separated Representation (SR) approach from the applied mathematics community. The technique allows for systems of equations to be solved through a low-rank decomposition that results in algorithms that scale linearly with dimensionality. Its application in stochastic optimal control allows for previously uncomputable problems to be solved quickly, scaling to such complex systems as the Quadcopter and VTOL aircraft. This technique may be combined with the SOS approach, yielding not only a numerical technique, but also an analytical one that allows for entirely new classes of systems to be studied and for stability properties to be guaranteed.

The analysis of the linear HJB is completed by the study of its implications in application. It is shown that the HJB and a popular technique in robotics, the use of navigation functions, sit on opposite ends of a spectrum of optimization problems, upon which tradeoffs may be made in problem complexity. Analytical solutions to the HJB in these settings are available in simplified domains, yielding guidance towards optimality for approximation schemes. Finally, the use of HJB equations in temporal multi-task planning problems is investigated. It is demonstrated that such problems are reducible to a sequence of SOC problems linked via boundary conditions. The linearity of the PDE allows us to pre-compute control policy primitives and then compose them, at essentially zero cost, to satisfy a complex temporal logic specification.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

An economic air pollution control model, which determines the least cost of reaching various air quality levels, is formulated. The model takes the form of a general, nonlinear, mathematical programming problem. Primary contaminant emission levels are the independent variables. The objective function is the cost of attaining various emission levels and is to be minimized subject to constraints that given air quality levels be attained.

The model is applied to a simplified statement of the photochemical smog problem in Los Angeles County in 1975 with emissions specified by a two-dimensional vector, total reactive hydrocarbon, (RHC), and nitrogen oxide, (NOx), emissions. Air quality, also two-dimensional, is measured by the expected number of days per year that nitrogen dioxide, (NO2), and mid-day ozone, (O3), exceed standards in Central Los Angeles.

The minimum cost of reaching various emission levels is found by a linear programming model. The base or "uncontrolled" emission levels are those that will exist in 1975 with the present new car control program and with the degree of stationary source control existing in 1971. Controls, basically "add-on devices", are considered here for used cars, aircraft, and existing stationary sources. It is found that with these added controls, Los Angeles County emission levels [(1300 tons/day RHC, 1000 tons /day NOx) in 1969] and [(670 tons/day RHC, 790 tons/day NOx) at the base 1975 level], can be reduced to 260 tons/day RHC (minimum RHC program) and 460 tons/day NOx (minimum NOx program).

"Phenomenological" or statistical air quality models provide the relationship between air quality and emissions. These models estimate the relationship by using atmospheric monitoring data taken at one (yearly) emission level and by using certain simple physical assumptions, (e. g., that emissions are reduced proportionately at all points in space and time). For NO2, (concentrations assumed proportional to NOx emissions), it is found that standard violations in Central Los Angeles, (55 in 1969), can be reduced to 25, 5, and 0 days per year by controlling emissions to 800, 550, and 300 tons /day, respectively. A probabilistic model reveals that RHC control is much more effective than NOx control in reducing Central Los Angeles ozone. The 150 days per year ozone violations in 1969 can be reduced to 75, 30, 10, and 0 days per year by abating RHC emissions to 700, 450, 300, and 150 tons/day, respectively, (at the 1969 NOx emission level).

The control cost-emission level and air quality-emission level relationships are combined in a graphical solution of the complete model to find the cost of various air quality levels. Best possible air quality levels with the controls considered here are 8 O3 and 10 NO2 violations per year (minimum ozone program) or 25 O3 and 3 NO2 violations per year (minimum NO2 program) with an annualized cost of $230,000,000 (above the estimated $150,000,000 per year for the new car control program for Los Angeles County motor vehicles in 1975).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O modelo demanda-controle proposto por Karasek caracteriza as situações de estresse no ambiente laboral que é definido pela alta exigência no trabalho resultante da combinação do efeito da demanda psicológica no trabalho (estressores) e moderadores do estresse, especialmente a capacidade de tomar decisões (controle). Existem diversas formas de operacionalizar a exposição (alta exigência no trabalho) descritas na literatura. No entanto, não há consenso sobre qual a melhor operacionalização. Outra questão negligenciada pela maioria dos autores é a forma funcional da curva exposição-resposta ou não linearidade da associação. Entre os desfechos avaliados em estudos sobre os efeitos do estresse no trabalho, usando o modelo demanda-controle, estão as doenças cardiovasculares, como a hipertensão arterial. Contudo, os resultados relatados parecem conflitantes sobre a associação entre o estresse no trabalho e a hipertensão arterial. Os objetivos deste trabalho são estudar a associação entre o estresse no trabalho e aumento da pressão arterial/hipertensão arterial usando as diferentes formas de operacionalização do estresse no trabalho e avaliar a curva exposição-resposta quanto à linearidade. O trabalho é um estudo seccional desenvolvido na população do Estudo Pró-Saúde que é composta por servidores públicos de uma universidade no Rio de Janeiro. Modelos de regressão usando diferentes distribuições foram usados para estimar a associação entre a alta exigência no trabalho e a pressão arterial/hipertensão arterial. Funções não lineares foram utilizadas para investigar a linearidade da associação entre a exposição e os desfechos. Os resultados sugerem que a relação entre a dimensão controle e a pressão arterial seja não linear. Foram observadas associações significativas entre alta exigência no trabalho e pressão arterial sistólica e diastólica para algumas formas de operacionalização da exposição, quando analisados separadamente. No entanto, quando analisadas de forma conjunta por meio do modelo de resposta bivariada não foi encontrada associação. Também não foi encontrada associação entre a alta exigência no trabalho e hipertensão arterial para nenhuma forma de operacionalização da exposição. Os modelos estatísticos com melhor ajuste foram aqueles em que a exposição foi operacionalizada por meio de quadrantes gerados pela mediana de cada uma das dimensões e de forma dicotômica com termo de interação entre demanda psicológica e controle. Neste estudo estas foram as formas mais adequadas de operacionalização. Os resultados também mostram que a associação entre a dimensão controle e a pressão arterial é não linear. Conclui-se que não há garantia de linearidade da associação entre estresse no trabalho e pressão arterial e que essa associação pode ser influenciada pela forma de operacionalização da exposição e do desfecho ou da estratégia de modelagem.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work we extend to the multistage case two recent risk averse measures for two-stage stochastic programs based on first- and second-order stochastic dominance constraints induced by mixed-integer linear recourse. Additionally, we consider Time Stochastic Dominance (TSD) along a given horizon. Given the dimensions of medium-sized problems augmented by the new variables and constraints required by those risk measures, it is unrealistic to solve the problem up to optimality by plain use of MIP solvers in a reasonable computing time, at least. Instead of it, decomposition algorithms of some type should be used. We present an extension of our Branch-and-Fix Coordination algorithm, so named BFC-TSD, where a special treatment is given to cross scenario group constraints that link variables from different scenario groups. A broad computational experience is presented by comparing the risk neutral approach and the tested risk averse strategies. The performance of the new version of the BFC algorithm versus the plain use of a state-of-the-artMIP solver is also reported.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tendo em vista a multiplicidade das ações causada pela interação dos agentes químicos com possíveis danos a biota pelos efluentes, a estratégia mais eficiente é o uso integrado de análises físicas, químicas e ecotóxicológicas para avaliação e previsão do risco ambiental. Nesse sentido, ensaios ecotoxicológicos são importantes meios de monitoramento ambiental a fim de se preservar o meio aquático. Um dos objetivos principais do trabalho foi implementar o método de ensaio com Daphnia similis de acordo com a ABNT NBR 12713: 2009. Além disso, objetivou-se avaliar a sensibilidade relativa de dois organismos-testes (Daphnia similis e Danio rerio) a efluentes de diversas indústrias tais como: alimentícia, bebidas, farmacêutica, papel, petroquímica, efluente proveniente de decapagem de metais, e chorume proveniente de três aterros diferentes (São Paulo, Rio de Janeiro e Rio Grande do Sul) avaliando os resultados físico-químicos e os limites das legislações vigentes no Rio de Janeiro (NT 213, NT 202 e DZ 205). Dessa forma, pretende-se observar se os limites estabelecidos são suficientes para não conferir ecotoxicidade aguda ao corpo hídrico. Os efluentes tratados da indústria alimentícia, de bebidas, de papel e farmacêutica não apresentaram ecotoxicidade aguda nem a Daphnia similis nem ao Danio rerio. Já o ensaio com o efluente proveniente da decapagem de metais, apresentou-se muito tóxico aos dois organismos, sendo CL(I)50;48h igual 39,99% e CE(I)50;48h igual a 11,87%, respectivamente. Com relação aos efluentes da indústria petroquímica A, foi detectada ecotoxicidade mesmo estando todos os seus parâmetros analisados de acordo com as legislações vigentes. Já os efluentes provenientes de aterro sanitário, o chorume oriundo de aterro da região metropolitana de São Paulo, em geral, apresentou-se como sendo o mais tóxico dos três aterros sanitários. E o chorume tratado oriundo do aterro do Rio Grande do Sul, demonstrou-se ser o menos tóxico dos três, principalmente com relação à Daphnia similis. De modo geral, todos os efluentes que se encontraram dentro dos limites da legislação (DZ 205 e NT 202), não apresentaram ecotoxicidade aos organismos em estudo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Na última década, surgiram evidências de que a Síndrome Metabólica (SM), relatada de forma crescente entre adolescentes, tem início na vida intrauterina e seus sinais e sintomas já estão presentes na adolescência, porém, ainda faltam critérios diagnósticos específicos para essa faixa etária. O ciclo menstrual representa o resultado do funcionamento normal não apenas do eixo Hipotálamo-Hipófise-Ovário (HHO), do útero e do aparelho genital, mas também, do equilíbrio metabólico do organismo. Alterações no ciclo menstrual podem representar sinais de desequilíbrio e anormalidade. A SM está também relacionada à Síndrome dos Ovários Policísticos (SOP), disfunção ovariana caracterizada por oligoanovulação, hiperandrogenismo e/ou ovários policísticos. A resistência à insulina (RI) tem um papel central na fisiopatologia e na inter-relação dos componentes tanto da SM como também da SOP. A RI é compensada pelo aumento da produção de insulina pelas células beta pancreáticas, e essa hiperinsulinemia compensatória tem conseqüências no endotélio, nos fatores inflamatórios, no metabolismo glicídico e lipídico, além de afetar o ciclo menstrual pelo estímulo da androgênese ovariana, suprimindo a SHBG e possivelmente alterando o padrão da secreção pulsátil do GnRH. Estas alterações menstruais podem apresentar-se de forma precoce, antes das alterações metabólicas da RI, portanto, a avaliação atenta do padrão menstrual de adolescentes pode representar um valioso sinal que alerta para o risco metabólico e cardiovascular. Avaliamos o comportamento de parâmetros da Síndrome Metabólica e sua relação com o ciclo menstrual em adolescentes através de um estudo observacional transversal com 59 adolescentes do sexo feminino entre 12 e 19 anos e presença de pelo menos um dos seguintes fatores de risco para SM: Sobrepeso - Obesidade - Acantose Nigricans. Todas as adolescentes foram submetidas a uma avaliação clínica com levantamento de dados antropométricos, e laboratoriais composta de: Glicose de Jejum, Colesterol Total, HDL-Colesterol, Triglicerídeos, Teste Oral de Tolerância a Glicose (Glicose 120), Insulina pré (insulina jejum), pós TOTG (insulina 120), Folículo-Estimulante (FSH), Hormônio Luteinizante (LH), Testosterona Total (TT), Androstenediona, Foram criados 2 grupos:G-1- adolescentes com ciclos irregulares, e G-2- adolescentes com ciclos regulares. Das 59 adolescentes avaliadas, 36 formaram o G-1, e 23 o G-2. A média da idade ginecológica foi de 4,5 anos e da menarca 11,3 anos. Na análise estatística das diferenças nas variáveis clínicas e laboratoriais entre os grupos, observou-se que o G-1 apresentou: Cintura (p=0,026), Insulina de jejum (p=0,001), Glicose 120 (p=0,002), insulina 120 (p=0,0001), HOMA-IR (p=0,0008), Triglicerídeos (p=0,013), SM (p<0,0001) e SOP (p<0,0001) significativamente maiores e QUICK (p=0,008), G/I (p=0,002), HDL (p=0,001) significativamente menores que o G-2. (88,8% das adolescentes com ciclos irregulares no ultimo ano apresentavam irregularidade desde a menarca. Estes resultados demonstram uma associação significativa entre a irregularidade menstrual, RI, SM e SOP na população estudada. Todas as adolescentes com diagnóstico de SM apresentavam irregularidade desde a menarca e destas, 93,5% tiveram o diagnóstico de SOP. O nosso estudo chama a atenção para o comportamento do ciclo menstrual na adolescência em relação aos riscos cardiovasculares e metabólicos, sinalizando assim que outros estudos precisam ser desenvolvidos nesta população.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho examina as razões dos procedimentos de urgência nos projetos do Executivo junto à Assembléia Legislativa do Estado do Rio Grande do Sul entre 1999-2006. Para tal, o texto discute os fundamentos e algumas implicações de teorias sobre a organização legislativa, especialmente as vertentes partidária e informacional, situando, primeiramente, o debate sobre a política regional gaúcha e as relações Executivo-Legislativo no âmbito subnacional brasileiro. O objetivo do estudo é analisar a rationale dos procedimentos de urgência utilizados pelo Governador, unilateralmente, e pelo próprio Legislativo, através de seu Colégio de Líderes, para acelerar a tramitação dos projetos do Executivo, retirando a matéria das Comissões permanentes antes da aprovação de parecer. Empiricamente, a pesquisa investiga se a presença de cartéis legislativos e a distância das preferências do Governo em relação às do mediano do Plenário da Assembléia têm efeitos sobre as chances de utilização de tais procedimentos. Assim, avalia a possibilidade de conjugação da teoria partidária com problemas informacionais para a análise do processo decisório legislativo no âmbito subnacional. O exame conclui que tanto a urgência governamental quanto o acordo de lideranças possuem padrões distintos apresentando resultados diversos que dependem do tamanho das forças políticas e da distribuição de preferências, figurando as instituições como fatores intervenientes, de modo que tais procedimentos obedecem a uma lógica partidária, mas colocada diante de problemas informacionais

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pacientes com doença renal crônica (DRC) na fase não dialítica são normalmente orientados a seguir uma dieta hipoproteica e hipossódica. Estudos nacionais e internacionais mostram que a adesão a essa dieta tem sido baixa e difícil de ser mantida, pois requer mudanças importantes no hábito alimentar. O objetivo do presente estudo foi avaliar o impacto de um programa de educação nutricional sobre a adesão à dieta hipoproteica em pacientes com DRC em tratamento conservador. Trata-se de um ensaio clínico randomizado, prospectivo com duração de 5 1,5 meses. Foram acompanhados 85 pacientes com DRC na fase não dialítica, atendidos em dois Ambulatórios de Nutrição e Doenças Renais do Hospital Universitário Pedro Ernesto. Os pacientes foram divididos de forma aleatória em 2 grupos: Intervenção (n=39) e Controle (n=46). Os pacientes do Grupo Intervenção foram submetidos a um programa de educação nutricional, além da orientação de dieta hipoproteica (0,6 a 0,75 g/kg/dia). Os pacientes do Grupo Controle foram submetidos apenas à orientação de dieta hipoproteica (0,6 a 0,75 g/kg/dia). A avaliação da adesão foi feita a partir da estimativa do consumo de proteína por recordatório alimentar de 24 horas. Adotou-se como critério de adesão apresentar ao final do estudo redução de ao menos 20% da ingestão proteica inicial. A avaliação nutricional e laboratorial foi realizada no início e no término do estudo. Os parâmetros antropométricos avaliados foram peso, estatura, dobras cutâneas do tríceps, bíceps, subescapular e supra-ilíaca e perímetro da cintura e do braço. As laboratoriais foram creatinina, uréia, potássio, fósforo, glicose e albumina no plasma e sódio e uréia na urina de 24 horas. Ao avaliar o amostra total, 51,8% dos pacientes eram do sexo masculino, com média de idade de 63,4 11,0 anos, IMC indicativo de sobrepeso (28,8 5,4 kg/m2) e filtração glomerular estimada (FGe) de 32,6 12,2 mL/mim/1,73m2. As características iniciais não diferiram entre os Grupos Intervenção e Controle. Ambos os grupos apresentaram melhora dos parâmetros laboratoriais e antropometricos, com redução significante da uréia plasmática e da glicemia no Grupo Controle (P < 0,05 vs início do estudo) e do IMC em ambos os grupos (P < 0,05 vs início do estudo). Após o período de acompanhamento, o Grupo Intervenção e o Grupo Controle apresentaram ingestão proteica significantemente diferente (0,62 0,2 vs 0,77 0,26 g/kg/dia, respectivamente). A ingestão de sódio não mudou de forma significante em ambos os grupos no inicio e término do acompanhamento. A Adesão à ingestão proteica foi observada em 74,4% do Grupo Intervenção e em 47,8% do Grupo Controle (P < 0,05). A análise de regressão logística multivariada revelou que pertencer ao Grupo Intervenção e sexo masculino se associaram com a Adesão (P <0,05), mesmo após corrigir para outras variáveis testadas. Com base nos achados desse estudo, pode-se concluir que o programa de educação nutricional foi uma ferramenta eficaz no tratamento dietoterápico do paciente com DRC na pré-diálise, pois promoveu melhora na adesão à dieta hipoproteica, além de ter promovido melhora dos parâmetros antropométricos e laboratoriais.