946 resultados para Heurística surrogate
Resumo:
Cocoa flavanol (CF) intake improves endothelial function in patients with cardiovascular risk factors and disease. We investigated the effects of CF on surrogate markers of cardiovascular health in low risk, healthy, middle-aged individuals without history, signs or symptoms of CVD. In a 1-month, open-label, one-armed pilot study, bi-daily ingestion of 450 mg of CF led to a time-dependent increase in endothelial function (measured as flow-mediated vasodilation (FMD)) that plateaued after 2 weeks. Subsequently, in a randomised, controlled, double-masked, parallel-group dietary intervention trial (Clinicaltrials.gov: NCT01799005), 100 healthy, middle-aged (35–60 years) men and women consumed either the CF-containing drink (450 mg) or a nutrient-matched CF-free control bi-daily for 1 month. The primary end point was FMD. Secondary end points included plasma lipids and blood pressure, thus enabling the calculation of Framingham Risk Scores and pulse wave velocity. At 1 month, CF increased FMD over control by 1·2 % (95 % CI 1·0, 1·4 %). CF decreased systolic and diastolic blood pressure by 4·4 mmHg (95 % CI 7·9, 0·9 mmHg) and 3·9 mmHg (95 % CI 6·7, 0·9 mmHg), pulse wave velocity by 0·4 m/s (95 % CI 0·8, 0·04 m/s), total cholesterol by 0·20 mmol/l (95 % CI 0·39, 0·01 mmol/l) and LDL-cholesterol by 0·17 mmol/l (95 % CI 0·32, 0·02 mmol/l), whereas HDL-cholesterol increased by 0·10 mmol/l (95 % CI 0·04, 0·17 mmol/l). By applying the Framingham Risk Score, CF predicted a significant lowering of 10-year risk for CHD, myocardial infarction, CVD, death from CHD and CVD. In healthy individuals, regular CF intake improved accredited cardiovascular surrogates of cardiovascular risk, demonstrating that dietary flavanols have the potential to maintain cardiovascular health even in low-risk subjects.
Resumo:
The positions of atoms in and around acetate molecules at the rutile TiO2(110) interface with 0.1 M acetic acid have been determined with a precision of ±0.05 Å. Acetate is used as a surrogate for the carboxylate groups typically employed to anchor monocarboxylate dye molecules to TiO2 in dye-sensitised solar cells (DSSC). Structural analysis reveals small domains of ordered (2 x 1) acetate molecules, with substrate atoms closer to their bulk terminated positions compared to the clean UHV surface. Acetate is found in a bidentate bridge position, binding through both oxygen atoms to two five-fold titanium atoms such that the molecular plane is along the [001] azimuth. Density functional theory calculations provide adsorption geometries in excellent agreement with experiment. The availability of these structural data will improve the accuracy of charge transport models for DSSC.
Resumo:
The General Ocean Turbulence Model (GOTM) is applied to the diagnostic turbulence field of the mixing layer (ML) over the equatorial region of the Atlantic Ocean. Two situations were investigated: rainy and dry seasons, defined, respectively, by the presence of the intertropical convergence zone and by its northward displacement. Simulations were carried out using data from a PIRATA buoy located on the equator at 23 degrees W to compute surface turbulent fluxes and from the NASA/GEWEX Surface Radiation Budget Project to close the surface radiation balance. A data assimilation scheme was used as a surrogate for the physical effects not present in the one-dimensional model. In the rainy season, results show that the ML is shallower due to the weaker surface stress and stronger stable stratification; the maximum ML depth reached during this season is around 15 m, with an averaged diurnal variation of 7 m depth. In the dry season, the stronger surface stress and the enhanced surface heat balance components enable higher mechanical production of turbulent kinetic energy and, at night, the buoyancy acts also enhancing turbulence in the first meters of depth, characterizing a deeper ML, reaching around 60 m and presenting an average diurnal variation of 30 m.
Resumo:
Non-linear methods for estimating variability in time-series are currently of widespread use. Among such methods are approximate entropy (ApEn) and sample approximate entropy (SampEn). The applicability of ApEn and SampEn in analyzing data is evident and their use is increasing. However, consistency is a point of concern in these tools, i.e., the classification of the temporal organization of a data set might indicate a relative less ordered series in relation to another when the opposite is true. As highlighted by their proponents themselves, ApEn and SampEn might present incorrect results due to this lack of consistency. In this study, we present a method which gains consistency by using ApEn repeatedly in a wide range of combinations of window lengths and matching error tolerance. The tool is called volumetric approximate entropy, vApEn. We analyze nine artificially generated prototypical time-series with different degrees of temporal order (combinations of sine waves, logistic maps with different control parameter values, random noises). While ApEn/SampEn clearly fail to consistently identify the temporal order of the sequences, vApEn correctly do. In order to validate the tool we performed shuffled and surrogate data analysis. Statistical analysis confirmed the consistency of the method. (C) 2008 Elsevier Ltd. All rights reserved.
Resumo:
Limited financial sources and the difficulty in performing complete surveys, allied to the speed of habitat fragmentation and the urgent necessity in select conservation areas, create the necessity of using some methodologies which bypass these problems. One possibility is the use of surrogate taxa that might be used as indicator of others groups richness and even total richness of an area. We investigated if the use of surrogate taxon is useful among seven mammal orders in Amazon. We tested through Pearson`s correlation (Bonferroni`s adjusted) if (1) there was a correlation between richness of total species and some order; (2) there was a significant pair wise correlation between species richness of each order; and (3) the combination of two orders would give better results as a surrogate for the total richness. The correlations found, in general, were positive. It means that the increase in the richness of an order was followed by its increase in another order, as well as in the total species richness. Only Didelphimorphia was significantly correlated with the total species richness. In the pair wise analyses only one assembly, Primates and Artiodactyla, was significantly correlated with total richness. Since indicator species are more effective within taxonomic groups (life-history characteristics are likely to be more different among than within major taxonomic groups), we suggest that an indicator group might be chosen for each one. In this case, for mammals from Amazon, it would be Didelphimorphia. (C) 2008 Elsevier Ltd. All rights reserved.
Resumo:
P>Renal transplant patients with stable graft function and proximal tubular dysfunction (PTD) have an increased risk for chronic allograft nephropathy (CAN). In this study, we investigated the histologic pattern associated with PTD and its correlation with graft outcome. Forty-nine transplant patients with stable graft function were submitted to a biopsy. Simultaneously, urinary retinol-binding protein (uRBP) was measured and creatinine clearance was also determined. Banff`s score and semi-quantitative histologic analyses were performed to assess tubulointerstitial alterations. Patients were followed for 24.0 +/- 7.8 months. At biopsy time, mean serum creatinine was 1.43 +/- 0.33 mg/dl. Twelve patients (24.5%) had uRBP >= 1 mg/l, indicating PTD and 67% of biopsies had some degree of tubulointerstitial injury. At the end of the study period, 18 (36.7%) patients had lost renal function. uRBP levels were not associated with morphologic findings of interstitial fibrosis and tubular atrophy (IF/TA), interstitial fibrosis measured by Sirius red or tubulointerstitial damage. However, in multivariate analysis, the only variable associated with the loss of renal function was uRBP level >= 1 mg/l, determining a risk of 5.290 of loss of renal function (P = 0.003). Renal transplant patients who present PTD have functional alteration, which is not associated with morphologic alteration. This functional alteration is associated to progressive decrease in renal function.
Resumo:
In general, the normal distribution is assumed for the surrogate of the true covariates in the classical error model. This paper considers a class of distributions, which includes the normal one, for the variables subject to error. An estimation approach yielding consistent estimators is developed and simulation studies reported.
Resumo:
Introduction Performance in cross-country skiing is influenced by the skier’s ability to continuously produce propelling forces and force magnitude in relation to the net external forces. A surrogate indicator of the “power supply” in cross-country skiing would be a physiological variable that reflects an important performance-related capability, whereas the body mass itself is an indicator of the “power demand” experienced by the skier. To adequately evaluate an elite skier’s performance capability, it is essential to establish the optimal ratio between the physiological variable and body mass. The overall aim of this doctoral thesis was to investigate the importance of body-mass exponent optimization for the evaluation of performance capability in cross-country skiing. Methods In total, 83 elite cross-country skiers (56 men and 27 women) volunteered to participate in the four studies. The physiological variables of maximal oxygen uptake (V̇O2max) and oxygen uptake corresponding to a blood-lactate concentration of 4 mmol∙l-1 (V̇O2obla) were determined while treadmill roller skiing using the diagonal-stride technique; mean oxygen uptake (V̇O2dp) and upper-body power output (Ẇ) were determined during double-poling tests using a ski-ergometer. Competitive performance data for elite male skiers were collected from two 15-km classical-technique skiing competitions and a 1.25-km sprint prologue; additionally, a 2-km double-poling roller-skiing time trial using the double-poling technique was used as an indicator of upper-body performance capability among elite male and female junior skiers. Power-function modelling was used to explain the race and time-trial speeds based on the physiological variables and body mass. Results The optimal V̇O2max-to-mass ratios to explain 15-km race speed were V̇O2max divided by body mass raised to the 0.48 and 0.53 power, and these models explained 68% and 69% of the variance in mean skiing speed, respectively; moreover, the 95% confidence intervals (CI) for the body-mass exponents did not include either 0 or 1. For the modelling of race speed in the sprint prologue, body mass failed to contribute to the models based on V̇O2max, V̇O2obla, and V̇O2dp. The upper-body power output-to-body mass ratio that optimally explained time-trial speed was Ẇ ∙ m-0.57 and the model explained 63% of the variance in speed. Conclusions The results in this thesis suggest that V̇O2max divided by the square root of body mass should be used as an indicator of performance in 15-km classical-technique races among elite male skiers rather than the absolute or simple ratio-standard scaled expression. To optimally explain an elite male skier’s performance capability in sprint prologues, power-function models based on oxygen-uptake variables expressed absolutely are recommended. Moreover, to evaluate elite junior skiers’ performance capabilities in 2-km double-poling roller-skiing time trials, it is recommended that Ẇ divided by the square root of body mass should be used rather than absolute or simple ratio-standard scaled expression of power output.
Resumo:
O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.
Resumo:
Este estudo busca propor uma teoria da fragmentação de políticas públicas, assim como aplicá-la na análise de três casos de política de gestão pública no período compreendido entre 1995 e 2002. A suposição central deste estudo é de que existe um fenômeno de fragmentação subjacente aos casos analisados, e esse fenômeno constitui uma explicação plausível para a descontinuidade e a baixa implementação das políticas de gestão pública no período. Uma vez caracterizada, a fragmentação de políticas de gestão no período pode ser explicada de diversas formas. A hipótese secundária deste estudo, a partir da teoria desenvolvida, é de que o fenômeno da fragmentação se deve à existência de uma combinação disfuncional de fatores estruturais de integração subjacentes às dinâmicas constitutivas dos casos. O texto está estruturado em três segmentos: a) desenvolvimento teórico; b) construção dos casos e caracterização da fragmentação subjacente; e c) análise dos fatores de fragmentação. O primeiro segmento elabora um modelo conceitual de análise de políticas com a finalidade de caracterizar os processos constitutivos dos casos analisados, a partir de elementos presentes nas principais perspectivas analíticas sobre políticas públicas (sistêmico-heurística, institucional-racionalista e seleção temporal aleatória). O primeiro segmento também elabora a teoria da fragmentação de políticas públicas, seus fundamentos epistemológicos e metodológicos, suas definições de partida, proposições centrais e um modelo analítico. A Teoria da Fragmentação de Políticas propõe que a fragmentação, definida como a perda de coerência, consistência e coordenação nas políticas de um mesmo subsistema e entre diversos subsistemas, é um resultado indesejado associado a elementos estruturais dos processos de formulação e implementação de políticas, tais como liderança executiva, estratégia, ajustamento mútuo, estrutura formal de coordenação, 5 processos e valores. Trata-se de uma teoria de médio alcance elaborada de forma modular: a) permite a formulação de hipóteses retrospectivas baseadas em mecanismos causais que relacionam fatores a uma conseqüência-objeto; b) possibilita o aproveitamento de métodos qualitativos, tais como a narrativa analítica, para elucidar essas correlações; e c) permite o estabelecimento um diálogo entre a observação empírica e a dedução teórica. O segundo segmento delimita, contextualiza e caracteriza os três casos analisados em profundidade: Plano Diretor, Gestão Pública Empreendedora I e Gestão Pública Empreendedora II. Inicialmente, elabora-se um mapeamento do período, pelo qual são identificadas seis trajetórias de políticas de gestão pública no período analisado. Os três casos analisados em profundidade correspondem à primeira trajetória. Sucede-se uma narrativa da dinâmica de formulação e implementação desses casos em três frentes de ação que os perpassam: reestruturação do núcleo estratégico e melhoria de gestão, Organizações Sociais e Agências Executivas. Em seguida, elabora-se uma análise genealógica em que são identificados seus elementos constitutivos (o empreendedor, a construção do domínio da política pública, a visão do problema e da solução e a coalizão política) e sinais de fragmentação, decorrentes das incoerências, inconsistências e descoordenação entre os casos e entre esses e os demais, identificados no mapeamento do período. O terceiro segmento apresenta uma análise dos fatores de fragmentação. Busca-se elaborar, para cada fator, uma análise comparativa no sentido horizontal (entre os casos analisados) e vertical (entre esses e outros que ocorreram de forma paralela no universo das políticas de gestão mapeadas). A análise dos fatores de fragmentação indica, conforme se supunha, que há uma combinação disfuncional de fatores estruturais fragmentadores subjacentes às experiências estudadas. Conclui-se que essa constatação contribui para explicar a fragmentação e valida a teoria da fragmentação de políticas, dentro de sua proposta 6 metodológica modular de campo médio. Apontam-se, também, direções nas quais a teoria poderia ser expandida, testada e aplicada.
Resumo:
The research aimed at analysing the political and discursive practices of the metanarrative of employability in the contemporary organizational field, heading for the understanding of the social and micropolitical devices which happen to produce some especific kinds of subjectivities within organizations. From a post-modern epistemological perspective (Weltanshauung), the research focused on the issues concerning the production of subjectivities in the existing organizational society beyond the traditional theoretical standpoints whose common assumptions are due to the modernist approaches of organizational analysis. A deconstructive theoretical approach was emphasized across the whole text and it was mainly inspired and intellectually based upon Michel Foucault's genealogical démarche. His original conceptualization of power-knowledge relations informed the development of a methodology so as to analyse the discursive practices which determine many of the human resources policies concerning employability. The main thesis presented employability as a grand-device of micropolitical control towards the production of subjectivities whose main operation technologies are: an economic modernizing rhetoric, a moralistic dietetics and an instrumental education. Several discursive fragments from different academicists, journalists and some authors from the managerial litterature were taken into account so as to carefully deconstruct their speeches. This analysis revealed the mechanisms of production of pasteurized, mercantile and erratic subjectivities. Some inquietudes of heuristic nature are featured in the domain of organizational, psychological, sociological and political perspectives heading for new studies.
Resumo:
Após o refinamento, os critérios foram utilizados experimentalmente em três tipos de métodos de avaliação tradicionais, a saber, avaliação heurística, inspeção de conformidade e ensaios de interação. Os resultados obtidos com estas avaliações demonstraram que os critérios de avaliação, definidos neste trabalho, capturaram muito mais problemas relacionados à técnica do que os critérios tradicionalmente usados para avaliar interfaces gráficas. Um resultado promissor, não previsto, foi a constatação que o conjunto de critérios propostos detectaram, também, um número expressivo de problemas de usabilidade na interface, quando da aplicação das sessões de avaliação heurística. Este resultado evidencia a possibilidade de extensão deste conjunto de critérios a fim de avaliar, também, as principais características da interface das técnicas de visualização.
Resumo:
Trata do Processo Decisório desenvolvido por todos aqueles que se envolvem no Planejamento de Marketing, como ponto de partida para se chegar ao Plano de Midia. Aborda as variáveis inseridas no processo e a metodologia utilizada, tanto pelos profissionais bibliográfica. Formula, por fim, orientação com base heurística, um modelo normativo prescritivo do processo decisão que, partindo do Planejamento de Marketing, leva ao Planejamento de Midia.
Resumo:
A difusão dos projetos nas organizações envolve uma metodologia que se distingue da Administração Clássica, em conseqüência principalmente da incerteza ubíqua. Esta deriva do grau de complexidade, singularidade e severidade de objetivos. Inclui o desconhecido, o acidental, o inesperado, o imponderável, o conturbado e o arriscado. A aceitação da incerteza pelo gerenciador é situacional, mas pode apresentar orientação positiva ou negativa, condicionando o tipo de resposta oferecida pelo gerenciador para enfrentá-Ia. Os processos gerenciais compõem um sistema auto-organizativo, ocorrendo uma compensação entre métodos e técnicas aplicadas. A conclusão da pesquisa aponta para o entendimento de que há uma arte para gerenciar projetos desafiadores, complexos e singulares, recomendando desenvolver a heurística como complemento na metodologia preconizada para o gerenciamento de projetos.
Resumo:
Em um nível supervisório, são introduzidas malhas de controle feedback, em cascata com a estrutura de base, a fim de corrigir off-sets e controlar composições sob um horizonte de tempo longo de resposta. As estruturas de controle projetadas a partir desta base heurística apresentam um desempenho satisfatório para a rejeição de distúrbios sobre a taxa de produção, de acordo com os resultados de validação do estudo de caso Tennessee Eastman.