586 resultados para Bootstrap paramétrique
Resumo:
A legislação ambiental e os principais agentes que se relacionam com a empresa se constituem em fatores exógenos que não podem ser negligenciados ao formular-se e avaliar-se a política ambiental corporativa. As influências exógenas e seus efeitos sobre a gestão ambiental e o gerenciamento de projetos de exploração e produção (E&P) e, por essa via, sobre o desempenho ambiental, foram objetos de estudo desta tese. Embora o desempenho ambiental seja um assunto relevante, a pesquisa sobre esse tema ainda é escassa. Tal carência desponta ainda mais acentuada quando se aborda o desempenho ambiental de projetos na indústria de petróleo e gás. O principal objetivo deste estudo foi avaliar a relação entre a legislação ambiental vigente, as ações de órgãos reguladores, fornecedores, empresas terceirizadas e comunidades locais e o desempenho ambiental dos projetos de E&P na indústria de petróleo e gás e, também, analisar os efeitos do sistema de gestão ambiental e o gerenciamento dos projetos sobre tal desempenho. Na fase abdutiva, foi conduzido um estudo de caso com abordagem qualitativa em uma grande empresa brasileira do setor de petróleo e gás, na fase dedutiva, foi realizada uma pesquisa survey explanatória de corte transversal com abordagem quantitativa, incluindo 113 projetos de E&P de cinco unidades executoras da empresa. Foi formulado um modelo conceitual, com cinco construtos e sete hipóteses de pesquisa, representativo dos efeitos de fatores externos sobre o desempenho ambiental dos projetos de E&P. Os dados foram tratados aplicando a Análise Fatorial Exploratória e a Modelagem de Equações Estruturais com aplicação dos softwares IBM® SPSS® Statistics 20.0 e IBM® SPSS® Amos 18.0. O modelo de equações estruturais foi reespecificado e estimado utilizando o método de Máxima Verossimilhança e o procedimento bootstrap com 2000 reamostragens, até alcançar adequados valores dos índices de ajustamento. O modelo mostrou boa aderência às evidências empíricas, representando uma teoria explicativa dos fatores que influenciam o desempenho ambiental dos projetos de E&P na empresa estudada. As estatísticas descritivas apontaram adequado desempenho dos projetos de E&P com relação aos efluentes descartados, volume de água reutilizada, redução de resíduos e práticas de reciclagem. Identificou-se que projetos de maior porte alcançam melhor desempenho ambiental em relação aos de menor tamanho. Não foram achadas diferenças significativas entre os desempenhos de projetos executados por unidades operacionais distintas. Os resultados da modelagem indicaram que nem a legislação ambiental, nem os agentes externos exercem influência significativa sobre a sistemática da gestão dos projetos de E&P. Os agentes externos atuam sobre a gestão ambiental da empresa exercitando capacidades colaborativas, obstrutivas e propositivas. A legislação ambiental é percebida como entrave ao desenvolvimento dos projetos ao longo de seu ciclo de vida, principalmente, pelas deficiências dos órgãos ambientais. Identificou-se que o sistema de gestão ambiental influencia diretamente o Programa de Desenvolvimento e Execução de Projetos de E&P, que, por sua vez, provoca efeitos diretos e indiretos sobre o desempenho ambiental. Finalmente, comprovou-se que o Sistema de Gestão Ambiental da empresa é determinante para o desempenho ambiental dos projetos de E&P, tanto pelos seus efeitos diretos, como pelos indiretos, estes últimos mediados pela sistemática de gestão dos projetos de E&P
Resumo:
L’accessibilité à des soins de santé pour une population habitant une région éloignée au Québec représente un défi de taille pour le Ministère de la santé et des services sociaux. Des solutions, telles que la télésanté, ont été présentées afin de pallier ce problème. Le RUIS McGill a ainsi développé un programme de téléobstétrique afin de desservir une population de femmes inuites à grossesse à risque élevé (GARE) habitant le Nunavik. L’objectif de ce mémoire fut de comprendre l’impact du service de téléobstétrique du RUIS McGill sur la santé des femmes et de leur nouveau-né ainsi que sur les coûts de santé et l’utilisation des services suite à son implantation au Centre de santé et de services sociaux Inuulitsivik sur la côte de la baie d’Hudson. Les femmes inuites à grossesse à risque élevé et leurs enfants de la région de la baie d’Hudson du Nunavik, éloignés des services obstétriques spécialisés, sont visés. Le service de téléobstétrique permet un accès aux obstétriciens du RUIS McGill localisés à Montréal. Un devis quasi-expérimental est utilisé pour examiner trois hypothèses portant sur l’état de santé des mères et des enfants, sur l’utilisation des services de santé et sur leurs coûts. Le service de téléobstétrique est devenu fonctionnel en 2006, offrant la possibilité de constituer une étude avant-après à deux groupes de femmes, soit celles ayant accouché avant 2006 (prétest) et celle ayant accouché après 2012 (post-test). La collecte de donnée se fit, dans son intégralité, par l’entremise des dossiers médicaux papier des participantes permettant l’analyse de 47 dossiers pour le prétest et de 81 dossiers pour le post-test. L’exécution d’analyse de covariance, de régression logistique et du test non paramétrique de Mann-Witney permit de conclure que le prétest et le post-test ne différent que sur deux variables, soient le poids à la naissance, plus faible dans le post-test et la pression artérielle de la mère à la naissance, plus élevée dans le post-test. Pour l’ensemble des autres variables portant sur les trois hypothèses à l’étude, les résultats de ce mémoire ne démontrent aucune différence significative entre les deux groupes démontrant ainsi qu’une même qualité de soins a été conservée suite à l’implantation du programme de téléobstétrique. Sur la base des résultats, ce mémoire recommande de revoir et modifier les objectifs du programme; de partager les bornes de communication de télésanté avec d’autres spécialités; d’entreprendre une évaluation du programme axée sur les coûts; de suivre rigoureusement l’utilisation du programme pour en maximiser l’efficacité et le potentiel; d’établir un tableau de bord; et d’entreprendre une étude évaluative comparative dans un service de téléobstétrique comparable.
Resumo:
This study computed trends in extreme precipitation events of Florida for 1950-2010. Hourly aggregated rainfall data from 24 stations of the National Climatic Data Centre were analyzed to derive time-series of extreme rainfalls for 12 durations, ranging from 1 hour to 7 day. Non-parametric Mann-Kendall test and Theil-Sen Approach were applied to detect the significance of trends in annual maximum rainfalls, number of above threshold events and average magnitude of above threshold events for four common analysis periods. Trend Free Pre-Whitening (TFPW) approach was applied to remove the serial correlations and bootstrap resampling approach was used to detect the field significance of trends. The results for annual maximum rainfall revealed dominant increasing trends at the statistical significance level of 0.10, especially for hourly events in longer period and daily events in recent period. The number of above threshold events exhibited strong decreasing trends for hourly durations in all time periods.
Resumo:
L’accessibilité à des soins de santé pour une population habitant une région éloignée au Québec représente un défi de taille pour le Ministère de la santé et des services sociaux. Des solutions, telles que la télésanté, ont été présentées afin de pallier ce problème. Le RUIS McGill a ainsi développé un programme de téléobstétrique afin de desservir une population de femmes inuites à grossesse à risque élevé (GARE) habitant le Nunavik. L’objectif de ce mémoire fut de comprendre l’impact du service de téléobstétrique du RUIS McGill sur la santé des femmes et de leur nouveau-né ainsi que sur les coûts de santé et l’utilisation des services suite à son implantation au Centre de santé et de services sociaux Inuulitsivik sur la côte de la baie d’Hudson. Les femmes inuites à grossesse à risque élevé et leurs enfants de la région de la baie d’Hudson du Nunavik, éloignés des services obstétriques spécialisés, sont visés. Le service de téléobstétrique permet un accès aux obstétriciens du RUIS McGill localisés à Montréal. Un devis quasi-expérimental est utilisé pour examiner trois hypothèses portant sur l’état de santé des mères et des enfants, sur l’utilisation des services de santé et sur leurs coûts. Le service de téléobstétrique est devenu fonctionnel en 2006, offrant la possibilité de constituer une étude avant-après à deux groupes de femmes, soit celles ayant accouché avant 2006 (prétest) et celle ayant accouché après 2012 (post-test). La collecte de donnée se fit, dans son intégralité, par l’entremise des dossiers médicaux papier des participantes permettant l’analyse de 47 dossiers pour le prétest et de 81 dossiers pour le post-test. L’exécution d’analyse de covariance, de régression logistique et du test non paramétrique de Mann-Witney permit de conclure que le prétest et le post-test ne différent que sur deux variables, soient le poids à la naissance, plus faible dans le post-test et la pression artérielle de la mère à la naissance, plus élevée dans le post-test. Pour l’ensemble des autres variables portant sur les trois hypothèses à l’étude, les résultats de ce mémoire ne démontrent aucune différence significative entre les deux groupes démontrant ainsi qu’une même qualité de soins a été conservée suite à l’implantation du programme de téléobstétrique. Sur la base des résultats, ce mémoire recommande de revoir et modifier les objectifs du programme; de partager les bornes de communication de télésanté avec d’autres spécialités; d’entreprendre une évaluation du programme axée sur les coûts; de suivre rigoureusement l’utilisation du programme pour en maximiser l’efficacité et le potentiel; d’établir un tableau de bord; et d’entreprendre une étude évaluative comparative dans un service de téléobstétrique comparable.
Resumo:
The synthetic control method (SCM) is a new, popular method developed for the purpose of estimating the effect of an intervention when only one single unit has been exposed. Other similar, unexposed units are combined into a synthetic control unit intended to mimic the evolution in the exposed unit, had it not been subject to exposure. As the inference relies on only a single observational unit, the statistical inferential issue is a challenge. In this paper, we examine the statistical properties of the estimator, study a number of features potentially yielding uncertainty in the estimator, discuss the rationale for statistical inference in relation to SCM, and provide a Web-app for researchers to aid in their decision of whether SCM is powerful for a specific case study. We conclude that SCM is powerful with a limited number of controls in the donor pool and a fairly short pre-intervention time period. This holds as long as the parameter of interest is a parametric specification of the intervention effect, and the duration of post-intervention period is reasonably long, and the fit of the synthetic control unit to the exposed unit in the pre-intervention period is good.
Resumo:
The main purpose of this study is to assess the relationship between four bioclimatic indices for cattle (environmental stress, heat load, modified heat load, and respiratory rate predictor indices) and three main milk components (fat, protein, and milk yield) considering uncertainty. The climate parameters used to calculate the climate indices were taken from the NASA-Modern Era Retrospective-Analysis for Research and Applications (NASA-MERRA) reanalysis from 2002 to 2010. Cow milk data were considered for the same period from April to September when the cows use the natural pasture. The study is based on a linear regression analysis using correlations as a summarizing diagnostic. Bootstrapping is used to represent uncertainty information in the confidence intervals. The main results identify an interesting relationship between the milk compounds and climate indices under all climate conditions. During spring, there are reasonably high correlations between the fat and protein concentrations vs. the climate indices, whereas there are insignificant dependencies between the milk yield and climate indices. During summer, the correlation between the fat and protein concentrations with the climate indices decreased in comparison with the spring results, whereas the correlation for the milk yield increased. This methodology is suggested for studies investigating the impacts of climate variability/change on food and agriculture using short term data considering uncertainty.
Resumo:
The main purpose of this study is to assess the relationship between six bioclimatic indices for cattle (temperature humidity (THI), environmental stress (ESI), equivalent temperature (ESI), heat load (HLI), modified heat load (HLInew) and respiratory rate predictor(RRP)) and fundamental milk components (fat, protein, and milk yield) considering uncertainty. The climate parameters used to calculate the climate indices were taken from the NASA-Modern Era Retrospective-Analysis for Research and Applications (NASA-MERRA) reanalysis from 2002 to 2010. Cow milk data were considered for the same period from April to September when cows use natural pasture, with possibility for cows to choose to stay in the barn or to graze on the pasture in the pasturing system. The study is based on a linear regression analysis using correlations as a summarizing diagnostic. Bootstrapping is used to represent uncertainty estimation through resampling in the confidence intervals. To find the relationships between climate indices (THI, ETI, HLI, HLInew, ESI and RRP) and main components of cow milk (fat, protein and yield), multiple liner regression is applied. The least absolute shrinkage selection operator (LASSO) and the Akaike information criterion (AIC) techniques are applied to select the best model for milk predictands with the smallest number of climate predictors. Cross validation is used to avoid over-fitting. Based on results of investigation the effect of heat stress indices on milk compounds separately, we suggest the use of ESI and RRP in the summer and ESI in the spring. THI and HLInew are suggested for fat content and HLInew also is suggested for protein content in the spring season. The best linear models are found in spring between milk yield as predictands and THI, ESI,HLI, ETI and RRP as predictors with p-value < 0.001 and R2 0.50, 0.49. In summer, milk yield with independent variables of THI, ETI and ESI show the highest relation (p-value < 0.001) with R2 (0.69). For fat and protein the results are only marginal. It is strongly suggested that new and significant indices are needed to control critical heat stress conditions that consider more predictors of the effect of climate variability on animal products, such as sunshine duration, quality of pasture, the number of days of stress (NDS), the color of skin with attention to large black spots, and categorical predictors such as breed, welfare facility, and management system. This methodology is suggested for studies investigating the impacts of climate variability/change on food quality/security, animal science and agriculture using short term data considering uncertainty or data collection is expensive, difficult, or data with gaps.
Resumo:
Este projeto tem como objetivo apresentar um protótipo de um sistema de informação web, para o registo de sacramentos nas paróquias da Diocese de Mindelo. O volume de dados e informação referente aos processos dos sacramentos, cresce dia após dia o que torna o sistema atual nas paróquias, muito complexo. Com intenção de gerir de forma eficaz e eficiente a informação, que é essencial para tomada de decisão em qualquer organização, propôs-se desenvolver um protótipo para um sistema que permite efetuar o registo do sacramento do batismo e no futuro implementar os outros sacramentos no sistema. Para se alcançar o objetivo citado acima, utilizou-se o modelo de desenvolvimento de software ICONIX, uma metodologia que possui um alto grau de aceitação em empresas de software por sua racionalização em questões relacionadas à documentação, entrevistou-se alguns funcionários das paróquias, consultou-se e analisou-se os documentos referentes à DM, e finalmente desenhou-se o sistema proposto utilizando basicamente as tecnologias: Bootstrap, PHP e JavaScript, e para ambiente de desenvolvimento a plataforma AMPPS. Entretanto, com a realização deste projeto, espera-se como resultado um sistema que permita resolver problemas tais como: a demora na emissão de certidões, extratos e a dificuldade de obter informação atualizada sobre os sacramentos.
Resumo:
La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.
Resumo:
Le dimensionnement des ponts et viaducs au Canada se base sur la norme CAN/CSA S6-14. Pour le calcul de ces structures sous des charges extrêmes, des cartes d'aléa sismique sont produites par la Commission géologique du Canada selon un taux d'amortissement de 5 %. La norme propose des taux d'amortissement visqueux élastique de 2 % pour le béton et de 1 % pour l'acier. Un nouveau facteur de correction selon l'amortissement est mentionné dans cette norme pour modifier les spectres de réponse provenant des cartes sismiques. Plusieurs études sur des ouvrages d'art quantifient les taux d'amortissement visqueux élastique entre 1 % et 2 %, confirmant ainsi qu'il est nécessaire d'utiliser un facteur de correction des spectres pour éviter une sous-évaluation des déplacements au niveau du tablier. Le projet de recherche consiste à quantifier le taux d'amortissement visqueux élastique des ponts routiers grâce à des essais in situ sur des ouvrages du Québec. Les essais débutent avec l'acquisition de données à l'aide d'accéléromètres alors que le pont est sous vibrations ambiantes. Une fois les propriétés modales extraites, un essai sous vibrations forcées par balayage des fréquences est effectué, en ciblant les fréquences propres. L'interprétation de la réponse de la structure à ce dernier essai permet de trouver précisément l'amortissement. Une étude paramétrique sur le logiciel OpenSees est aussi effectuée pour évaluer l'impact de la variation du taux d'amortissement utilisé sur les déplacements du tablier lors d'un séisme. Les résultats démontrent que le taux d'amortissement visqueux élastique peut être aussi bas que 1 %, ce qui peut doubler la réponse en déplacements aux joints d'un pont par rapport à une analyse avec 5 % d'amortissement. Le mémoire cherche à clarifier l'utilisation de la norme S6-14, à démontrer l'importance d'utiliser un bon taux d'amortissement et à encourager l'utilisation d'un facteur de correction des spectres adéquat pour calculer la réponse sismique des ponts routiers québécois et canadiens. Des recommandations sont proposées dans ce sens.
Modélisation et validation expérimentale d'un modèle vibroacoustique d'un silencieux d'une motoneige
Resumo:
Ce mémoire traite la modélisation et la validation expérimentale du bruit d’un silencieux de motoneige. La première phase du projet consiste à modéliser numériquement le système d’échappement avec les méthodes numériques suivantes : éléments finis et éléments finis de frontière, afin d’évaluer ses performances acoustiques : perte par transmission, bruit de bouche et bruit de paroi. Une deuxième phase du projet consiste à valider expérimentalement les performances acoustiques calculées numériquement. La dernière phase du projet se consacrera à une étude paramétrique expérimentale d’un silencieux sur banc moteur. En conclusion, les résultats des modèles numériques mis en œuvre concordent bien avec les résultats expérimentaux. Cependant, les aspects non linéaires rencontrés à la dernière phase du projet n’ont pas été étudiés davantage.
Resumo:
The European Nature Information System (EUNIS) has been implemented for the establishment of a marine European habitats inventory. Its hierarchical classification is defined and relies on environmental variables which primarily constrain biological communities (e.g. substrate types, sea energy level, depth and light penetration). The EUNIS habitat classification scheme relies on thresholds (e.g. fraction of light and energy) which are based on expert judgment or on the empirical analysis of the above environmental data. The present paper proposes to establish and validate an appropriate threshold for energy classes (high, moderate and low) and for subtidal biological zonation (infralittoral and circalittoral) suitable for EUNIS habitat classification of the Western Iberian coast. Kineticwave-induced energy and the fraction of photosynthetically available light exerted on the marine bottom were respectively assigned to the presence of kelp (Saccorhiza polyschides, Laminaria hyperborea and Laminaria ochroleuca) and seaweed species in general. Both data were statistically described, ordered fromthe largest to the smallest and percentile analyseswere independently performed. The threshold between infralittoral and circalittoral was based on the first quartile while the ‘moderate energy’ class was established between the 12.5 and 87.5 percentiles. To avoid data dependence on sampling locations and assess the confidence interval a bootstrap technique was applied. According to this analysis,more than 75% of seaweeds are present at locations where more than 3.65% of the surface light reaches the sea bottom. The range of energy levels estimated using S. polyschides data, indicate that on the IberianWest coast the ‘moderate energy’ areas are between 0.00303 and 0.04385 N/m2 of wave-induced energy. The lack of agreement between different studies in different regions of Europe suggests the need for more standardization in the future. However, the obtained thresholds in the present study will be very useful in the near future to implement and establish the Iberian EUNIS habitats inventory.
Resumo:
A necessidade de conhecer uma população impulsiona um processo de recolha e análise de informação. Usualmente é muito difícil ou impossível estudar a totalidade da população, daí a importância do estudo com recurso a amostras. Conceber um estudo por amostragem é um processo complexo, desde antes da recolha dos dados até a fase de análise dos mesmos. Na maior parte dos estudos utilizam-se combinações de vários métodos probabilísticos de amostragem para seleção de uma amostra, que se pretende representativa da população, denominado delineamento de amostragem complexo. O conhecimento dos erros de amostragem é necessário à correta interpretação dos resultados de inquéritos e à avaliação dos seus planos de amostragem. Em amostras complexas, têm sido usadas aproximações ajustadas à natureza complexa do plano da amostra para a estimação da variância, sendo as mais utilizadas: o método de linearização Taylor e as técnicas de reamostragem e replicação. O principal objetivo deste trabalho é avaliar o desempenho dos estimadores usuais da variância em amostras complexas. Inspirado num conjunto de dados reais foram geradas três populações com características distintas, das quais foram sorteadas amostras com diferentes delineamentos de amostragem, na expectativa de obter alguma indicação sobre em que situações se deve optar por cada um dos estimadores da variância. Com base nos resultados obtidos, podemos concluir que o desempenho dos estimadores da variância da média amostral de Taylor, Jacknife e Bootstrap varia com o tipo de delineamento e população. De um modo geral, o estimador de Bootstrap é o menos preciso e em delineamentos estratificados os estimadores de Taylor e Jackknife fornecem os mesmos resultados; Evaluation of variance estimation methods in complex samples ABSTRACT: The need to know a population drives a process of collecting and analyzing information. Usually is to hard or even impossible to study the whole population, hence the importance of sampling. Framing a study by sampling is a complex process, from before the data collection until the data analysis. Many studies have used combinations of various probabilistic sampling methods for selecting a representative sample of the population, calling it complex sampling design. Knowledge of sampling errors is essential for correct interpretation of the survey results and evaluation of the sampling plans. In complex samples to estimate the variance has been approaches adjusted to the complex nature of the sample plane. The most common are: the linearization method of Taylor and techniques of resampling and replication. The main objective of this study is to evaluate the performance of usual estimators of the variance in complex samples. Inspired on real data we will generate three populations with distinct characteristics. From this populations will be drawn samples using different sampling designs. In the end we intend to get some lights about in which situations we should opt for each one of the variance estimators. Our results show that the performance of the variance estimators of sample mean Taylor, Jacknife and Bootstrap varies with the design and population. In general, the Bootstrap estimator is less precise and in stratified design Taylor and Jackknife estimators provide the same results.
Resumo:
Structured abstract Purpose: To deepen, in grocery retail context, the roles of consumer perceived value and consumer satisfaction, as antecedents’ dimensions of customer loyalty intentions. Design/Methodology/approach: Also employing a short version (12-items) of the original 19-item PERVAL scale of Sweeney & Soutar (2001), a structural equation modeling approach was applied to investigate statistical properties of the indirect influence on loyalty of a reflective second order customer perceived value model. The performance of three alternative estimation methods was compared through bootstrapping techniques. Findings: Results provided i) support for the use of the short form of the PERVAL scale in measuring consumer perceived value; ii) the influence of the four highly correlated independent latent predictors on satisfaction was well summarized by a higher-order reflective specification of consumer perceived value; iii) emotional and functional dimensions were determinants for the relationship with the retailer; iv) parameter’s bias with the three methods of estimation was only significant for bootstrap small sample sizes. Research limitations:/implications: Future research is needed to explore the use of the short form of the PERVAL scale in more homogeneous groups of consumers. Originality/value: Firstly, to indirectly explain customer loyalty mediated by customer satisfaction it was adopted a recent short form of PERVAL scale and a second order reflective conceptualization of value. Secondly, three alternative estimation methods were used and compared through bootstrapping and simulation procedures.
Resumo:
Objective The objective of this study was to develop a clinical nomogram to predict gallium-68 prostate-specific membrane antigen positron emission tomography/computed tomography (68Ga-PSMA-11-PET/CT) positivity in different clinical settings of PSA failure. Materials and methods Seven hundred three (n = 703) prostate cancer (PCa) patients with confirmed PSA failure after radical therapy were enrolled. Patients were stratified according to different clinical settings (first-time biochemical recurrence [BCR]: group 1; BCR after salvage therapy: group 2; biochemical persistence after radical prostatectomy [BCP]: group 3; advanced stage PCa before second-line systemic therapies: group 4). First, we assessed 68Ga-PSMA-11-PET/CT positivity rate. Second, multivariable logistic regression analyses were used to determine predictors of positive scan. Third, regression-based coefficients were used to develop a nomogram predicting positive 68Ga-PSMA-11-PET/CT result and 200 bootstrap resamples were used for internal validation. Fourth, receiver operating characteristic (ROC) analysis was used to identify the most informative nomogram’s derived cut-off. Decision curve analysis (DCA) was implemented to quantify nomogram’s clinical benefit. Results 68Ga-PSMA-11-PET/CT overall positivity rate was 51.2%, while it was 40.3% in group 1, 54% in group 2, 60.5% in group 3, and 86.9% in group 4 (p < 0.001). At multivariable analyses, ISUP grade, PSA, PSA doubling time, and clinical setting were independent predictors of a positive scan (all p ≤ 0.04). A nomogram based on covariates included in the multivariate model demonstrated a bootstrap-corrected accuracy of 82%. The nomogram-derived best cut-off value was 40%. In DCA, the nomogram revealed clinical net benefit of > 10%. Conclusions This novel nomogram proved its good accuracy in predicting a positive scan, with values ≥ 40% providing the most informative cut-off in counselling patients to 68Ga-PSMA-11-PET/CT. This tool might be important as a guide to clinicians in the best use of PSMA-based PET imaging.