965 resultados para Eventual consistency


Relevância:

10.00% 10.00%

Publicador:

Resumo:

I (Prática Pedagógica) - Neste relatório de estágio apresenta-se uma caracterização do Conservatório de Música de Santarém (CMS). Dá-se a conhecer um pouco da sua história, o seu funcionamento e os seus objetivos pedagógicos. Caracterizam-se também os alunos que participam no estágio e faz-se uma pequena descrição dos seus percursos académicos; suas influências, motivações e expectativas. Nas práticas desenvolvidas apresentam-se os princípios pedagógicos – A Motivação, como condição fundamental para o sucesso escolar dos alunos; e ainda a importância da aquisição de competências metacognitivas, ao permitirem a reflexão sobre os processos de aprendizagem. É feita uma descrição sobre as estratégias que o professor deve adotar com o objetivo de obter a motivação dos alunos; e apresentam-se os objetivos pedagógicos propostos para este estágio. Por último é feita uma análise do trabalho desenvolvido com os alunos e uma análise crítica da atividade docente, onde a criatividade, a autoavaliação e a reflexão devem estar sempre presentes no íntimo do professor. Ainda no encerramento da secção pedagógica dá-se conta do novo paradigma do ensino vocacional de música, após a Portaria nº 691/2009 de 25 de junho, e a necessidade do professor se adaptar a esta nova realidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent trends of chip architectures with higher number of heterogeneous cores, and non-uniform memory/non-coherent caches, brings renewed attention to the use of Software Transactional Memory (STM) as a fundamental building block for developing parallel applications. Nevertheless, although STM promises to ease concurrent and parallel software development, it relies on the possibility of aborting conflicting transactions to maintain data consistency, which impacts on the responsiveness and timing guarantees required by embedded real-time systems. In these systems, contention delays must be (efficiently) limited so that the response times of tasks executing transactions are upper-bounded and task sets can be feasibly scheduled. In this paper we assess the use of STM in the development of embedded real-time software, defending that the amount of contention can be reduced if read-only transactions access recent consistent data snapshots, progressing in a wait-free manner. We show how the required number of versions of a shared object can be calculated for a set of tasks. We also outline an algorithm to manage conflicts between update transactions that prevents starvation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo pretende alertar de las contradicciones inherentes a la definición del deporte con relación a la salud y la educación. Tomando como referencia el dopaje, intenta elevar al debate público las repercusiones que la industria del rendimiento deportivo tiene en la salud pública. La práctica clandestina del dopaje conduce a muchos deportistas profesionales y aspirantes a la inseguridad sanitaria y a la desorientación ética de los practicantes aficionados y enseñantes del deporte. Por ello, se plantea la necesidad de discutir una eventual despenalización del dopaje en el deporte profesional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Gestão e Empreendedorismo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The foreseen evolution of chip architectures to higher number of, heterogeneous, cores, with non-uniform memory and non-coherent caches, brings renewed attention to the use of Software Transactional Memory (STM) as an alternative to lock-based synchronisation. However, STM relies on the possibility of aborting conflicting transactions to maintain data consistency, which impacts on the responsiveness and timing guarantees required by real-time systems. In these systems, contention delays must be (efficiently) limited so that the response times of tasks executing transactions are upperbounded and task sets can be feasibly scheduled. In this paper we defend the role of the transaction contention manager to reduce the number of transaction retries and to help the real-time scheduler assuring schedulability. For such purpose, the contention management policy should be aware of on-line scheduling information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, continuamos sem conhecer, com exactidão, o diagnóstico da situação portuguesa, em termos de quantitativos e de caracterização da produção de resíduos hospitalares (RH), essencialmente no que se refere à produção de RH dos grupos I e II, já que estes quantitativos são muitas vezes determinados por estimativas mal estruturadas, o que os torna pouco fiáveis. Esta falta de informação dificulta a opção por estratégias eficientes de gestão de RH. Com este trabalho pretende-se dar a conhecer a evolução temporal dos aspectos inerentes à gestão de RH nos dois centros de saúde do Concelho do Barreiro (Centro de Saúde do Barreiro e Centro de Saúde da Quinta da Lomba), determinar um conjunto de indicadores de produção de RH, por grupo I, II, III e IV, em função de determinados indicadores de prestação de serviços (i.e. número de consultas de especialidade, número de utentes e número de funcionários) e avaliar a sua, eventual, reprodutibilidade. Com base neste objectivo foi realizada a análise dos dados estatísticos referentes aos anos 2005 e 2006. Para 2007 realizaram-se 3 campanhas de amostragem (Março, Julho e Outubro), por forma a quantificar os RH (grupos I, II, III e IV) produzidos nas consultas e tratamentos das diferentes especialidades daquelas unidades prestadoras de cuidados de saúde (UPCS). Para estas campanhas foram seleccionadas duas Unidades de Saúde (Lavradio e Quinta da Lomba) e uma Extensão (Coina), uma vez que estas reúnem todos os tipos de especialidades, bem como diferentes tipos de utentes (meio urbano vs meio rural). A partir dos dados obtidos nestas campanhas foram encontrados indicadores de produção para cada grupo de RH, para o total e para cada especialidade (por funcionário para os grupos I+II e por utente para os grupos I+II, III e IV). Com a realização deste trabalho pode-se concluir que a produção dos RH depende do número e tipo de especialidades da UPCS, do número de consultas e, com grande expressão, da triagem efectuada. Pode-se também verificar que a maior produção de RH dos grupos I+II é proveniente, essencialmente, dos serviços administrativos e de apoio, mas também, das consultas médicas de Medicina Geral e Familiar, Saúde Infantil, Dermatologia, entre outros (entre 78-81%). No que respeita aos resíduos perigosos, a maioria tem origem nos cuidados de enfermagem, essencialmente na Sala de Tratamentos. Os resultados dos tratamentos estatísticos efectuados permitem concluir que os indicadores obtidos não são reprodutíveis, uma vez que para tal seria necessário um número de amostras superior ao admitido. Contudo, poderão servir de base de comparação para o preenchimento do Sistema Integrado de Registo Electrónico de Resíduos (SIRER) nas unidades de saúde estudadas e constituir um bom referencial para futuros trabalhos de investigação de doutoramento para os quais os meios materiais e o tempo disponível permitirão colmatar algumas das limitações identificadas na realização deste trabalho

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foca o envolvimento de cidadãos ligados à agricultura, à I&D agronómica e ao meio rural em assuntos de inovação na agricultura,tomando como caso de estudo ‘a biotecnologia na agricultura’ designada por agrobiotecnologia ou biotecnologia verde, na qual se incluem os organismos geneticamente modificados (‘OGM’) ou transgénicos. O seu uso na agricultura tem gerado desacordo entre os seus adeptos e os seus opositores, incluindo-se nestes dois grupos diversos actores. Pelo facto de à sua inerente complexidade técnico- científica acrescer uma vasta gama de implicações sócio- políticoeconómicas, este assunto tem sido objecto de estudos reveladores da existência de diversos modos de cobertura mediática e de mecanismos de regulação que vão a par de diferentes padrões de percepções públicas. Esta teia de complexidade poderá ter influído nas políticas do sector agrícola, que evidenciou maior apoio, a nível comunitário e nacional, à agricultura biológica. A persistência, por mais de uma década, da polarização sobre este assunto, que mobilizou, entre outros actores, alguns cientistas, associada ao facto de existirem diferentes percepções de risco e benefício ligadas a várias aplicações, não só em diferentes países e culturas, mas também entre os indivíduos de um dado país, e nestes indivíduos em momentos e contextos diferentes, indiciam que a abordagem deste assunto em termos estritamente científicos e que exclui as preocupações existentes tenderá a perpetuar a polarização e a estagnação. No seguimento da Comissão Europeia ter reconhecido a importância da comunicação da investigação, da abertura e do contacto dos investigadores com a sociedade (CE, COM 2004- 250) pressupõe-se que os cidadãos são actores com os quais se pode trocar argumentos relevantes sobre este assunto e que os cidadãos minimamente esclarecidos possuem capacidade de articular ideias sobre implicações sociais da biotecnologia na agricultura. A análise da percepção de actores envolvidos neste assunto permite identificar áreas de conflito que requerem particular atenção na construção de políticas públicas mais eficientes e fundamentadas. Para tal, neste trabalho, mediante metodologias participativas foram analisadas as percepções dos actores chave envolvidos, tendo-se chegado a resultados que, relativamente à Informação e Comunicação realçaram ‘o fraco esclarecimento público existente em Portugal sobre OGM’ e ‘a necessidade de revitalizar a extensão rural’’, e no que se refere à mediação entre Ciência e Política, foi realçada à ineficácia dos políticos na actualização de conhecimentos sobre o tema’. Do mapeamento de preocupações efectuado, realçam-se a ‘desigual partilha de benefícios e riscos’; ‘a sobreposição de critérios económicos a abordagens cautelosas’ e ‘a eventual perda de valor de fileiras/produtos agrícolas com cariz tradicional forte (fileira vitícola) caso nelas(es) se incorporassem tecnologias de modificação genética’. O envolvimento neste assunto de jovens do ensino profissional agrícola, num projecto piloto educativo, e de agricultores, cientistas e outros actores ligados ao sector agrícola, em processos participativos de tipo focus grupos, permite uma partilha de informação e uma clarificação das suas preocupações, de potencial utilidade ao delinear de futuras linhas de I&D e políticas neste âmbito, sobretudo quando a nível nacional é inexistente uma estratégia clara para a biotecnologia na agricultura, constituindo estas iniciativas de envolvimento dos cidadãos um contributo para o desenvolvimento de capital social neste âmbito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE : To compare the reliability and convergent validity of instruments assessing quality of life in Brazilian older adults. METHODS : Cross-sectional study of 278 literate, community-dwelling older adults attending a municipal university for the elderly in Sao Carlos, SP, Southeastern Brazil between 2006 and 2008. The Brazilian versions of the SF-36 and WHOQOL-BREF instruments to assess quality of life were compared. Cronbach’s alpha coefficient was used to estimate reliability and Pearson’s correlation for comparison between the two scales. RESULTS : Most of participants were women (87.8%) with a mean age of 63.83±7.22 years. Both scales showed an acceptable internal consistency – WHOQOL-BREF Cronbach’s alpha was 0.832 and SF-36 was 0.868. There was a weak (r ≤ 0.6) correlation between the related fields in the two questionnaires. CONCLUSIONS : The SF-36 and WHOQOL-BREF are reliable instruments for clinical and research uses in Brazilian older women. To select one, researchers should consider which aspects of quality of life they aim to capture because of weak convergent validity signs. This study’s results indicate that WHOQOL-BREF may be more relevant to evaluate changes in the quality of life of older women because it prioritizes responses to the aging process and avoids focusing on impairment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução e objetivos: A síncope recorrente tem um impacto significativo na qualidade de vida. O desenvolvimento de escalas de medida de fácil aplicabilidade clínica para avaliar este impacto é fundamental. O objetivo do presente estudo é a validação preliminar da escala Impact of Syncope on Quality of Life, para a população portuguesa. Métodos: O instrumento foi submetido a um processo de tradução, validação, adequação cultural e cognitive debriefing. Participaram 39 doentes com história de síncopes recorrentes (>1 ano de evolução), submetidos a teste de inclinação em mesa basculante (teste de tilt), que constitui uma amostra de conveniência, com idade de 52,1±16,4 anos (21-83; 43,5% do sexo masculino), a maioria com uma situação profissional ativa (n=18) ou reformados (n=13). A versão portuguesa resultou numa versão semelhante unidimensional à original com 12 itens agregados num único somatório, tendo passado por validação estatística, com avaliação da fidelidade, validade e estabilidade no tempo. Resultados: Em relação à fidelidade, a consistência interna da escala é de 0,9. Avaliámos a validade convergente, tendo obtido resultados estatisticamente significativos (p<0,01). Avaliámos a validade divergente tendo obtido resultados estatisticamente significativos. Relativamente à estabilidade no tempo foi efetuado um teste-reteste do instrumento aos seis meses após o teste de inclinação com 22 doentes desta amostra não submetidos a intervenção clínica, que não mostrou alterações estatisticamente significativas da qualidade de vida. Conclusões: Os resultados obtidos indicam a pertinência da utilização deste instrumento em contexto português na avaliação da qualidade de vida de doentes com síncope recorrente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This Thesis describes the application of automatic learning methods for a) the classification of organic and metabolic reactions, and b) the mapping of Potential Energy Surfaces(PES). The classification of reactions was approached with two distinct methodologies: a representation of chemical reactions based on NMR data, and a representation of chemical reactions from the reaction equation based on the physico-chemical and topological features of chemical bonds. NMR-based classification of photochemical and enzymatic reactions. Photochemical and metabolic reactions were classified by Kohonen Self-Organizing Maps (Kohonen SOMs) and Random Forests (RFs) taking as input the difference between the 1H NMR spectra of the products and the reactants. The development of such a representation can be applied in automatic analysis of changes in the 1H NMR spectrum of a mixture and their interpretation in terms of the chemical reactions taking place. Examples of possible applications are the monitoring of reaction processes, evaluation of the stability of chemicals, or even the interpretation of metabonomic data. A Kohonen SOM trained with a data set of metabolic reactions catalysed by transferases was able to correctly classify 75% of an independent test set in terms of the EC number subclass. Random Forests improved the correct predictions to 79%. With photochemical reactions classified into 7 groups, an independent test set was classified with 86-93% accuracy. The data set of photochemical reactions was also used to simulate mixtures with two reactions occurring simultaneously. Kohonen SOMs and Feed-Forward Neural Networks (FFNNs) were trained to classify the reactions occurring in a mixture based on the 1H NMR spectra of the products and reactants. Kohonen SOMs allowed the correct assignment of 53-63% of the mixtures (in a test set). Counter-Propagation Neural Networks (CPNNs) gave origin to similar results. The use of supervised learning techniques allowed an improvement in the results. They were improved to 77% of correct assignments when an ensemble of ten FFNNs were used and to 80% when Random Forests were used. This study was performed with NMR data simulated from the molecular structure by the SPINUS program. In the design of one test set, simulated data was combined with experimental data. The results support the proposal of linking databases of chemical reactions to experimental or simulated NMR data for automatic classification of reactions and mixtures of reactions. Genome-scale classification of enzymatic reactions from their reaction equation. The MOLMAP descriptor relies on a Kohonen SOM that defines types of bonds on the basis of their physico-chemical and topological properties. The MOLMAP descriptor of a molecule represents the types of bonds available in that molecule. The MOLMAP descriptor of a reaction is defined as the difference between the MOLMAPs of the products and the reactants, and numerically encodes the pattern of bonds that are broken, changed, and made during a chemical reaction. The automatic perception of chemical similarities between metabolic reactions is required for a variety of applications ranging from the computer validation of classification systems, genome-scale reconstruction (or comparison) of metabolic pathways, to the classification of enzymatic mechanisms. Catalytic functions of proteins are generally described by the EC numbers that are simultaneously employed as identifiers of reactions, enzymes, and enzyme genes, thus linking metabolic and genomic information. Different methods should be available to automatically compare metabolic reactions and for the automatic assignment of EC numbers to reactions still not officially classified. In this study, the genome-scale data set of enzymatic reactions available in the KEGG database was encoded by the MOLMAP descriptors, and was submitted to Kohonen SOMs to compare the resulting map with the official EC number classification, to explore the possibility of predicting EC numbers from the reaction equation, and to assess the internal consistency of the EC classification at the class level. A general agreement with the EC classification was observed, i.e. a relationship between the similarity of MOLMAPs and the similarity of EC numbers. At the same time, MOLMAPs were able to discriminate between EC sub-subclasses. EC numbers could be assigned at the class, subclass, and sub-subclass levels with accuracies up to 92%, 80%, and 70% for independent test sets. The correspondence between chemical similarity of metabolic reactions and their MOLMAP descriptors was applied to the identification of a number of reactions mapped into the same neuron but belonging to different EC classes, which demonstrated the ability of the MOLMAP/SOM approach to verify the internal consistency of classifications in databases of metabolic reactions. RFs were also used to assign the four levels of the EC hierarchy from the reaction equation. EC numbers were correctly assigned in 95%, 90%, 85% and 86% of the cases (for independent test sets) at the class, subclass, sub-subclass and full EC number level,respectively. Experiments for the classification of reactions from the main reactants and products were performed with RFs - EC numbers were assigned at the class, subclass and sub-subclass level with accuracies of 78%, 74% and 63%, respectively. In the course of the experiments with metabolic reactions we suggested that the MOLMAP / SOM concept could be extended to the representation of other levels of metabolic information such as metabolic pathways. Following the MOLMAP idea, the pattern of neurons activated by the reactions of a metabolic pathway is a representation of the reactions involved in that pathway - a descriptor of the metabolic pathway. This reasoning enabled the comparison of different pathways, the automatic classification of pathways, and a classification of organisms based on their biochemical machinery. The three levels of classification (from bonds to metabolic pathways) allowed to map and perceive chemical similarities between metabolic pathways even for pathways of different types of metabolism and pathways that do not share similarities in terms of EC numbers. Mapping of PES by neural networks (NNs). In a first series of experiments, ensembles of Feed-Forward NNs (EnsFFNNs) and Associative Neural Networks (ASNNs) were trained to reproduce PES represented by the Lennard-Jones (LJ) analytical potential function. The accuracy of the method was assessed by comparing the results of molecular dynamics simulations (thermal, structural, and dynamic properties) obtained from the NNs-PES and from the LJ function. The results indicated that for LJ-type potentials, NNs can be trained to generate accurate PES to be used in molecular simulations. EnsFFNNs and ASNNs gave better results than single FFNNs. A remarkable ability of the NNs models to interpolate between distant curves and accurately reproduce potentials to be used in molecular simulations is shown. The purpose of the first study was to systematically analyse the accuracy of different NNs. Our main motivation, however, is reflected in the next study: the mapping of multidimensional PES by NNs to simulate, by Molecular Dynamics or Monte Carlo, the adsorption and self-assembly of solvated organic molecules on noble-metal electrodes. Indeed, for such complex and heterogeneous systems the development of suitable analytical functions that fit quantum mechanical interaction energies is a non-trivial or even impossible task. The data consisted of energy values, from Density Functional Theory (DFT) calculations, at different distances, for several molecular orientations and three electrode adsorption sites. The results indicate that NNs require a data set large enough to cover well the diversity of possible interaction sites, distances, and orientations. NNs trained with such data sets can perform equally well or even better than analytical functions. Therefore, they can be used in molecular simulations, particularly for the ethanol/Au (111) interface which is the case studied in the present Thesis. Once properly trained, the networks are able to produce, as output, any required number of energy points for accurate interpolations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE To validate a screening instrument using self-reported assessment of frailty syndrome in older adults.METHODS This cross-sectional study used data from the Saúde, Bem-estar e Envelhecimento study conducted in Sao Paulo, SP, Southeastern Brazil. The sample consisted of 433 older adult individuals (≥ 75 years) assessed in 2009. The self-reported instrument can be applied to older adults or their proxy respondents and consists of dichotomous questions directly related to each component of the frailty phenotype, which is considered the gold standard model: unintentional weight loss, fatigue, low physical activity, decreased physical strength, and decreased walking speed. The same classification proposed in the phenotype was utilized: not frail (no component identified); pre-frail (presence of one or two components), and frail (presence of three or more components). Because this is a screening instrument, “process of frailty” was included as a category (pre-frail and frail). Cronbach’s α was used in psychometric analysis to evaluate the reliability and validity of the criterion, the sensitivity, the specificity, as well as positive and negative predictive values. Factor analysis was used to assess the suitability of the proposed number of components.RESULTS Decreased walking speed and decreased physical strength showed good internal consistency (α = 0.77 and 0.72, respectively); however, low physical activity was less satisfactory (α = 0.63). The sensitivity and specificity for identifying pre-frail individuals were 89.7% and 24.3%, respectively, while those for identifying frail individuals were 63.2% and 71.6%, respectively. In addition, 89.7% of the individuals from both the evaluations were identified in the “process of frailty” category.CONCLUSIONS The self-reported assessment of frailty can identify the syndrome among older adults and can be used as a screening tool. Its advantages include simplicity, rapidity, low cost, and ability to be used by different professionals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE To evaluate the validity and reliability of an instrument that evaluates the structure of primary health care units for the treatment of tuberculosis.METHODS This cross-sectional study used simple random sampling and evaluated 1,037 health care professionals from five Brazilian municipalities (Natal, state of Rio Grande do Norte; Cabedelo, state of Paraíba; Foz do Iguaçu, state of Parana; Sao José do Rio Preto, state of Sao Paulo, and Uberaba, state of Minas Gerais) in 2011. Structural indicators were identified and validated, considering different methods of organization of the health care system in the municipalities of different population sizes. Each structure represented the organization of health care services and contained the resources available for the execution of health care services: physical resources (equipment, consumables, and facilities); human resources (number and qualification); and resources for maintenance of the existing infrastructure and technology (deemed as the organization of health care services). The statistical analyses used in the validation process included reliability analysis, exploratory factor analysis, and confirmatory factor analysis.RESULTS The validation process indicated the retention of five factors, with 85.9% of the total variance explained, internal consistency between 0.6460 and 0.7802, and quality of fit of the confirmatory factor analysis of 0.995 using the goodness-of-fit index. The retained factors comprised five structural indicators: professionals involved in the care of tuberculosis patients, training, access to recording instruments, availability of supplies, and coordination of health care services with other levels of care. Availability of supplies had the best performance and the lowest coefficient of variation among the services evaluated. The indicators of assessment of human resources and coordination with other levels of care had satisfactory performance, but the latter showed the highest coefficient of variation. The performance of the indicators “training” and “access to recording instruments” was inferior to that of other indicators.CONCLUSIONS The instrument showed feasibility of application and potential to assess the structure of primary health care units for the treatment of tuberculosis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Real structures can be thought as an assembly of components, as for instances plates, shells and beams. This later type of component is very commonly found in structures like frames which can involve a significant degree of complexity or as a reinforcement element of plates or shells. To obtain the desired mechanical behavior of these components or to improve their operating conditions when rehabilitating structures, one of the eventual parameters to consider for that purpose, when possible, is the location of the supports. In the present work, a beam-type structure is considered, and for a set of cases concerning different number and types of supports, as well as different load cases, the authors optimize the location of the supports in order to obtain minimum values of the maximum transverse deflection. The optimization processes are carried out using genetic algorithms. The results obtained, clearly show a good performance of the approach proposed. © 2014 IEEE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE Translate the Patient-centered Assessment and Counseling for Exercise questionnaire, adapt it cross-culturally and identify the psychometric properties of the psychosocial scales for physical activity in young university students.METHODS The Patient-centered Assessment and Counseling for Exercise questionnaire is made up of 39 items divided into constructs based on the social cognitive theory and the transtheoretical model. The analyzed constructs were, as follows: behavior change strategy (15 items), decision-making process (10), self-efficacy (6), support from family (4), and support from friends (4). The validation procedures were conceptual, semantic, operational, and functional equivalences, in addition to the equivalence of the items and of measurements. The conceptual, of items and semantic equivalences were performed by a specialized committee. During measurement equivalence, the instrument was applied to 717 university students. Exploratory factor analysis was used to verify the loading of each item, explained variance and internal consistency of the constructs. Reproducibility was measured by means of intraclass correlation coefficient.RESULTS The two translations were equivalent and back-translation was similar to the original version, with few adaptations. The layout, presentation order of the constructs and items from the original version were kept in the same form as the original instrument. The sample size was adequate and was evaluated by the Kaiser-Meyer-Olkin test, with values between 0.72 and 0.91. The correlation matrix of the items presented r < 0.8 (p < 0.05). The factor loadings of the items from all the constructs were satisfactory (> 0.40), varying between 0.43 and 0.80, which explained between 45.4% and 59.0% of the variance. Internal consistency was satisfactory (α ≥ 0.70), with support from friends being 0.70 and 0.92 for self-efficacy. Most items (74.3%) presented values above 0.70 for the reproducibility test.CONCLUSIONS The validation process steps were considered satisfactory and adequate for applying to the population.