570 resultados para equivalência terminológica
Resumo:
While providing physical and psychological benefits, excessive exercise could be or cause a compulsive behavior, making the individual dependent on it. In a parallel discussion, computerized psychological instruments, for a hand, reflects the development of information technology and your applicability to other areas, but also shows little advance for Psychological Assessment. In this perspective, this study aims to adapt the Exercise Dependence Scale (EDS-R) in two formats (paper-and-pencil and computerized) and evaluate evidence of factorial and convergent validity, and reliability of each version and compare them with each other. It is also proposed to observe the relationship of some bio-demographic (Sex, age, frequency, duration and intensity of practice exercise) and the exercise dependence (DEF). For this purpose, 709 regular physical activity practitioners, selected by procedures non-probabilistic sampling, responded a adapted version of EDS-R, Muscle Appearance Satisfaction Scale (MASS), Body Modification Scale (BMS) and a demographic questionnaire, analyzed through Exploratory Factor Analysis, Cronbach's Alpha and not parametric tests. Both the traditional version and the computer showed a seven factors structure, explaining 57 and 62% of the variance, respectively, and Cronbach's alphas of 0.83 and 0.89. Factors were: (1) intentionality, (2) continuity, (3) tolerance, (4) reduction of other activities, (5) lack of control, (6) abstinence and (7) time spent on exercise. Relationships were observed between the Exercise Dependence and the variables: age, diets, consumption of food supplements and medicines for weight change, desire to do plastic surgery and body satisfaction. We observed also a positive correlation between the DEF and the frequency, duration and intensity of exercise, and the factor "Dependence on exercising" from MASS, indicating convergent validity of the EDS-R. Finally, comparisons between the two formats were equivalent, with few changes: computerized version achieved higher DEF scores. Based on these results, it can be concluded that the EDS-R has factorial and convergent validity, reliability, to measure exerceise dependence on traditional e computerized formats. DEF is related to actions used to body modification and behaviors toward exercise. Finally, it was found equivalence between the formats, especially in psychometric parameters, thus suggesting feasibility of a computerized assessment. However, it was observed that the computerized data has sample recruiting strategies more limited
Resumo:
Esse trabalho objetivou promover a adaptação transcultural para o Brasil da VASS. Os passos para adaptação transcultural seguirão a proposta de operacionalização alicerçado na apreciação de diferentes tipos de equivalência: a conceitual e de itens, a semântica e a de mensuração. Para alcançar as duas primeiras etapas utilizou-se as técnicas de tradução e retrotradução associada ao procedimento intitulado Painel de Especialistas. Para o pré-teste e verificação de equivalência de mensuração, aplicou-se o questionário com uma população de 30 e 66 idosos, respectivamente. Para as análises dos resultados foi utilizada a estatística descritiva e inferencial, em especial o KR-20, teste T de student, correlação de Pearson e ANOVA univariada, bem como o método kappa de Fleiss para verificação do índice de confiabilidade. Verificou-se que o conceito utilizado para construção do instrumento, bem como seus itens se mostram adequados à investigação do fenômeno. Evidenciou-se boa equivalência semântica entre os itens das retrotraduções e do instrumento original, especialmente quanto aos resultados de T1 R1. Os juízes optaram pelo uso de 11 itens de T1 à versão-síntese. A equivalência operacional mostrou-se satisfatória. Em geral, os resultados apresentados mostraram-se aceitáveis. Quanto à etapa da equivalência de mensuração, verificou-se que a idade dos participantes variou entre 60 a 84 anos, prevalecendo respondentes idosas (n = 38), representando 57,6% da amostra estudada. O valor do KR-20 para o escore geral do instrumento foi de 0,688 (IC95%: 0,670). Os valores encontrados para as quatro dimensões propostas pelos autores do estudo inicial do instrumento foram 0,528, 0,289, 0,552 e 0,303, respectivamente. Apenas os valores de consistência interna das subescalas Vulnerabilidade e Coerção mostraram-se aproximados aos encontrados no estudo original, a saber, 0,550 e 0,390, respectivamente. Verificou-se que com a retirada dos itens nº 04, nº 06 e nº 10, houve aumento do índice de consistência interna da escala total. Já quanto aos valores da consistência interna das subescalas, percebeu-se que apenas com a retirada dos itens nº 09, referente à escala que dimensiona o Desânimo, e nº 12, item da subescala Coerção, é que houve acréscimo nesses valores. Destaca-se que esses são resultados preliminares, uma vez que após a verificação da adequabilidade e de padrões psicométricos iniciais acerca do uso do instrumento para a população idosa, ainda há de se dar continuidade à etapa concernente à verificação de propriedades psicométricas robustas do instrumento, que indiquem, por exemplo, evidências de fidedignidade em situação de teste-reteste, validade de constructo e de critério, se possível e aplicável. A principal limitação do estudo é a falta de um instrumento padrão-ouro para testar a fidedignidade, sensibilidade e especificidade do instrumento em questão. Apesar desta limitação, a adaptação transcultural e a verificação de propriedades psicométricas preliminares do instrumento de uma medida de autorrelato que afere indicativo de violência doméstica contra o idoso tem sua relevância e foi satisfatória
Resumo:
Na computação científica é necessário que os dados sejam o mais precisos e exatos possível, porém a imprecisão dos dados de entrada desse tipo de computação pode estar associada às medidas obtidas por equipamentos que fornecem dados truncados ou arredondados, fazendo com que os cálculos com esses dados produzam resultados imprecisos. Os erros mais comuns durante a computação científica são: erros de truncamentos, que surgem em dados infinitos e que muitas vezes são truncados", ou interrompidos; erros de arredondamento que são responsáveis pela imprecisão de cálculos em seqüências finitas de operações aritméticas. Diante desse tipo de problema Moore, na década de 60, introduziu a matemática intervalar, onde foi definido um tipo de dado que permitiu trabalhar dados contínuos,possibilitando, inclusive prever o tamanho máximo do erro. A matemática intervalar é uma saída para essa questão, já que permite um controle e análise de erros de maneira automática. Porém, as propriedades algébricas dos intervalos não são as mesmas dos números reais, apesar dos números reais serem vistos como intervalos degenerados, e as propriedades algébricas dos intervalos degenerados serem exatamente as dos números reais. Partindo disso, e pensando nas técnicas de especificação algébrica, precisa-se de uma linguagem capaz de implementar uma noção auxiliar de equivalência introduzida por Santiago [6] que ``simule" as propriedades algébricas dos números reais nos intervalos. A linguagem de especificação CASL, Common Algebraic Specification Language, [1] é uma linguagem de especificação algébrica para a descrição de requisitos funcionais e projetos modulares de software, que vem sendo desenvolvida pelo CoFI, The Common Framework Initiative [2] a partir do ano de 1996. O desenvolvimento de CASL se encontra em andamento e representa um esforço conjunto de grandes expoentes da área de especificações algébricas no sentido de criar um padrão para a área. A dissertação proposta apresenta uma especificação em CASL do tipo intervalo, munido da aritmética de Moore, afim de que ele venha a estender os sistemas que manipulem dados contínuos, sendo possível não só o controle e a análise dos erros de aproximação, como também a verificação algébrica de propriedades do tipo de sistema aqui mencionado. A especificação de intervalos apresentada aqui foi feita apartir das especificações dos números racionais proposta por Mossakowaski em 2001 [3] e introduz a noção de igualdade local proposta por Santiago [6, 5, 4]
Resumo:
With the increasing complexity of software systems, there is also an increased concern about its faults. These faults can cause financial losses and even loss of life. Therefore, we propose in this paper the minimization of faults in software by using formally specified tests. The combination of testing and formal specifications is gaining strength in searches mainly through the MBT (Model-Based Testing). The development of software from formal specifications, when the whole process of refinement is done rigorously, ensures that what is specified in the application will be implemented. Thus, the implementation generated from these specifications would accurately depict what was specified. But not always the specification is refined to the level of implementation and code generation, and in these cases the tests generated from the specification tend to find fault. Additionally, the generation of so-called "invalid tests", ie tests that exercise the application scenarios that were not addressed in the specification, complements more significantly the formal development process. Therefore, this paper proposes a method for generating tests from B formal specifications. This method was structured in pseudo-code. The method is based on the systematization of the techniques of black box testing of boundary value analysis, equivalence partitioning, as well as the technique of orthogonal pairs. The method was applied to a B specification and B test machines that generate test cases independent of implementation language were generated. Aiming to validate the method, test cases were transformed manually in JUnit test cases and the application, created from the B specification and developed in Java, was tested. Faults were found with the execution of the JUnit test cases
Resumo:
Formal methods and software testing are tools to obtain and control software quality. When used together, they provide mechanisms for software specification, verification and error detection. Even though formal methods allow software to be mathematically verified, they are not enough to assure that a system is free of faults, thus, software testing techniques are necessary to complement the process of verification and validation of a system. Model Based Testing techniques allow tests to be generated from other software artifacts such as specifications and abstract models. Using formal specifications as basis for test creation, we can generate better quality tests, because these specifications are usually precise and free of ambiguity. Fernanda Souza (2009) proposed a method to define test cases from B Method specifications. This method used information from the machine s invariant and the operation s precondition to define positive and negative test cases for an operation, using equivalent class partitioning and boundary value analysis based techniques. However, the method proposed in 2009 was not automated and had conceptual deficiencies like, for instance, it did not fit in a well defined coverage criteria classification. We started our work with a case study that applied the method in an example of B specification from the industry. Based in this case study we ve obtained subsidies to improve it. In our work we evolved the proposed method, rewriting it and adding characteristics to make it compatible with a test classification used by the community. We also improved the method to support specifications structured in different components, to use information from the operation s behavior on the test case generation process and to use new coverage criterias. Besides, we have implemented a tool to automate the method and we have submitted it to more complex case studies
Resumo:
A automação consiste em uma importante atividade do processo de teste e é capaz de reduzir significativamente o tempo e custo do desenvolvimento. Algumas ferramentas tem sido propostas para automatizar a realização de testes de aceitação em aplicações Web. Contudo, grande parte delas apresenta limitações importantes tais como necessidade de valoração manual dos casos de testes, refatoração do código gerado e forte dependência com a estrutura das páginas HTML. Neste trabalho, apresentamos uma linguagem de especificação de teste e uma ferramenta concebidas para minimizar os impactos propiciados por essas limitações. A linguagem proposta dá suporte aos critérios de classes de equivalência e a ferramenta, desenvolvida sob a forma de um plug-in para a plataforma Eclipse, permite a geração de casos de teste através de diferentes estratégias de combinação. Para realizar a avaliação da abordagem, utilizamos um dos módulos do Sistema Unificado de Administração Publica (SUAP) do Instituto Federal do Rio Grande do Norte (IFRN). Participaram da avaliação analistas de sistemas e um técnico de informática que atuam como desenvolvedores do sistema utilizado.
Resumo:
Automation has become increasingly necessary during the software test process due to the high cost and time associated with such activity. Some tools have been proposed to automate the execution of Acceptance Tests in Web applications. However, many of them have important limitations such as the strong dependence on the structure of the HTML pages and the need of manual valuing of the test cases. In this work, we present a language for specifying acceptance test scenarios for Web applications called IFL4TCG and a tool that allows the generation of test cases from these scenarios. The proposed language supports the criterion of Equivalence Classes Partition and the tool allows the generation of test cases that meet different combination strategies (i.e., Each-Choice, Base-Choice and All Combinations). In order to evaluate the effectiveness of the proposed solution, we used the language and the associated tool for designing and executing Acceptance Tests on a module of Sistema Unificado de Administração Pública (SUAP) of Instituto Federal Rio Grande do Norte (IFRN). Four Systems Analysts and one Computer Technician, which work as developers of the that system, participated in the evaluation. Preliminary results showed that IFL4TCG can actually help to detect defects in Web applications
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
In order to make this document self-contained, we first present all the necessary theory as a background. Then we study several definitions that extended the classic bi-implication in to the domain of well stablished fuzzy logics, namely, into the [0; 1] interval. Those approaches of the fuzzy bi-implication can be summarized as follows: two axiomatized definitions, which we proved that represent the same class of functions, four defining standard (two of them proposed by us), which varied by the number of different compound operators and what restrictions they had to satisfy. We proved that those defining standard represent only two classes of functions, having one as a proper subclass of the other, yet being both a subclass of the class represented by the axiomatized definitions. Since those three clases satisfy some contraints that we judge unnecessary, we proposed a new defining standard free of those restrictions and that represents a class of functions that intersects with the class represented by the axiomatized definitions. By this dissertation we are aiming to settle the groundwork for future research on this operator.
Resumo:
The Rio do Peixe Basin is located in the border of Paraíba and Ceará states, immediately to the north of the Patos shear zone, encompassing an area of 1,315 km2. This is one of the main basins of eocretaceous age in Northeast Brazil, associated to the rifting event that shaped the present continental margin. The basin can be divided into four sub-basins, corresponding to Pombal, Sousa, Brejo das Freiras and Icozinho half-grabens. This dissertation was based on the analysis and interpretation of remote sensing products, field stratigraphic and structural data, and seismic sections and gravity data. Field work detailed the lithofacies characterization of the three formations previously recognised in the basin, Antenor Navarro, Sousa and Rio Piranhas. Unlike the classical vertical stacking, field relations and seismostratigraphic analysis highlighted the interdigitation and lateral equivalency between these units. On bio/chrono-stratigraphic and tectonic grounds, they correlate with the Rift Tectonosequence of neocomian age. The Antenor Navarro Formation rests overlies the crystalline basement in non conformity. It comprises lithofacies originated by a braided fluvial system system, dominated by immature, coarse and conglomeratic sandstones, and polymict conglomerates at the base. Its exposures occur in the different halfgrabens, along its flexural margins. Paleocurrent data indicate source areas in the basement to the north/NW, or input along strike ramps. The Sousa Formation is composed by fine-grained sandstones, siltites and reddish, locally grey-greenish to reddish laminated shales presenting wavy marks, mudcracks and, sometimes, carbonate beds. This formation shows major influence of a fluvial, floodplain system, with seismostratigraphic evidence of lacustrine facies at subsurface. Its distribution occupies the central part of the Sousa and Brejo das Freiras half-grabens, which constitute the main depocenters of the basin. Paleocurrent analysis shows that sediment transport was also from north/NW to south/SE
Resumo:
OBJETIVO: analisar a influência da via de parto sobre a força muscular do assoalho pélvico (FM-AP). MÉTODOS: estudo clínico de corte transversal, para avaliar a FM-AP pelo teste da avaliação da força do assoalho pélvico (AFA) e uso do perineômetro em primíparas, entre 20-30 anos de idade, 4-6 meses pós-parto. A contração, medida pelos dois testes, foi classificada em: zero - ausência, um - leve, dois - moderada e três - normal, sustentada por 6 segundos. Avaliaram-se 94 mulheres, entre 20 e 30 anos, divididas em três grupos: pós-parto vaginal (n=32); pós-cesárea (n=32) e nulíparas (n=30). A variável independente foi a via de parto e a dependente, a FM-AP. A comparação entre os graus de contração foi realizada pelo teste de Kruskal-Wallis e o teste de Dunn para comparações múltiplas; a influência da via de parto pelo teste chi2, o risco relativo (RR) para alteração da FM-AP e o coeficiente kappa para avaliar equivalência entre os testes. RESULTADOS: a mediana e 1º e 3º quartil da FM-AP foram menores (p=0,01) pós-parto vaginal (2,0;1-2) e intermediários pós-cesárea (2,0; 2-3) em relação às nulíparas (3,0;2-3), tanto analisadas pelo AFA como pelo perineômetro. Aumentou o RR de exame alterado pós-parto vaginal (RR=2,5; IC 95%: 1,3-5,0; p=0,002); (RR=2,3; IC 95%: 1,2-4,3; p=0,005) e pós-cesárea (RR=1,5; IC 95%: 0,94-2,57; p=0,12); (RR=1,3; IC 95%: 0,85-2,23; p=0,29) pelo PFSE e perineômetro, respectivamente. CONCLUSÕES: o parto vaginal diminuiu a força muscular do AP de primíparas quando comparado com os casos submetidos à cesárea e com as nulíparas.
Resumo:
CONTEXTO E OBJETIVO: A falta de consenso sobre os protocolos de rastreamento e diagnóstico do diabetes gestacional, associada às dificuldades na realização do teste oral simplificado do diabete gestacional (o teste de tolerância a 100 g de glicose, considerado padrão-ouro) justificam a comparação com alternativas. O objetivo deste trabalho é comparar o teste padrão-ouro a dois testes de rastreamento: associação de glicemia de jejum e fatores de risco (GJ + FR) e o teste oral simplificado de tolerância a 50 g de glicose (TTG 50 g), com o teste de tolerância a 100 g de glicose (TTG 100 g). TIPO DE ESTUDO E LOCAL: Estudo de coorte longitudinal, prospectivo, realizado no Serviço de Ginecologia e Obstetrícia do Hospital Universitário da Universidade Federal de Mato Grosso do Sul. MÉTODOS: 341 gestantes foram submetidas aos três testes. Calcularam-se os índices de sensibilidade (S), especificidade (E), valores preditivos (VPP e VPN), razões de probabilidade (RPP e RPN) e resultados falsos (FP e FN), positivos e negativos da associação GJ + FR e do TTG 50 g em relação ao TTG 100 g. Compararam-se as médias das glicemias de uma hora pós-sobrecarga (1hPS) com 50 e 100 g. Na análise estatística, empregou-se o teste t de Student, com limite de significância de 5%. RESULTADOS: A associação GJ + FR encaminhou mais gestantes (53,9%) para a confirmação diagnóstica que o TTG 50 g (14,4%). Os dois testes foram equivalentes nos índices de S (86,4 e 76,9%), VPN (98,7 e 98,9%), RPN (0,3 e 0,27) e FN (15,4 e 23,1%). As médias das glicemias 1hPS foram semelhantes, 106,8 mg/dl para o TTG 50 g e 107,5 mg/dl para o TTG 100 g. CONCLUSÕES: Os resultados da eficiência diagnóstica associados à simplicidade, praticabilidade e custo referendaram a associação GJ + FR como o mais adequado para o rastreamento. A equivalência das glicemias de 1hPS permitiram a proposição de um novo protocolo de rastreamento e diagnóstico do diabete gestacional, com menores custo e desconforto.
Resumo:
Apresentam-se os resultados de uma pesquisa sobre a construção de conceitos de Física Moderna e sobre a natureza da Ciência com o apoio da hipermídia, que envolveu a produção e avaliação de um software educacional. A proposta didática fundamentou-se na Teoria da Aprendizagem de Ausubel, em orientações para a implementação de sistemas hipermídia educacionais e em abordagens derivadas da pesquisa em Ensino de Ciências, dentre as quais o enfoque Ciência-Tecnologia-Sociedade, ponderações quanto à importância pedagógica da História e Filosofia da Ciência e considerações sobre a inserção de Física Moderna no Ensino Médio. O programa foi avaliado por pesquisadores de Ensino de Física e licenciandos de Física e, após a incorporação de algumas sugestões realizadas, foi testado por estudantes do terceiro ano do Ensino Médio de uma escola pública. Obtiveram-se indícios de que o uso do computador foi fator de motivação dos estudantes; a diversidade de elementos de mídia auxiliou-os a fixar a atenção sobre o conteúdo e favoreceu a visualização e interpretação dos fenômenos, facilitando ainda o raciocínio; o hipertexto estruturado em conformidade com princípios ausubelianos contribuiu para a percepção da relação entre os conceitos e ajudou no desenvolvimento de subsunçores para apoiar a aprendizagem subseqüente. Constatou-se que a proposta didática avaliada favoreceu a evolução das concepções da maior parte dos estudantes quanto ao conceito de equivalência massa-energia e suas implicações; às relações entre Ciência, Tecnologia e Sociedade, incluindo aspectos ambientais e políticos; ao papel da Ética no desenvolvimento e aplicação dos conhecimentos científicos; ao progresso da Ciência ao longo do tempo.
Resumo:
Este artigo aborda a questão da equivalência na tradução de expressões idiomáticas para a lexicografia bilíngüe. Considerase que a fim de se alcançar uma equivalência idiomática o significado da palavra não é fixo nem estável e que se faz necessária uma pesquisa detalhada em vários dicionários bem como junto a informantes nativos.
Resumo:
De forma geral, os cursos de física clássica oferecidos nas universidades carecem de exemplos de aplicações nas áreas de química e biologia, o que por vezes desmotivam os alunos de graduação destas áreas a estudarem os conceitos físicos desenvolvidos em sala de aula. Neste texto, a analogia entre os osciladores elétrico e mecânico é explorada visando possívies aplicações em química e biologia, mostrando-se de grande valia devido ao seu uso em técnicas de medição de variação de massa com alta precisão, tanto de forma direta como indireta. Estas técnicas são conhecidas como técnicas eletrogravimétricas e são de especial importância em aplicações que envolvem biossensores. Desta forma, o texto explora o estudo da analogia eletromecânica de forma interdisciplinar envolvendo as áreas de física, química e biologia. Baseado nessa analogia é proposto um experimento que permite a sua aplicação em diferentes níveis conceituais dessas disciplinas, tanto em abordagem básica como mais profunda.