40 resultados para validity
em Instituto Politécnico do Porto, Portugal
Resumo:
Vários trabalhos têm associado a Satisfação Profissional (SP) a variáveis como a produtividade, o absentismo e o turnover (McPherson, Davies, Bewick, & Bhudia, 1999, citado em Ferguson, Ashcroft, & Hassell, 2011; Mott, 2000; Judge, Thoresen, Bono, & Patton, 2001) indicando ser importante o estudo da problemática nos Técnicos de Farmácia e Farmacêuticos, uma vez que pode condicionar a prestação de cuidados de saúde. Pretendeu-se medir e comparar a SP entre Técnicos de Farmácia e Farmacêuticos e entre Farmácia Hospitalar e de Oficina do Norte de Portugal. Verificou-se a relação entre a SP e: idade, género, grau de formação na área da Farmácia, experiência profissional (em anos) e experiência profissional no local de trabalho (em anos). Utilizou-se a escala Job Satisfaction Survey (JSS) (Spector, 1985), tendo sido adaptada e validada para o contexto. A JSS e subescalas revelaram correlação de carácter forte com a escala e subescalas da Minnesota Satisfaction Questionnaire-Short version (MSQ) de Weiss, Dawis, England, & Lofquist (1967). Contudo, apenas foi identificada validade convergente entre algumas das subescalas da JSS com a MSQ e respectivas subescalas, o que sugere que ambas (JSS e MSQ) medem construtos que estão intimamente associados mas não medem exactamente o mesmo. A amostra é constituída por 291 profissionais que responderam ao instrumento entre Março de 2010 e Abril de 2011. Foram encontrados níveis de SP positivos excepto para a Satisfação com o superior hierárquico directo (média inferior a 3) e Satisfação com procedimentos de trabalho e comunicação na organização (valor ambivalente entre 3 e 4). Diferenças foram encontradas entre Farmácia de Oficina e Hospitalar e entre Técnicos de Farmácia e Farmacêuticos, sendo revelados níveis de Satisfação mais elevados para os Técnicos de Farmácia. Também foram encontradas diferenças para o género (SP global e subescalas) e para o nível de formação em Farmácia (algumas subescalas). A idade, a experiência profissional e a experiência profissional no local de trabalho revelaram associação positiva com a SP global e com algumas das subescalas. A lacuna existente neste tipo de estudos para os profissionais de saúde e nomeadamente dos Técnicos de Farmácia e Farmacêuticos em Portugal tornam este estudo relevante e inovador, lançando novas pistas e direccionando novas investigações.
Resumo:
The present research paper presents five different clustering methods to identify typical load profiles of medium voltage (MV) electricity consumers. These methods are intended to be used in a smart grid environment to extract useful knowledge about customer’s behaviour. The obtained knowledge can be used to support a decision tool, not only for utilities but also for consumers. Load profiles can be used by the utilities to identify the aspects that cause system load peaks and enable the development of specific contracts with their customers. The framework presented throughout the paper consists in several steps, namely the pre-processing data phase, clustering algorithms application and the evaluation of the quality of the partition, which is supported by cluster validity indices. The process ends with the analysis of the discovered knowledge. To validate the proposed framework, a case study with a real database of 208 MV consumers is used.
Resumo:
O objectivo deste estudo é determinar as propriedades psicométricas da versão portuguesa do Stroke Aphasic Depression Questionnaire-21 (SADQ-21). Envolveu 120 sujeitos, 33 dos quais com afasia. Os resultados demonstraram que o SADQ-21 revela uma consistência interna muito elevada (α=0,87). A validade de construção identificou cinco domínios. A variância total explicada pelos factores foi elevada (65,85%). A correlação entre a medida de ouro e o SADQ-21 é estatisticamente significativa (p<0,05). Os indivíduos com afasia estão significativamente mais deprimidos que os sem afasia (p=0,0001). Conclui-se que o SADQ-21 é um instrumento adequado para a avaliação da sintomatologia depressiva em pessoas com afasia.
Resumo:
This paper is about PCMAT, an adaptive learning platform for Mathematics in Basic Education schools. Based on a constructivist approach, PCMAT aims at verifying how techniques from adaptive hypermedia systems can improve e-learning based systems. To achieve this goal, PCMAT includes a Pedagogical Model that contains a set of adaptation rules that influence the student-platform interaction. PCMAT was subject to a preliminary testing with students aged between 12 and 14 years old on the subject of direct proportionality. The results from this preliminary test are quite promising as they seem to demonstrate the validity of our proposal.
Resumo:
This paper presents the SmartClean tool. The purpose of this tool is to detect and correct the data quality problems (DQPs). Compared with existing tools, SmartClean has the following main advantage: the user does not need to specify the execution sequence of the data cleaning operations. For that, an execution sequence was developed. The problems are manipulated (i.e., detected and corrected) following that sequence. The sequence also supports the incremental execution of the operations. In this paper, the underlying architecture of the tool is presented and its components are described in detail. The tool's validity and, consequently, of the architecture is demonstrated through the presentation of a case study. Although SmartClean has cleaning capabilities in all other levels, in this paper are only described those related with the attribute value level.
Resumo:
There is a wide agreement that identity is a multidisciplinary concept. Branding is an identity expression. Although there are some frameworks to assess brand identity there isn’t an accepted definition. The authors consider this a gap in literature and investigate the components to assess brand identity under a holistic approach. Literature was reviewed and reinterpreted under an integrated perspective evolving corporate and brand identity studies. The authors propose a definition and nine componentscharacterizing corporate brand identity: reputation, culture, positioning, personality, relationships network, presentation style, communication, environmental influences and mission. Some are related with internal and others to external facets. The authorsare strongly encouraged to test these results empirically towards validity and reliability of the proposed construct.
Resumo:
Nos dias de hoje é necessário criar hábitos de vida mais saudáveis que contribuam para o bem-estar da população. Adoptar medidas e práticas de modo regular e disciplinado, pode diminuir o risco do aparecimento de determinadas doenças, como a obesidade, as doenças cardiovasculares, a hipertensão, a diabetes, alguns tipos de cancro e tantas outras. É também importante salientar que, uma alimentação cuidada dá saúde e aumenta a esperança média de vida. Em Portugal, nos últimos anos, os costumes alimentares da população têm vindo a alterar-se significativamente. As refeições caseiras confeccionadas com produtos frescos dão lugar à designada “cultura do fast food”. Em contrapartida, os consumidores são cada vez mais exigentes, estando em permanente alerta no que se refere ao estado dos alimentos. A rotulagem de um produto, para além da função publicitária, tem vindo a ser objecto de legislação específica de forma a fornecer informação simples e clara, correspondente à composição, qualidade, quantidade, validade ou outras características do produto. Estas informações devem ser acessíveis a qualquer tipo de público, com mais ou menos formação e de qualquer estrato social. A qualidade e segurança dos produtos deve basear-se na garantia de que todos os ingredientes, materiais de embalagem e processos produtivos são adequados à produção de produtos seguros, saudáveis e saborosos. A Silliker Portugal, S.A. é uma empresa independente de prestação de serviços para o sector agro-alimentar, líder mundial na prestação de serviços para a melhoria da qualidade e segurança alimentar. A Silliker dedica-se a ajudar as empresas a encontrar soluções para os desafios actuais do sector, oferecendo uma ampla gama de serviços, onde se inclui o serviço de análises microbiológicas, químicas e sensorial; consultadoria em segurança alimentar e desenvolvimento; auditorias; rotulagem e legislação. A actualização permanente de procedimentos na procura de uma melhoria contínua é um dos objectivos da empresa. Para responder a um dos desafios colocados à Silliker, surgiu este trabalho, que consistiu no desenvolvimento de um novo método para determinação de ácidos gordos e da gordura total em diferentes tipos de alimentos e comparação dos resultados, com os obtidos com o método analítico até então adoptado. Se a gordura é um elemento de grande importância na alimentação, devido às suas propriedades nutricionais e organoléticas, recentemente, os investigadores têm focado a sua atenção nos mais diversos ácidos gordos (saturados, monoinsaturados e polinsaturados), em particular nos ácidos gordos essenciais e nos isómeros do ácido linoleico conjugado (CLA), uma mistura de isómeros posicionais e geométricos do ácido linoleico com actividade biológica importante. A técnica usada nas determinações foi a cromatografia gasosa com ionização de chama, GC-FID, tendo as amostras sido previamente tratadas e extraídas de acordo com o tipo de matriz. A metodologia analítica desenvolvida permitiu a correcta avaliação do perfil em ácidos gordos, tendo-se para isso usado uma mistura de 37 ésteres metílicos, em que o ácido gordo C13:0 foi usado como padrão interno. A identificação baseou-se nos tempos de retenção de cada ácido gordo da mistura e para a quantificação usaram-se os factores de resposta. A validação do método implementado foi baseada nos resultados obtidos no estudo de três matrizes relativas a materiais certificados pela BIPEA (Bureau Interprofessionnel des Etudes Analytiques), para o que foram efectuadas doze réplicas de cada matriz. Para cada réplica efectuada foi calculado o teor de matéria gorda, sendo posteriormente o resultado comparado com o emitido pela entidade certificada. Após análise de cada constituinte foi também possível calcular o teor em ácidos gordos saturados, monoinsaturados e polinsaturados. A determinação do perfil em ácidos gordos dos materiais certificados foi aceitável atendendo aos valores obtidos, os quais se encontravam no intervalo de valores admissíveis indicados nos relatórios. A quantificação da matéria gorda no que se refere à matriz de “Paté à Tartinier” apresentou um z-score de 4,3, o que de acordo com as exigências internas da Silliker, não é válido. Para as outras duas matrizes (“Mélange Nutritif” e “Plat cuisiné à base de viande”) os valores de z-score foram, respectivamente, 0,7 e -1,0, o que permite concluir a validade do método. Para que o método possa vir a ser adoptado como método alternativo é necessário um estudo mais alargado relativamente a amostras com diferentes composições. O método foi aplicado na análise de amostras de fiambre, leite gordo, queijo, ovo com ómega 3, amendoim e óleo de girassol, e os resultados foram comparados com os obtidos pelo método até então adoptado.
Resumo:
Grande parte dos triples-stores são open source e desenvolvidos em Java, disponibilizando interfaces standards e privadas de acesso. A grande maioria destes sistemas não dispõe de mecanismos de controlo de acessos nativos, o que dificulta ou impossibilita a sua adopção em ambientes em que a segurança dos factos é importante (e.g. ambiente empresarial). Complementarmente observa-se que o modelo de controlo de acesso a triplos e em particular a triplos descritos por ontologias não está standardizado nem sequer estabilizado, havendo diversos modelos de descrição e algoritmos de avaliação de permissões de acesso. O trabalho desenvolvido nesta tese/dissertação propõe um modelo e interface de controlo de acesso que permite e facilite a sua adopção por diferentes triple-stores já existentes e a integração dos triples-stores com outros sistemas já existentes na organização. Complementarmente, a plataforma de controlo de acesso não impõe qualquer modelo ou algoritmo de avaliação de permissões, mas pelo contrário permite a adopção de modelos e algoritmos distintos em função das necessidades ou desejos. Finalmente demonstra-se a aplicabilidade e validade do modelo e interface propostos, através da sua implementação e adopção ao triple-store SwiftOWLIM já existente, que não dispõe de mecanismo de controlo de acessos nativo.
Resumo:
Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.
Resumo:
A methodology for the determination of the pesticide chlorfenvinphos by microwave-assisted solvent extraction and square-wave cathodic stripping voltammetry at a mercury film ultramicroelectrode in soil samples is proposed. Optimization of microwave solvent extraction performed with two soils, selected for having significantly different properties, indicated that the optimum solvent for extracting chlorfenvinphos is hexane-acetone (1:1, v/v). The voltammetric procedure is based on controlled adsorptive accumulation of the insecticide at the potential of -0.60 V (vs. Ag/AgCl) in the presence of Britton-Robinson buffer (pH 6.2). The detection limit obtained for a 10 s collection time was 3.0 x 10-8 mol l-1. The validity of the developed methodology was assessed by recovery experiments at the 0.100 µg g-1 level. The average recoveries and standard deviations for the global procedure reached byMASE-square-wave voltammetry were 90.2±2.8% and 92.1±3.4% for type I (soil rich in organic matter) and type II (sandy soil) samples, respectively. These results are in accordance to the expected values which show that the method has a good accuracy.
Resumo:
When exploring a virtual environment, realism depends mainly on two factors: realistic images and real-time feedback (motions, behaviour etc.). In this context, photo realism and physical validity of computer generated images required by emerging applications, such as advanced e-commerce, still impose major challenges in the area of rendering research whereas the complexity of lighting phenomena further requires powerful and predictable computing if time constraints must be attained. In this technical report we address the state-of-the-art on rendering, trying to put the focus on approaches, techniques and technologies that might enable real-time interactive web-based clientserver rendering systems. The focus is on the end-systems and not the networking technologies used to interconnect client(s) and server(s).
RadiaLE: A framework for designing and assessing link quality estimators in wireless sensor networks
Resumo:
Stringent cost and energy constraints impose the use of low-cost and low-power radio transceivers in large-scale wireless sensor networks (WSNs). This fact, together with the harsh characteristics of the physical environment, requires a rigorous WSN design. Mechanisms for WSN deployment and topology control, MAC and routing, resource and mobility management, greatly depend on reliable link quality estimators (LQEs). This paper describes the RadiaLE framework, which enables the experimental assessment, design and optimization of LQEs. RadiaLE comprises (i) the hardware components of the WSN testbed and (ii) a software tool for setting-up and controlling the experiments, automating link measurements gathering through packets-statistics collection, and analyzing the collected data, allowing for LQEs evaluation. We also propose a methodology that allows (i) to properly set different types of links and different types of traffic, (ii) to collect rich link measurements, and (iii) to validate LQEs using a holistic and unified approach. To demonstrate the validity and usefulness of RadiaLE, we present two case studies: the characterization of low-power links and a comparison between six representative LQEs. We also extend the second study for evaluating the accuracy of the TOSSIM 2 channel model.
Resumo:
Modeling the fundamental performance limits of Wireless Sensor Networks (WSNs) is of paramount importance to understand their behavior under the worst-case conditions and to make the appropriate design choices. This is particular relevant for time-sensitive WSN applications, where the timing behavior of the network protocols (message transmission must respect deadlines) impacts on the correct operation of these applications. In that direction this paper contributes with a methodology based on Network Calculus, which enables quick and efficient worst-case dimensioning of static or even dynamically changing cluster-tree WSNs where the data sink can either be static or mobile. We propose closed-form recurrent expressions for computing the worst-case end-to-end delays, buffering and bandwidth requirements across any source-destination path in a cluster-tree WSN. We show how to apply our methodology to the case of IEEE 802.15.4/ZigBee cluster-tree WSNs. Finally, we demonstrate the validity and analyze the accuracy of our methodology through a comprehensive experimental study using commercially available technology, namely TelosB motes running TinyOS.
Resumo:
Modeling the fundamental performance limits of Wireless Sensor Networks (WSNs) is of paramount importance to understand their behavior under worst-case conditions and to make the appropriate design choices. In that direction this paper contributes with an analytical methodology for modeling cluster-tree WSNs where the data sink can either be static or mobile. We assess the validity and pessimism of analytical model by comparing the worst-case results with the values measured through an experimental test-bed based on Commercial-Off- The-Shelf (COTS) technologies, namely TelosB motes running TinyOS.
Resumo:
Modelling the fundamental performance limits of wireless sensor networks (WSNs) is of paramount importance to understand the behaviour of WSN under worst case conditions and to make the appropriate design choices. In that direction, this paper contributes with a methodology for modelling cluster tree WSNs with a mobile sink. We propose closed form recurrent expressions for computing the worst case end to end delays, buffering and bandwidth requirements across any source-destination path in the cluster tree assuming error free channel. We show how to apply our theoretical results to the specific case of IEEE 802.15.4/ZigBee WSNs. Finally, we demonstrate the validity and analyze the accuracy of our methodology through a comprehensive experimental study, therefore validating the theoretical results through experimentation.