971 resultados para Harder
Resumo:
This study addresses our approach to the difficult task of measuring the impact of an eLearning service, the Graduate Virtual Research Environment (GVRE), provided to doctoral students at a UK University since October 2009. The GVRE provides research students with access to a training needs analysis tool which is linked to a repository of video learning resources created by academics and experienced research students. This paper explores the use of the Rugby Team Impact Framework as a guide to measuring impact and our use of a number of techniques to gather evidence about the changes resulting from use of the GVRE. The framework gives four levels of evidence, starting with simple measures of provision, through attendance, interest and to outcomes. As with other research, we found the former easy to assess but the outcomes harder to define. We conclude with a critical evaluation of our research process and outcomes.
Resumo:
Introduction: Previous research has suggested that visual images are more easily generated, more vivid and more memorable than other sensory modalities. This research examined whether or not imagery is experienced in similar ways by people with and without sight. Specifically, the imabeability of visual, auditory and tactile cue words was compared. The degree to which images were multimodal or unimodal was also examined. Method: Twelve participants totally blind from early infancy and 12 sighted participants generated images in response to 53 sensory and non sensory words, rating imageability and the sensory modality, and describing images. From these 53 items, 4 subgroups of words, which stimulated images that were predominantly visual, tactile, auditory and low-imagery, respectively, were created. Results: T-tests comparing imageability ratings from blind and sighted participants found no differences for auditory and tactile words (both p>.1). Nevertheless, whilst participants without sight found auditory and tactile images equally imageable, sighted participants found images in response to tactile cue words harder to generate than visual cue words (mean difference: -0.51, p=.025). Participants with sight were also more likely to develop multisensory images than were participants without sight (both U≥15.0, N1=12, N2=12, p≤.008). Discussion: For both the blind and sighted, auditory and tactile images were rich and varied and similar language was used. Sighted participants were more likely to generate multimodal images. This was particularly the case for tactile words. Nevertheless, cue words that resulted in multisensory images were not necessarily rated as more imageable. The discussion considers whether or not multimodal imagery represent a method of compensating for impoverished unimodal imagery. Implications for Practitioners: Imagery is important not only as a mnemonic in memory rehabilitation, but also everyday uses for things such as autobiographical memory. This research emphasises both the importance of not only auditory and tactile sensory imagery, but also spatial imagery for people without sight.
Resumo:
Trabalho de Dissertação de Natureza Científica para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização em Hidráulica
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
The rapid increase in the use of microprocessor-based systems in critical areas, where failures imply risks to human lives, to the environment or to expensive equipment, significantly increased the need for dependable systems, able to detect, tolerate and eventually correct faults. The verification and validation of such systems is frequently performed via fault injection, using various forms and techniques. However, as electronic devices get smaller and more complex, controllability and observability issues, and sometimes real time constraints, make it harder to apply most conventional fault injection techniques. This paper proposes a fault injection environment and a scalable methodology to assist the execution of real-time fault injection campaigns, providing enhanced performance and capabilities. Our proposed solutions are based on the use of common and customized on-chip debug (OCD) mechanisms, present in many modern electronic devices, with the main objective of enabling the insertion of faults in microprocessor memory elements with minimum delay and intrusiveness. Different configurations were implemented starting from basic Components Off-The-Shelf (COTS) microprocessors, equipped with real-time OCD infrastructures, to improved solutions based on modified interfaces, and dedicated OCD circuitry that enhance fault injection capabilities and performance. All methodologies and configurations were evaluated and compared concerning performance gain and silicon overhead.
Resumo:
As IPSS são instituições muito particulares e muitas deles ainda bastante dependentes das comparticipações estatais. Com a situação atual do país, as dificuldades das IPSS’s vão se agudizando. As comparticipações estatais não se adaptam à realidade atual que se vive provocando alguns transtornos. Desta forma, torna-se urgente uma mudança de mentalidades dos dirigentes dessas instituições, libertando a ideia de que têm de estar dependentes dos subsídios estatais, procurando assim, alternativas a este tipo de financiamento. Algumas estratégias são possíveis, mas de acordo com cada instituição, isto é, da localidade onde está inserida, do seu projeto educativo, e da população alvo que recebe, elas deverão ser mais ou menos adaptadas. No que concerne a IPSS “Novo Sol” de entre as possibilidades encontradas as que mais se adaptam serão o mecenato, a parceria com uma outra IPSS existente, mas que serve outras valências, assim como o marketing social. Com estas alternativas pretende-se melhorar a situação atual financeira da instituição, podendo desse modo, dar continuidade ao projeto educativo.
Resumo:
Durante as últimas décadas, os materiais compósitos têm substituído com sucesso os materiais tradicionais em muitas aplicações de engenharia, muito devido às excelentes propriedades que se conseguem obter com a combinação de materiais diferentes. Nos compósitos reforçados com fibras longas ou contínuas tem-se verificado, ao longo dos últimos anos, um aumento do uso de matrizes termoplásticas, fruto de várias vantagens associadas, como o facto de serem bastante mais ecológicas, comparativamente às termoendurecíveis. No entanto, este aumento está muito dependente do desenvolvimento de novas tecnologias de processamento, pois a elevada viscosidade dos termoplásticos, comparativamente aos termoendurecíveis, dificulta significativamente o processo. Muitos equipamentos de produção de termoplásticos são resultado de adaptações de equipamentos de produção de termoendurecíveis, onde normalmente é necessário adicionar fornos de pré-aquecimento. Neste trabalho, pretendeu-se produzir pré-impregnados de fibras contínuas com matriz termoplástica, por deposição a seco de polímero em pó sobre fibras de reforço (denominados por towpreg) para, posteriormente, serem transformados por pultrusão e caracterizados. As matérias-primas utilizadas foram: Polipropileno (PP) como matriz termoplástica e fibra de carbono como reforço. Por forma a melhorar as propriedades finais do compósito, foram otimizadas as condições de processamento na produção dos towpregs, estudando-se a influência da variação dos parâmetros de processamento no teor de polímero presente nestes, tendo como objetivo teores mássicos de polímero superiores a 30%. A condição ótima e a influência dos parâmetros de processamento foram obtidas com o auxílio do Método de Taguchi. Os perfis produzidos por pultrusão foram sujeitos a ensaios de flexão, de forma a obter as suas propriedades quando sujeitos a esse tipo de esforço. Foram também realizados ensaios de calcinação de forma a obter as frações mássicas de fibra e polímero presentes no compósito final. Sabidas as frações mássicas, converteramse em frações volúmicas e obtiveram-se as propriedades teoricamente esperadas através da Lei das Misturas e compararam-se com as obtidas experimentalmente. As propriedades obtidas foram também comparadas com as de outros compósitos pultrudidos.
Resumo:
Ultrasound detection of sub-clinical atherosclerosis (ATS) may help identify individuals at high cardiovascular risk. Most studies evaluated intima-media thickness (IMT) at carotid level. We compared the relationships between main cardiovascular risk factors (CVRF) and five indicators of ATS (IMT, mean and maximal plaque thickness, mean and maximal plaque area) at both carotid and femoral levels. Ultrasound was performed on 496 participants aged 45-64 years randomly selected from the general population of the Republic of Seychelles. 73.4 % participants had ≥ 1 plaque (IMT thickening ≥ 1.2 mm) at carotid level and 67.5 % at femoral level. Variance (adjusted R2) contributed by age, sex and CVRF (smoking, LDL-cholesterol, HDL-cholesterol, blood pressure, diabetes) in predicting any of the ATS markers was larger at femoral than carotid level. At both carotid and femoral levels, the association between CVRF and ATS was stronger based on plaque-based markers than IMT. Our findings show that the associations between CVRF and ATS markers were stronger at femoral than carotid level, and with plaque-based markers rather than IMT. Pending comparison of these markers using harder cardiovascular endpoints, our findings suggest that markers based on plaque morphology assessed at femoral artery level might be useful cardiovascular risk predictors.
Resumo:
QUESTIONS UNDER STUDY / PRINCIPLES: The main aim of this study was to investigate profiles of drug users, with a particular focus on illicit drugs other than cannabis, and to explore the effect of early-onset intensive use (drunkenness, daily smoking, high on cannabis) on profiles of illicit drug use. METHODS: Baseline data from a representative sample of 5,831 young Swiss men in the ongoing Cohort Study on Substance Use Risk Factors were used. Substance use (alcohol, tobacco, cannabis and 15 types of other illicit drug) and age of onset of intensive use were assessed. The Item Response Theory (IRT) and prevalence rates at different ages of onset were used to reveal different profiles of illicit drug use. RESULTS: In addition to cannabis, there were two profiles of other illicit drug use: (a) "softer" drug users (uppers, hallucinogens and inhaled drugs), among which ecstasy had the highest discriminatory potential (IRT slope = 4.68, standard error (SE) = 0.48; p <0.001); and (b) "harder" drug users (heroin, ketamine, gamma-hydroxybutyrate/gamma-hydroxylactone, research chemicals, crystal meth and spice), among which ketamine had the highest discriminatory potential (slope = 4.05; SE = 0.63; p <0.001). Onset of intensive use at the age of 12 years or younger also discriminated between these two profiles. CONCLUSION: Both the IRT model and the effect of onset of intensive use enabled two groups of illicit drugs to be identified. In particular, very early onset (at 12 years or younger) intensive use of any substance was a marker for later use of the second group of drugs.
Resumo:
Letter to S.D. Woodruff from Dexter Deverardo regarding the need to push harder in the coming season or the public will not be satisfied. He also states that he is not blaming Mr. Woodruff that the contractors did so little. There is a hole in the centre of this letter which affects text slightly, Feb. 25, 1856.
Resumo:
This paper builds on the assumption that countries behave in such a way as to improve, via their economic strength, the probability that they will attain the hegemonic position on the world stage. The quest for hegemony is modeled as a game, with countries being differentiated initially only by some endowment which yields a pollution free flow of income. A country's level of pollution is assumed directly related to its economic strength, as measured by its level of production. Two types of countries are distinguished: richly-endowed countries, for whom the return on their endowment is greater than the return they can expect from winning the hegemony race, and poorly-endowed countries, who can expect a greater return from winning the race than from their endowment. We show that in a symmetric world of poorly-endowed countries the equilibrium level of emissions is larger than in a symmetric world of richly-endowed countries: the former, being less well endowed to begin with, try harder to win the race. In the asymmetric world composed of both types of countries, the poorly-endowed countries will be polluting more than the richly endowed countries. Numerical simulations show that if the number of richly-endowed countries is increased keeping the total number of countries constant, the equilibrium level of global emissions will decrease; if the lot of the poorly-endowed countries is increased by increasing their initial endowment keeping that of the richly-endowed countries constant, global pollution will decrease; increasing the endowments of each type of countries in the same proportion, and hence increasing the average endowment in that proportion, will decrease global pollution; redistributing from the richly-endowed in favor of the poorly-endowed while keeping the average endowment constant will in general result in an increase in the equilibrium level of global pollution.
Resumo:
Les antipatrons sont de “mauvaises” solutions à des problèmes récurrents de conception logicielle. Leur apparition est soit due à de mauvais choix lors de la phase de conception soit à des altérations et des changements continus durant l’implantation des programmes. Dans la littérature, il est généralement admis que les antipatrons rendent la compréhension des programmes plus difficile. Cependant, peu d’études empiriques ont été menées pour vérifier l’impact des antipatrons sur la compréhension. Dans le cadre de ce travail de maîtrise, nous avons conçu et mené trois expériences, avec 24 sujets chacune, dans le but de recueillir des données sur la performance des sujets lors de tâches de compréhension et d’évaluer l’impact de l’existence de deux antipatrons, Blob et Spaghetti Code, et de leurs combinaisons sur la compréhension des programmes. Nous avons mesuré les performances des sujets en terme : (1) du TLX (NASA task load index) pour l’éffort ; (2) du temps consacré à l’exécution des tâches ; et, (3) de leurs pourcentages de réponses correctes. Les données recueillies montrent que la présence d’un antipatron ne diminue pas sensiblement la performance des sujets alors que la combinaison de deux antipatrons les entrave de façon significative. Nous concluons que les développeurs peuvent faire face à un seul antipatron, alors que la combinaison de plusieurs antipatrons devrait être évitée, éventuellement par le biais de détection et de réusinage.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Cette recherche porte sur les conséquences sociales, au Québec, de la maladie cœliaque et des allergies alimentaires. Elle vise à expliquer et comprendre comment la maladie cœliaque et les allergies alimentaires influencent les relations sociales, les activités sociales et les perceptions des personnes qui vivent avec ces conditions, ainsi que celles de leurs proches. Pour ce faire, des entrevues semi-dirigées ont été effectuées auprès de 11 participants qui étaient soit cœliaque, allergique ou membre de l’entourage. Durant ces entrevues, il a été question de diagnostic, d’accidents alimentaires, d’accessibilité, d’activités amicales, de la réaction et de l’adaptation de la famille, de perceptions et de relations amoureuses. Une comparaison, entre les expériences des cœliaques et des allergiques, est réalisée suite à la description celles-ci. Les données d’entrevues ont été analysées avec le concept d’habitus de Bourdieu (1980), les concepts d’agency et de règles de Giddens (1979), les concepts d’exclusion et d’identité ainsi qu’avec les différentes définitions de la maladie et une échelle de gravité des perceptions. De cette recherche, on notera que les perceptions de la maladie sont différentes chez les cœliaques et les allergiques. La maladie cœliaque tend à être moins prise en charge par les professionnels de la santé et être considérée avec moins de sérieux, par les cœliaques et la population générale, que les allergies alimentaires. Les deux conditions amènent une modification de l’habitus et une période d’adaptation. Par contre, cet exercice semble être plus difficile et complexe pour les cœliaques que les allergiques, dû à l’âge où la condition est découverte. Dépendant de la souplesse de l’habitus individuel et de groupe, la confrontation à cette reformulation de l’habitus se produira plus ou moins bien. Dans le cas où la confrontation prend une tangente négative, il en découlera une désapprobation sociale ou un déni personnel qui mènera à l’exclusion. La littérature indique généralement que la qualité de vie des cœliaques et des allergiques diminue progressivement avec le temps, entraînant des conséquences négatives au niveau social, émotif et physique. Mes participants semblent, toutefois, bien vivre avec leur condition respective puisqu’ils profitent d’un bon support de la part de leur entourage.