914 resultados para Testing and Debugging
Resumo:
La douleur est une expérience multidimensionnelle comportant des aspects sensoriels, émotionnels et cognitifs. Théoriquement, des méthodes de mesures comportementales, physiologiques, neurophysiologiques et sensorielles peuvent quantifier la douleur. Peu d’études ont étudié la validation des mesures utilisées en médecine vétérinaire. La recherche combine les travaux de Maîtrise et de Doctorat, traite en partie de la validité de méthodes. Dans cet objectif, nos travaux de recherche étudiaient la validité de méthodes comportementales, physiologiques et neurophysiologiques usuelles pour la mesure de la douleur en comparant les expressions de douleur (vache et chien) chez des animaux contrôle par comparaison à des animaux sous analgésie préventive ou sous traitement curatif suivant une douleur induite par chirurgie (modèles de douleur viscérale bovine ou orthopédique canine) ou causée par une maladie naturelle (arthrose canine). Une première étude comparait les mesures de la douleur entre les vaches du groupe placebo et celles sous analgésie postopératoire sur une durée de 21 jours suivant l’induction d’une douleur viscérale chronique. Les vaches du groupe placebo ont présenté une plus forte sensibilité à la douleur et une diminution de la noradrénaline et de la transthyrétine mesurées dans le liquide cérébro-spinal, une diminution de l’activité motrice (AM) (moindre que dans les groupes avec analgésie), de l’agitation enregistrée par vidéo-analyse et une augmentation du stress selon la mesure de l’activité électrodermique (AED). Les méthodes d’intérêt identifiées étaient les marqueurs spinaux, la mesure de la sensibilisation, de comportements par vidéo-analyse et de l’AM par bio-télémétrie. En utilisant des méthodes semblables à celles précédemment décrites, deux études expérimentales de douleur orthopédique ont été réalisées afin de comparer les réponses à la douleur entre des chiens traités avec une analgésie préventive (opioïdes et anti-inflammatoires, étude #2) ou un biphosphonate (tiludronate, étude #3) par comparaison à des chiens contrôles. Seules les échelles de douleur étaient différentes entre les études de recherche. Pour l’étude #2, les ii chiens sous analgésie ont présenté de plus faibles scores de douleur mesurés avec l’échelle de douleur nommée 4A-VET et ceci simultanément à une faible réponse de l’AED une heure après la chirurgie de trochléoplastie. La fréquence du comportement spontané de ‘la marche avec plein appui de la patte opérée’ mesurée à l’aide de la vidéo-analyse augmentait chez les chiens sous analgésie préventive 24 heures après la chirurgie. L’étude #3 démontrait surtout l’apparition de sensibilisation centrale (à la fois par l’évaluation sensorielle quantitative et les marqueurs spinaux) chez les chiens contrôle, 56 jours après l’induction d’arthrose chirurgicale. Ainsi, les chiens traités avec le tiludronate ont présenté une différence sur la substance P et la transthyrétine cérébro-spinale, une diminution de la sensibilisation périphérique, plus d’appui de la patte opérée lors de la marche selon la mesure du pic de force verticale (PFV), une augmentation de la fréquence de ‘la marche avec plein appui de la patte opérée’. La sensibilisation centrale était associée à la diminution de PFV, et une augmentation de l’AED et du comportement spontané de ‘la marche avec plein appui de la patte opérée’. Pour l’étude #4, la validité et la sensibilité des méthodes ont été évaluées dans une condition d’arthrose naturelle chez des chiens traités avec une diète enrichie en moule verte, un produit ayant des effets anti-inflammatoires et chondroprotecteurs attendus. Les chiens traités présentaient une diminution des scores de douleur via l’échelle nommée CSOM, une augmentation de PFV et une augmentation de l’AM. Dans l’ensemble, les résultats confirment que la vidéo-analyse évaluait la douleur de façon objective et pour des modèles différents de douleur et les marqueurs spinaux sont prometteurs. Le PFV était spécifique de la douleur orthopédique. La sensibilisation était présente lors de douleur pathologique. L’AED n’est pas valide pour la mesure de la douleur. La baisse d’AM suggèrerait un comportement de douleur. Les études étaient exploratoires pour les échelles de douleur en raison de leur niveau (débutant) de développement et du manque d’informations sur les qualités métrologiques de ces mesures.
Resumo:
Le traitement de l’épilepsie chez le jeune enfant représente un enjeu majeur pour le développement de ce dernier. Chez la grande majorité des enfants atteints de spasmes infantiles et chez plusieurs atteints de crises partielles complexes réfractaires, le vigabatrin (VGB) représente un traitement incontournable. Cette médication, ayant démontré un haut taux d’efficacité chez cette population, semble toutefois mener à une atteinte du champ visuel périphérique souvent asymptomatique. L’évaluation clinique des champs visuels avec la périmétrie chez les patients de moins de neuf ans d’âge développemental est toutefois très difficile, voire impossible. Les études électrophysiologiques classiques menées auprès de la population épileptique pédiatrique suggèrent l’atteinte des structures liées aux cônes de la rétine. Les protocoles standards ne sont toutefois pas spécifiques aux champs visuels et les déficits soulignés ne concordent pas avec l’atteinte périphérique observée. Cette thèse vise donc à élaborer une tâche adaptée à l’évaluation des champs visuels chez les enfants en utilisant un protocole objectif, rapide et spécifique aux champs visuels à partir des potentiels évoqués visuels (PEVs) et à évaluer, à l’aide de cette méthode, les effets neurotoxiques à long terme du VGB chez des enfants épileptiques exposés en bas âge. La validation de la méthode est présentée dans le premier article. La stimulation est constituée de deux cercles concentriques faits de damiers à renversement de phase alternant à différentes fréquences temporelles. La passation de la tâche chez l’adulte permet de constater qu’une seule électrode corticale (Oz) est nécessaire à l’enregistrement simultané des réponses du champ visuel central et périphérique et qu’il est possible de recueillir les réponses électrophysiologiques très rapidement grâces l’utilisation de l’état-stationnaire (steady-state). La comparaison des données d’enfants et d’adultes normaux permet de constater que les réponses recueillies au sein des deux régions visuelles ne dépendent ni de l’âge ni du sexe. Les réponses centrales sont aussi corrélées à l’acuité visuelle. De plus, la validité de cette méthode est corroborée auprès d’adolescents ayant reçu un diagnostic clinique d’un déficit visuel central ou périphérique. En somme, la méthode validée permet d’évaluer adéquatement les champs visuels corticaux central et périphérique simultanément et rapidement, tant chez les adultes que chez les enfants. Le second article de cette thèse porte sur l’évaluation des champs visuels, grâce à la méthode préalablement validée, d’enfants épileptiques exposés au VGB en jeune âge en comparaison avec des enfants épileptiques exposés à d’autres antiépileptiques et à des enfants neurologiquement sains. La méthode a été bonifiée grâce à la variation du contraste et à l’enregistrement simultané de la réponse rétinienne. On trouve que la réponse corticale centrale est diminuée à haut et à moyen contrastes chez les enfants exposés au VGB et à haut contraste chez les enfants exposés à d’autres antiépileptiques. Le gain de contraste est altéré au sein des deux groupes d’enfants épileptiques. Par contre, l’absence de différences entre les deux groupes neurologiquement atteints ne permet pas de faire la distinction entre l’effet de la médication et celui de la maladie. De plus, la réponse rétinienne périphérique est atteinte chez les enfants épileptiques exposés au Sabril® en comparaison avec les enfants neurologiquement sains. La réponse rétinienne périphérique semble liée à la durée d’exposition à la médication. Ces résultats corroborent ceux rapportés dans la littérature. En somme, les résultats de cette thèse offrent une méthode complémentaire, rapide, fiable, objective à celles connues pour l’évaluation des champs visuels chez les enfants. Ils apportent aussi un éclairage nouveau sur les impacts à long terme possibles chez les enfants exposés au VGB dans la petite enfance.
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.
Resumo:
Au cours des dernières années, le développement des connaissances au niveau de l’étiologie de la maladie ainsi que l’arrivée de nouveaux médicaments et de lignes directrices guidant la pratique clinique sont susceptibles d’avoir entraîné une meilleure gestion de la polyarthrite rhumatoïde (PAR) et de l’ostéoporose, une comorbidité fréquente chez ces patients. Dans cette thèse, trois questions de recherche sont étudiées à l’aide des banques de données administratives québécoises (RAMQ, MED-ÉCHO). Une première étude documente l’utilisation des médicaments pour la PAR au Québec. À ce jour, il s’agit de la seule étude canadienne à rapporter les tendances d’utilisation des DMARD (disease-modifying antirheumatic drug) biologiques depuis leur introduction dans la pratique clinique. Au cours de la période à l’étude (2002-2008), l’utilisation de DMARD (synthétiques et biologiques) a augmenté légèrement dans la population atteinte de PAR (1,9%, 95% CI : 1,1 - 2,8). Cependant, malgré la présence de recommandations cliniques soulignant l’importance de commencer un traitement rapidement, et la couverture de ces traitements par le régime général d’assurance médicaments, les résultats démontrent une initiation sous-optimale des DMARD chez les patients nouvellement diagnostiqués (probabilité d’initiation à 12 mois : 38,5%). L’initiation de DMARD était beaucoup plus fréquente lorsqu’un rhumatologue était impliqué dans la provision des soins (OR : 4,31, 95% CI : 3,73 - 4,97). Concernant les DMARD biologiques, le facteur le plus fortement associé avec leur initiation était l’année calendrier. Chez les sujets diagnostiqués en 2002, 1,2 sur 1 000 ont initié un DMARD biologique moins d’un an après leur diagnostic. Pour ceux qui ont été diagnostiqués en 2007, le taux était de 13 sur 1 000. Les résultats démontrent que si la gestion pharmacologique de la PAR s’est améliorée au cours de la période à l’étude, elle demeure tout de même sous-optimale. Assurer un meilleur accès aux rhumatologues pourrait, semble-t-il, être une stratégie efficace pour améliorer la qualité des soins chez les patients atteints de PAR. Dans une deuxième étude, l’association entre l’utilisation des DMARD biologiques et le risque de fractures ostéoporotiques non vertébrales chez des patients PAR âgés de 50 ans et plus a été rapportée. Puisque l’inflammation chronique résultant de la PAR interfère avec le remodelage osseux et que les DMARD biologiques, en plus de leur effet anti-inflammatoire et immunosuppresseur, sont des modulateurs de l’activité cellulaire des ostéoclastes et des ostéoblastes pouvant possiblement mener à la prévention des pertes de densité minérale osseuse (DMO), il était attendu que leur utilisation réduirait le risque de fracture. Une étude de cas-témoin intra-cohorte a été conduite. Bien qu’aucune réduction du risque de fracture suivant l’utilisation de DMARD biologiques n’ait pu être démontrée (OR : 1,03, 95% CI : 0,42 - 2,53), l’étude établit le taux d’incidence de fractures ostéoporotiques non vertébrales dans une population canadienne atteinte de PAR (11/1 000 personnes - années) et souligne le rôle d’importants facteurs de risque. La prévalence élevée de l’ostéoporose dans la population atteinte de PAR justifie que l’on accorde plus d’attention à la prévention des fractures. Finalement, une troisième étude explore l’impact de la dissémination massive, en 2002, des lignes directrices du traitement de l’ostéoporose au Canada sur la gestion pharmacologique de l’ostéoporose et sur les taux d’incidence de fractures ostéoporotiques non vertébrales chez une population de patients PAR âgés de 50 ans et plus entre 1998 et 2008. Étant donné la disponibilité des traitements efficaces pour l’ostéoporose depuis le milieu des années 1990 et l’évolution des lignes directrices de traitement, une réduction du taux de fractures était attendue. Quelques études canadiennes ont démontré une réduction des fractures suivant une utilisation étendue des médicaments contre l’ostéoporose et de l’ostéodensitométrie dans une population générale, mais aucune ne s’est attardée plus particulièrement sur une population adulte atteinte de PAR. Dans cette étude observationnelle utilisant une approche de série chronologique, aucune réduction du taux de fracture après 2002 (période suivant la dissémination des lignes directrices) n’a pu être démontrée. Cependant, l’utilisation des médicaments pour l’ostéoporose, le passage d’ostéodensitométrie, ainsi que la provision de soins pour l’ostéoporose en post-fracture ont augmenté. Cette étude démontre que malgré des années de disponibilité de traitements efficaces et d’investissement dans le développement et la promotion de lignes directrices de traitement, l’effet bénéfique au niveau de la réduction des fractures ne s’est toujours pas concrétisé dans la population atteinte de PAR, au cours de la période à l’étude. Ces travaux sont les premiers à examiner, à l’aide d’une banque de données administratives, des sujets atteints de PAR sur une période s’étalant sur 11 ans, permettant non seulement l’étude des changements de pratique clinique suivant l’apparition de nouveaux traitements ou bien de nouvelles lignes directrices, mais également de leur impact sur la santé. De plus, via l’étude des déterminants de traitement, les résultats offrent des pistes de solution afin de combler l’écart entre la pratique observée et les recommandations cliniques. Enfin, les résultats de ces études bonifient la littérature concernant la qualité des soins pharmacologiques chez les patients PAR et de la prévention des fractures.
Resumo:
An open cell photoacoustic (PA) configuration has been employed to evaluate the thermal diffusivity of intrinsic InP as well as InP doped with tin and iron. Thermal diffusivity data have been evaluated from variation of phase of PA signal as a function of modulation frequency. In doped samples, we observe a reduced value for thermal diffusivity in comparison with intrinsic InP. We also observed that, while the phase of the PA signal varies linearly with the square root of chopping frequency for doped samples, the intrinsic material does not exhibit such behaviour in the experimental frequency range. These results have been interpreted in terms of the heat generation and phonon assisted heat diffusion mechanisms in semiconductors.
Resumo:
In this paper we report the use of a laser induced phoroacoustic technique for the detection of multiple phase transitions in heptyl-oxy-cyanobiphenyl (70CB) and octyl-oxy-cyanobiphenyl (80CB) liquid crystals. The observed photoacoustic signal amplitude profile carries clear signatures of two tirst order transitions in 70CB and two tirst order and a second order transitions in 80CB. Analysis of the experimental data using Rosencwaig-Gersho theory shows that the sudden decrease in the photoacoustic (PA) signal amplitude during phase transitions is due to a sharp increase in the heat capacity of the samples near the transition temperatures.
Resumo:
Everywhere, on the coastal belt it is proved without doubt that the pristine ground water quality was severely deteriorated after the 26 December 2004 Indian Ocean Tsunami. But how far is more relevant, as it is decided by the so-called pre-tsunamic situation of the region. In water quality studies it is this reference finger print which earmarks regional ground water chemistry based on which the monthly variability could rationally be interpreted. This Ph D thesis comprises the testing and evaluation of the facts: whether there is any significant difference in the water quality parameters under study between stations and between months in Tsunami Affected Dug Wells (TADW). Whether the selected water quality parameters vary significantly from BIS and WHO standards. Whether the water quality index (WQI) differ significantly between Tsunami Affected Dug Wells (TADW) and Bore Wells (BW). Whether there is any significant difference in the water quality parameters during December 2005 and December 2008. Is there any significant change in the Water Quality Parameters before 2001 and after tsunami (2005) in TADW.
Resumo:
Speech is a natural mode of communication for people and speech recognition is an intensive area of research due to its versatile applications. This paper presents a comparative study of various feature extraction methods based on wavelets for recognizing isolated spoken words. Isolated words from Malayalam, one of the four major Dravidian languages of southern India are chosen for recognition. This work includes two speech recognition methods. First one is a hybrid approach with Discrete Wavelet Transforms and Artificial Neural Networks and the second method uses a combination of Wavelet Packet Decomposition and Artificial Neural Networks. Features are extracted by using Discrete Wavelet Transforms (DWT) and Wavelet Packet Decomposition (WPD). Training, testing and pattern recognition are performed using Artificial Neural Networks (ANN). The proposed method is implemented for 50 speakers uttering 20 isolated words each. The experimental results obtained show the efficiency of these techniques in recognizing speech
Resumo:
The Towed Array electronics is a multi-channel simultaneous real time high speed data acquisition system. Since its assembly is highly manpower intensive, the costs of arrays are prohibitive and therefore any attempt to reduce the manufacturing, assembly, testing and maintenance costs is a welcome proposition. The Network Based Towed Array is an innovative concept and its implementation has remarkably simplified the fabrication, assembly and testing and revolutionised the Towed Array scenario. The focus of this paper is to give a good insight into the Reliability aspects of Network Based Towed Array. A case study of the comparison between the conventional array and the network based towed array is also dealt with
Low-altitude aerial photography for optimum N fertilization of winter wheat on the North China Plain
Resumo:
Previous research has shown that site-specific nitrogen (N) fertilizer recommendations based on an assessment of a soil’s N supply (mineral N testing) and the crop’s N status (sap nitrate analysis) can help to decrease excessive N inputs for winter wheat on the North China Plain. However, the costs to derive such recommendations based on multiple sampling of a single field hamper the use of this approach at the on-farm level. In this study low-altitude aerial true-color photographs were used to examine the relationship between image-derived reflectance values and soil–plant data in an on-station experiment. Treatments comprised a conventional N treatment (typical farmers’ practice), an optimum N treatment (N application based on soil–plant testing) and six treatments without N (one to six cropping seasons without any N fertilizer input). Normalized intensities of the red, green and blue color bands on the photographs were highly correlated with total N concentrations, SPAD readings and stem sap nitrate of winter wheat. The results indicate the potential of aerial photography to determine in combination with on site soil–plant testing the optimum N fertilizer rate for larger fields and to thereby decrease the costs for N need assessments.
Resumo:
Market prices are well known to efficiently collect and aggregate diverse information regarding the value of commodities and assets. The role of markets has been particularly suitable to pricing financial securities. This article provides an alternative application of the pricing mechanism to marketing research - using pseudo-securities markets to measure preferences over new product concepts. Surveys, focus groups, concept tests and conjoint studies are methods traditionally used to measure individual and aggregate preferences. Unfortunately, these methods can be biased, costly and time-consuming to conduct. The present research is motivated by the desire to efficiently measure preferences and more accurately predict new product success, based on the efficiency and incentive-compatibility of security trading markets. The article describes a novel market research method, pro-vides insight into why the method should work, and compares the results of several trading experiments against other methodologies such as concept testing and conjoint analysis.
Resumo:
“What is value in product development?” is the key question of this paper. The answer is critical to the creation of lean in product development. By knowing how much value is added by product development (PD) activities, decisions can be more rationally made about how to allocate resources, such as time and money. In order to apply the principles of Lean Thinking and remove waste from the product development system, value must be precisely defined. Unfortunately, value is a complex entity that is composed of many dimensions and has thus far eluded definition on a local level. For this reason, research has been initiated on “Measuring Value in Product Development.” This paper serves as an introduction to this research. It presents the current understanding of value in PD, the critical questions involved, and a specific research design to guide the development of a methodology for measuring value. Work in PD value currently focuses on either high-level perspectives on value, or detailed looks at the attributes that value might have locally in the PD process. Models that attempt to capture value in PD are reviewed. These methods, however, do not capture the depth necessary to allow for application. A methodology is needed to evaluate activities on a local level to determine the amount of value they add and their sensitivity with respect to performance, cost, time, and risk. Two conceptual tools are proposed. The first is a conceptual framework for value creation in PD, referred to here as the Value Creation Model. The second tool is the Value-Activity Map, which shows the relationships between specific activities and value attributes. These maps will allow a better understanding of the development of value in PD, will facilitate comparison of value development between separate projects, and will provide the information necessary to adapt process analysis tools (such as DSM) to consider value. The key questions that this research entails are: · What are the primary attributes of lifecycle value within PD? · How can one model the creation of value in a specific PD process? · Can a useful methodology be developed to quantify value in PD processes? · What are the tools necessary for application? · What PD metrics will be integrated with the necessary tools? The research milestones are: · Collection of value attributes and activities (September, 200) · Development of methodology of value-activity association (October, 2000) · Testing and refinement of the methodology (January, 2001) · Tool Development (March, 2001) · Present findings at July INCOSE conference (April, 2001) · Deliver thesis that captures a formalized methodology for defining value in PD (including LEM data sheets) (June, 2001) The research design aims for the development of two primary deliverables: a methodology to guide the incorporation of value, and a product development tool that will allow direct application.
Resumo:
These Java Applets help to illustrate some of the difficult to grasp concepts of quantum mechanics. To run this Applet, use the 'Download as zip files' option. Make sure you extract the files first, then double click on the .html file to run the Applet. These are released as open access resources for the purpose of testing, and are to be deployed at the users own risk. Please report any errors you find.
Resumo:
These Java Applets help to illustrate some of the difficult to grasp concepts of quantum mechanics. To run this Applet, use the 'Download as zip files' option. Make sure you extract the files first, then double click on the .html file to run the Applet. These are released as open access resources for the purpose of testing, and are to be deployed at the users own risk.
Resumo:
These Java Applets help to illustrate some of the difficult to grasp concepts of quantum mechanics. To run this Applet, use the 'Download as zip files' option. Make sure you extract the files first, then double click on the .html file to run the Applet. These are released as open access resources for the purpose of testing, and are to be deployed at the users own risk.