999 resultados para specification test


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de la présente étude était d’évaluer un test d’estérase leucocytaire (LE) pour le diagnostic de l’endométrite subclinique chez les vaches Holstein en période postpartum. Les tests effectués à partir d’échantillons provenant soit de l’endomètre (UtLE) ou du col utérin (CxLE) ont été comparés à la cytologie endométriale (CE). Par ailleurs, deux méthodes d’évaluation des lames ont été comparées. Deux cent quatre vingt-cinq vaches Holstein de 5 troupeaux laitiers commerciaux ont été évaluées entre 21 et 47 jours en lait (JEL). Soixante sept vaches ont été diagnostiquées avec une endométrite clinique suite à un examen transrectal et vaginoscopique et ont été exclues de l’étude. Deux cent dix-huit vaches ont eu des prélèvements pour la CE et le test LE. La fonction ovarienne a été déterminée à la palpation transrectale. La banque de données utilisée pour chacune des vaches a été effectuée à partir du logiciel DSA (Dossier de Santé Animale) laitier. Le pourcentage de neutrophiles était significativement corrélé avec les scores de LE utérin et cervical. L’activité de CxLE et UtLE diminuait significativement avec les JEL, mais n’était pas associée au risque de gestation à 90 JEL (n= 186). Le pourcentage de neutrophiles mesuré à la CE entre 32 et 47 JEL était associé significativement au risque de gestation à 90 JEL (n=94, P=0.04). Pour la même période, selon une analyse de survie, les vaches avec >2,6% de neutrophiles à la CE étaient définies comme étant atteintes d’une endométrite subclinique avec une prévalence de 56%. Les résultats indiquent que le test d’estérase utérin ou cervical a une bonne concordance avec le pourcentage de neutrophiles à la CE. Une endométrite subclinique diagnostiquée par cytologie endometriale entre 32 et 47 JEL est associée à une réduction du risque de gestation au premier service.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’insuffisance cardiaque est une pathologie provoquant une diminution importante des capacités fonctionnelles des patients ainsi qu’une diminution drastique de la qualité de vie. L’évaluation des capacités fonctionnelles est généralement effectuée par une épreuve d’effort maximal. Cependant pour plusieurs patients, cet effort est difficile à compléter. Les objectifs de l’étude présentée dans ce mémoire sont : (1) valider trois méthodes d’évaluation de la capacité fonctionnelle et aérobie des sujets souffrant d’insuffisance cardiaque avec un complexe QRS élargi; (2) chercher à établir le profil des patients démontrant une meilleure tolérance à l’exercice malgré une consommation maximale d’oxygène identique; et (3) démontrer les conséquences de la présence et de la magnitude de l’asynchronisme cardiaque dans la capacité fonctionnelle et la tolérance à l’exercice. Tous les sujets ont été soumis à un test de marche de six minutes, un test d’endurance à charge constante sur tapis roulant et à une épreuve d’effort maximal avec mesure d’échanges gazeux à la bouche. Les résultats ont montré une association significative entre les épreuves maximale et plus spécifiquement sous-maximale. De plus, une meilleure tolérance à l’exercice serait associée significativement à une plus grande masse du ventricule gauche. Finalement, les résultats de notre étude n’ont pas montré d’effet d’un asynchronisme cardiaque sur la performance à l’effort tel qu’évalué par nos protocoles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'enseignement, l'apprentissage et l'évaluation du raisonnement clinique en sciences infirmières est un défi pour les éducateurs de cette profession et leurs étudiants. Depuis plusieurs décennies, les chercheurs et les éducateurs dans le domaine des sciences de la santé ont travaillé pour élaborer des instruments d'évaluation dans le but de pouvoir mesurer le raisonnement clinique (Charlin, Bordage & Van der Vleuten, 2003). Plusieurs études semblent appuyer le test de concordance de script (TCS) en termes de validité, fiabilité, faisabilité et applicabilité pour plusieurs disciplines et différents contextes (Carrière & al, 2009). Deschênes et ses collaborateurs (2006; Deschênes, Charlin, Gagnon & Goudreau, 2011) ont mis au point et validé un TCS spécifiquement pour le raisonnement clinique en sciences infirmières (RCI). Comme l'évaluation a un impact important sur les stratégies d'apprentissage des étudiants (Sibert et al, 2001; Durak, Caliskan & Bor, 2007), les outils d'évaluation valides et fiables qui permettraient l'identification des problèmes spécifiques dans le développement du raisonnement clinique en sciences infirmières seraient très utiles pour guider les décisions concernant l'éducation (Gierl, 2007). Nous avons donc mené une étude pour explorer le potentiel diagnostique des questions d'un TCS. La question de recherche est la suivante: «Dans quelle mesure chaque question d’un TCS visant à évaluer le RCI peut-elle être reliée à des catégories et des stratégies de pensée spécifiques?" Avec une sous-question: «Comment peut-on décrire le potentiel diagnostique d’un TCS pour évaluer le RCI?". Nous avons fait une deuxième analyse de contenu des données qui ont été obtenues dans une étude précédente dans laquelle cinq vignettes (15 questions) du TCS de Deschênes (2006) ont été utilisées. Les résultats ont montré les catégories et stratégies de pensées utilisées pour répondre à certaines questions du TCS selon les groupes de participants. Aussi, nos résultats ont permis de découvrir des disparités importantes entre les groupes, notamment que le RCI des expertes est si différent des étudiantes, qu’il ne peut servir de référence. Enfin, cette étude démontre que le TCS a un potentiel diagnostique niveau par niveau (1ère, 2e, 3e année et expertes) et non d’un niveau à un autre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire rapporte l’optimisation et l’évaluation d’une nouvelle version du test PAMPA (Parallel Artificial Membrane Permeability Assay) appelée Néo-PAMPA. Ce test qui permet la prédiction de l’absorption intestinale de médicaments consiste en l’utilisation d’une membrane modèle de la paroi intestinale composée d’une bicouche lipidique déposée sur un coussin de polydopamine recouvrant un filtre poreux. En effet, nous nous sommes intéressés lors de ce projet à la mise en place d’une membrane artificielle qui serait plus représentative de la paroi intestinale humaine. Nous avons pu déterminer, suite à une étude comparative des propriétés de huit médicaments ainsi que les coefficients de perméabilité obtenus, que les filtres en polycarbonate présentaient le meilleur choix de support solide pour la membrane. Nous avons également vérifié la déposition du coussin de polydopamine qui apporte le caractère fluide à la bicouche lipidique. Les résultats des tests de perméabilité ont démontré que le coussin de polymère n’obstrue pas les pores du filtre après un dépôt de 4h. Nous avons par la suite étudié la déposition de la bicouche lipidique sur le filtre recouvert de polydopamine. Pour ce faire, deux méthodes de préparation de liposomes ainsi que plusieurs tailles de liposomes ont été testées. Aussi, la composition en phospholipides a été sujette à plusieurs changements. Tous ces travaux d’optimisation ont permis d’aboutir à des liposomes préparés selon la méthode du « film lipidique » à partir d’un mélange de dioléoylphosphatidylcholine (DOPC) et de cholestérol. Une dernière étape d’optimisation de la déposition de la bicouche reste à améliorer. Enfin, le test standard Caco-2, qui consiste à évaluer la perméabilité des médicaments à travers une monocouche de cellules cancéreuses du colon humain, a été implémenté avec succès dans le but de comparer des données de perméabilité avec un test de référence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les tests PAMPA et les tests Caco-2 sont des essais in vitro de l’évaluation de la perméabilité intestinale des médicaments. Ils sont réalisés lors de la phase de découverte du médicament. Les tests PAMPA ne sont pas biologiquement représentatifs de la paroi intestinale, mais ils sont rapides et peu coûteux. Les tests Caco-2 nécessitent plus de 21 jours pour la culture cellulaire et des installations spécifiques sont requises. Ils sont constitués d’une monocouche d’entérocytes à confluence et donc plus biologiquement représentatifs. Il y a un besoin pour le développement d’un essai qui est biologiquement représentatif de la membrane intestinale humaine, rapide et peu coûteux. Le premier but de ce projet était de développer une méthode analytique qui permettrait l’évaluation simultanée de huit médicaments témoins utilisés pour la validation de l’essai de perméabilité. Le deuxième but de ce projet était donc d’améliorer la membrane des tests PAMPA pour proposer un nouveau test : le néoPAMPA. Contrairement au test PAMPA traditionnel, cette membrane est constituée de trois composantes : (1) un filtre poreux qui agit à titre de support, (2) un coussin polydopamine chargé négativement qui sert d’ancrage et qui assure la fluidité de la bicouche et (3) une bicouche lipidique formée par fusion de vésicules. Une méthode analytique HPLC-MS/MS a été validée selon les spécifications de la FDA et de la EMA. Cette méthode a permis de quantifier simultanément les huit médicaments standards utilisés pour le test néoPAMPA. Le test PAMPA traditionnel a été mis en place à titre d’essai control. Les coefficients de perméabilité mesurés pour les huit médicaments au travers de la membrane PAMPA comparaient favorablement aux résultats de la littérature. Les composantes de la membrane néoPAMPA ont été optimisées. Les conditions optimales retenues étaient les filtres de polycarbonate hydrophile ayant des pores de 15 nm, les plaques Costar 12 puits comme dispositif des tests de perméabilité, une bicouche lipidique composée de 70 % DOPC et de 30 % cholestérol cationique ainsi qu’une déposition des liposomes en présence de 150 mM NaCl suivi d’un équilibre d’1 h en présence d’une solution saturée en DOPC. Les stabilités de la cassette de médicaments et des liposomes sont insuffisantes pour le conditionnement commercial des membranes néoPAMPA. Les différentes optimisations réalisées ont permis d’améliorer la membrane néoPAMPA sans toutefois la rendre fonctionnelle. La membrane néoPAMPA n’est toujours pas en mesure de discriminer des molécules en fonction de leur perméabilité attendue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction : L’approche par compétences est maintenant bien ancrée dans l’enseignement au niveau de la formation médicale postdoctorale. Dans ce contexte, un système de sélection également axé sur les compétences pourrait être avantageux. L’objectif principal de ce projet était de concevoir un TJS ciblant le rôle CanMEDS de collaborateur pour la sélection au niveau postdoctoral en médecine interne (MI) et en médecine familiale (MF). Méthodologie : Des entrevues d’incidents critiques ont été réalisées auprès de résidents juniors en MI ou en MF afin de générer les items du TJS. Trois leaders de l’approche par compétences ont révisé le contenu du test. Les items ont été analysés pour identifier la compétence principale du rôle CanMEDS de collaborateur, le contexte ainsi que les membres de l’équipe interprofessionnelle représentés dans les vignettes. La clé de correction a été déterminée par un panel composé de 11 experts. Cinq méthodes de notation ont été comparées. Résultats : Sept entrevues ont été réalisées. Après révision, 33 items ont été conservés dans le TJS. Les compétences clés du rôle CanMEDS de collaborateur, les contextes et les divers membres de l’équipe interprofessionnelle étaient bien distribués au travers des items. La moyenne des scores des experts variait entre 43,4 et 75,6 % en fonction des différentes méthodes de notation. Le coefficient de corrélation de Pearson entre les cinq méthodes de notation variait entre 0,80 et 0,98. Conclusion : Ce projet démontre la possibilité de concevoir un TJS utilisant le cadre CanMEDS comme trame de fond pour l’élaboration de son contenu. Ce test, couplé à une approche globale de sélection basée sur les compétences, pourrait éventuellement améliorer le pouvoir prédictif du processus de sélection au niveau de la formation médicale postdoctorale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Code clones are portions of source code which are similar to the original program code. The presence of code clones is considered as a bad feature of software as the maintenance of software becomes difficult due to the presence of code clones. Methods for code clone detection have gained immense significance in the last few years as they play a significant role in engineering applications such as analysis of program code, program understanding, plagiarism detection, error detection, code compaction and many more similar tasks. Despite of all these facts, several features of code clones if properly utilized can make software development process easier. In this work, we have pointed out such a feature of code clones which highlight the relevance of code clones in test sequence identification. Here program slicing is used in code clone detection. In addition, a classification of code clones is presented and the benefit of using program slicing in code clone detection is also mentioned in this work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A fully relativistic four-component Dirac-Fock-Slater program for diatomics, with numerically given AO's as basis functions is presented. We discuss the problem of the errors due to the finite basis-set, and due to the influence of the negative energy solutions of the Dirac Hamiltonian. The negative continuum contributions are found to be very small.