1000 resultados para Technique de mesure de très faible radioactivité


Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les procédures appliquées avant l’abattage des animaux influencent directement la qualité de la viande en modulant l’état physiologique des porcs; ainsi, l’augmentation de la température corporelle, les taux élevés de lactate sanguin et l’épuisement des réserves de glycogène entre autres, occasionnent la majorité des baisses de qualité. L’objectif de cette thèse était de valider des outils indicateurs de stress porcin pour les fermes et les abattoirs. Ceux-ci seraient appliqués à la surveillance du bien-être animal et à la prédiction de variation de qualité de la viande porcine au niveau commercial. Premierement, les résultats de la thèse ont permis de conclure qu’un des outils développés (analyseur portatif de lactate) mesure la variation du niveau de lactate sanguin associé à l’état physiologique des porcs dans la phase péri-mortem et aide à expliquer la variation de la qualité de la viande chez le porc à l’abattoir, en particulier dans les muscles du jambon. Deuxièmement, les résultats des audits du bien-être animal appliqués de la ferme à l’abattoir ont démontré que la qualité du système d’élevage à la ferme d’origine et les compétences du chauffeur de camion sont d’importants critères affectant la réponse comportementale des porcs à la manipulation avant l’abattage. Ces résultats ont également démontré que les conditions de logement à la ferme (la faible densité et l’enrichissement dans les enclos), le comportement des porcs en période pré-abattage (glissade), ainsi que les interventions du manipulateur (utilisation du bâton électrique) dans la zone d’étourdissement de l’abattoir affectent négativement la variation de la qualité de la viande. L’application des protocoles d’audits dans la filière porcine a également démontré que le respect des critères de bien-être animal fixés par un outil de vérification est primordiale et permet de contrôler les conditions de bien-être des porcs à chaque étape de la période pré-abattage, de produire une viande de qualité supérieure et de réduire les pertes. Les audits de bien-être animal sont donc un outil qui apporte des resultats très pertinents pour aider a éviter les variations de la qualité de la viande chez le porc. Troisièmement, la thermographie infrarouge s’est avéré être une technique prometteuse permettant d’évaluer la variation de température corporelle de l’animal pendant et après un stress physique, en particulier lorsque cette mesure est prise derrière les oreilles. En conclusion, les outils validés à travers cette thèse représentent des méthodologies non invasives et potentiellement complémentaires à d’autres approches d’évaluation de l’état physiologique et du bien-être animal par rapport au stress, permettant de réduire les pertes de qualité de viande (par exemple en utilisation conjointe avec le niveau de lactate sanguin et les indicateurs de stress comportemental, entre autres).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-dede 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It was proposed to evaluate the hydroponic lettuce production, variety Vera, on inclined benches with channels of 100 mm, and Nutrient Film Technique, as answer to carbon dioxide application and evaporative cooling. There were five cycles of cultivation from March, 20th to April, 17th (C1); from May, 25th to June, 29th (C2); from July, 13th to August, 20th (C3); from August, 27th to October, 10th (C4); from December, 12th to January, 10th (C5). In three greenhouses were tested the following systems: (A1) without evaporative cooling air CO2 aerial injection, (A2) with CO2 aerial injection and without evaporative cooling and (A3) with CO2 aerial injection and pad-fan evaporative cooling system. The fresh and dry mass of leaves in grams, number of leaves and leaf area in square millimeter were evaluated. The completely randomized statistical analysis was used. The cycle C1 were used 48 replications, for cycles C2, C3 and C5 were used 64 replications and C5 were used 24 replications. The results showed that greenhouse with evaporative cooling system and CO2 allow better development and greater lettuce yield. It was possible to conclude that the aerial injection of CO2, in the absence of evaporative cooling system, did not lead increasing the lettuce productivity to most cycles. Bigger lettuce leaf areas were found in periods with higher temperatures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Bovine semen experimentally contaminated with Leptospira santarosai serovar Guaricura was submitted to the modified EMJH medium with 5-fluorouracil (300mg/L) and nalidixic acid (20mg/L), named as "selective medium" and using the serial dilution technique, in order to evaluate the percentage of recovery of the added microorganism. The selective EMJH medium was found with higher percentage of recovery of leptospiras and minor losses of samples due to contamination with opportunistic microorganisms than the non-selective EMJH medium: 151/376 (40.0%) of positive growth; and 38/376 (10.0%) contamination and 58/376 (15%) and 129/376 (34.0%), respectively. These results were statistically significant (p<0. 0001; Fisher). Differences were found when the frequencies of positive leptospires recovery have been compared in the serial dilution technique (10-1 to 10-4) between the selective and non-selective media at different dilution factors. At 1/10th dilution the percentages found were (0%, 0/80) and (38%, 30/80), at 1/100th dilution, (3%, 2/80) and (49%, 39/80) and at 1/1,000th dilution, (25%, 20/80) and (50%, 40/80), respectively. The percentage of recovery of leptospires was found to be directly proportional to the dilution used. The methodology of the serial dilution technique (setting at least three dilutions) and the use of selective EMJH medium have been found to be efficient for the isolation of leptospires from the bovine semen samples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

To validate a practical technique of simultaneous evaluation of the plasma, acrosomal and mitochondrial membranes in equine spermatozoa three fluorescent probes (PI, FITC-PSA and MITO) were associated. Four ejaculates from three stallions (n=12) were diluted in TALP medium and split into 2 aliquots, 1 aliquot was flash frozen in liquid nitrogen to induce damage in cellular membranes. Three treatments were prepared with the following fixed ratios of fresh semen: flash frozen semen: 100:0 (T100), 50:50 (T50), and 0:100 (T0). A 150-µL aliquot of diluted semen of each treatment was added of 2 µL of PI, 2 µL of MITO and 80 µL of FITC-PSA; incubated at 38.5ºC/8 min, and sperm cells were evaluated by epifluorescent microscopy. Based in regression analysis, this could be an efficient and practical technique to assess damage in equine spermatozoa, as it was able to determine the sperm percentage more representative of the potential to fertilize the oocyte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivo – Comparar a técnica convencional, a técnica de energias mistas e a técnica field-in-field com energias mistas, verificando a dose recebida nos órgãos de risco e no volume alvo. Metodologia – Quinze doentes com carcinoma da mama esquerda classificadas de T1-T3N0M0 foram tratadas com cirurgia conservadora da mama, seguida de radioterapia pós-operatória. Para cada doente realizaram-se 3 planeamentos dosimétricos, sendo que cada um deles diz respeito a uma das diferentes técnicas em estudo. Através dos HDV gerados avaliaram-se a Dmáx, Dmed, Dmín, D95%, D3% e a homogeneidade da dose no volume alvo, bem como a dose nos órgãos de risco. Utilizou-se o teste de Friedman para verificar a significância do estudo, com um intervalo de confiança de 95%. Resultados – Relativamente ao pulmão esquerdo e ao coração obtiveram-se, com a técnica field-in-field com energias mistas, doses inferiores em comparação com as outras duas técnicas. Para a Dmáx e a homogeneidade de dose no PTV, a técnica field-in-field com energias mistas revelou-se mais eficaz, comparativamente às outras técnicas. No entanto, verificou-se uma melhor cobertura de dose no PTV com a técnica convencional. Considerações finais – A técnica field-in-field com energias mistas permite uma redução da dose nos órgãos de risco, uma redução significativa da Dmáx no PTV e melhora a homogeneidade da dose, comparativamente com as outras técnicas. Os resultados obtidos com a técnica field-in-field com energias mistas apontam para a redução dos efeitos secundários provocados pelo tratamento. ABSTRACT - Purpose – To compare the conventional technique, the technique of mixed energies and the technique field-in-field with mixed energies, checking the received dose in organs at risk and target volume. Methods – Fifteen patients with carcinoma of the left breast classified as T1-T3N0M0 were treated with breast-conserving surgery, followed by postoperative radiotherapy. For each patient were carried out three dosimetric plannings, each one of them concerns the different techniques under study. Through the DVH generated to evaluate Dmax, Dmed, Dmin, D95%, D3% and the homogeneity of the target volume dose, well as the dose in organs at risk. We used the Friedman test to assess the significance of the study, with a confidence interval of 95%. Results – For the left lung and heart were obtained with the technique field-in-field with mixed energies, lower doses compared with the other two techniques. For the Dmax and the homogeneity of the PTV dose, the technique field-in-field with mixed energies was more effective compared to other techniques. However, there was a better coverage of the PTV dose with conventional technique. Conclusions – The technique field-in-field with mixed energy allows a reduction in dose for organs at risk, a significant reduction Dmax in PTV and improves the homogeneity of the dose compared with other techniques. The results obtained with the technique field-in-field with mixed energy indicate to reduce the side effects caused by the treatment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mestrado em Ciências Actuariais

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La douleur est fréquente en milieu de soins intensifs et sa gestion est l'une des missions des infirmières. Son évaluation est une prémisse indispensable à son soulagement. Cependant lorsque le patient est incapable de signaler sa douleur, les infirmières doivent se baser sur des signes externes pour l'évaluer. Les guides de bonne pratique recommandent chez les personnes non communicantes l'usage d'un instrument validé pour la population donnée et basé sur l'observation des comportements. A l'heure actuelle, les instruments d'évaluation de la douleur disponibles ne sont que partiellement adaptés aux personnes cérébrolésées dans la mesure où ces personnes présentent des comportements qui leur sont spécifiques. C'est pourquoi, cette étude vise à identifier, décrire et valider des indicateurs, et des descripteurs, de la douleur chez les personnes cérébrolésées. Un devis d'étude mixte multiphase avec une dominante quantitative a été choisi pour cette étude. Une première phase consistait à identifier des indicateurs et des descripteurs de la douleur chez les personnes cérébrolésées non communicantes aux soins intensifs en combinant trois sources de données : une revue intégrative des écrits, une démarche consultative utilisant la technique du groupe nominal auprès de 18 cliniciens expérimentés (6 médecins et 12 infirmières) et les résultats d'une étude pilote observationnelle réalisée auprès de 10 traumatisés crâniens. Les résultats ont permis d'identifier 6 indicateurs et 47 descripteurs comportementaux, vocaux et physiologiques susceptibles d'être inclus dans un instrument d'évaluation de la douleur destiné aux personnes cérébrolésées non- communicantes aux soins intensifs. Une deuxième phase séquentielle vérifiait les propriétés psychométriques des indicateurs et des descripteurs préalablement identifiés. La validation de contenu a été testée auprès de 10 experts cliniques et 4 experts scientifiques à l'aide d'un questionnaire structuré qui cherchait à évaluer la pertinence et la clarté/compréhensibilité de chaque descripteur. Cette démarche a permis de sélectionner 33 des 47 descripteurs et valider 6 indicateurs. Dans un deuxième temps, les propriétés psychométriques de ces indicateurs et descripteurs ont été étudiés au repos, lors de stimulation non nociceptive et lors d'une stimulation nociceptive (la latéralisation du patient) auprès de 116 personnes cérébrolésées aux soins intensifs hospitalisées dans deux centres hospitaliers universitaires. Les résultats montrent d'importantes variations dans les descripteurs observés lors de stimulation nociceptive probablement dues à l'hétérogénéité des patients au niveau de leur état de conscience. Dix descripteurs ont été éliminés, car leur fréquence lors de la stimulation nociceptive était inférieure à 5% ou leur fiabilité insuffisante. Les descripteurs physiologiques ont tous été supprimés en raison de leur faible variabilité et d'une fiabilité inter juge problématique. Les résultats montrent que la validité concomitante, c'est-à-dire la corrélation entre l'auto- évaluation du patient et les mesures réalisées avec les descripteurs, est satisfaisante lors de stimulation nociceptive {rs=0,527, p=0,003, n=30). Par contre la validité convergente, qui vérifiait l'association entre l'évaluation de la douleur par l'infirmière en charge du patient et les mesures réalisés avec les descripteurs, ainsi que la validité divergente, qui vérifiait si les indicateurs discriminent entre la stimulation nociceptive et le repos, mettent en évidence des résultats variables en fonction de l'état de conscience des patients. Ces résultats soulignent la nécessité d'étudier les descripteurs de la douleur chez des patients cérébrolésés en fonction du niveau de conscience et de considérer l'hétérogénéité de cette population dans la conception d'un instrument d'évaluation de la douleur pour les personnes cérébrolésées non communicantes aux soins intensifs. - Pain is frequent in the intensive care unit (ICU) and its management is a major issue for nurses. The assessment of pain is a prerequisite for appropriate pain management. However, pain assessment is difficult when patients are unable to communicate about their experience and nurses have to base their evaluation on external signs. Clinical practice guidelines highlight the need to use behavioral scales that have been validated for nonverbal patients. Current behavioral pain tools for ICU patients unable to communicate may not be appropriate for nonverbal brain-injured ICU patients, as they demonstrate specific responses to pain. This study aimed to identify, describe and validate pain indicators and descriptors in brain-injured ICU patients. A mixed multiphase method design with a quantitative dominant was chosen for this study. The first phase aimed to identify indicators and descriptors of pain for nonverbal brain- injured ICU patients using data from three sources: an integrative literature review, a consultation using the nominal group technique with 18 experienced clinicians (12 nurses and 6 physicians) and the results of an observational pilot study with 10 traumatic brain injured patients. The results of this first phase identified 6 indicators and 47 behavioral, vocal and physiological descriptors of pain that could be included in a pain assessment tool for this population. The sequential phase two tested the psychometric properties of the list of previously identified indicators and descriptors. Content validity was tested with 10 clinical and 4 scientific experts for pertinence and comprehensibility using a structured questionnaire. This process resulted in 33 descriptors to be selected out of 47 previously identified, and six validated indicators. Then, the psychometric properties of the descriptors and indicators were tested at rest, during non nociceptive stimulation and nociceptive stimulation (turning) in a sample of 116 brain-injured ICLI patients who were hospitalized in two university centers. Results showed important variations in the descriptors observed during the nociceptive stimulation, probably due to the heterogeneity of patients' level of consciousness. Ten descriptors were excluded, as they were observed less than 5% of the time or their reliability was insufficient. All physiologic descriptors were deleted as they showed little variability and inter observer reliability was lacking. Concomitant validity, testing the association between patients' self report of pain and measures performed using the descriptors, was acceptable during nociceptive stimulation (rs=0,527, p=0,003, n=30). However, convergent validity ( testing for an association between the nurses' pain assessment and measures done with descriptors) and divergent validity (testing for the ability of the indicators to discriminate between rest and a nociceptive stimulation) varied according to the level of consciousness These results highlight the need to study pain descriptors in brain-injured patients with different level of consciousness and to take into account the heterogeneity of this population forthe conception of a pain assessment tool for nonverbal brain-injured ICU patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'artériopathie oblitérante des membres inférieurs (AOMI) est un marqueur de l'athérosclérose systémique et est associée à une morbi-mortalité importante. L'anamnèse et l'examen clinique sont très peu sensibles pour le diagnostic d'AOMI raison pour laquelle on sous-estime largement sa vraie prévalence. La mesure de l'ABI est l'examen de choix pour le dépistage d'une AOMI. Il s'agit d'un test fiable, de courte durée et bon marché, qui peut être facilement appris et utilisé par le médecin de premier recours. Une fois le diagnostic d'AOMI posé, comme pour les autres maladies cardiovasculaires, des mesures médicamenteuses et non médicamenteuses doivent être mises en place, afin de modifier les facteurs de risque cardiovasculaires, freiner la progression de la maladie et prévenir les complications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work is focused on the development of a methodology for the use of chemical characteristic of tire traces to help answer the following question: "Is the offending tire at the origin of the trace found on the crime scene?". This methodology goes from the trace sampling on the road to statistical analysis of its chemical characteristics. Knowledge about the composition and manufacture of tread tires as well as a review of instrumental techniques used for the analysis of polymeric materials were studied to select, as an ansi vi cal technique for this research, pyrolysis coupled to a gas Chromatograph with a mass spectrometry detector (Py-GC/MS). An analytical method was developed and optimized to obtain the lowest variability between replicates of the same sample. Within-variability of the tread was evaluated regarding width and circumference with several samples taken from twelve tires of different brands and/or models. The variability within each of the treads (within-variability) and between the treads (between-variability) could be quantified. Different statistical methods have shown that within-variability is lower than between-variability, which helped differentiate these tires. Ten tire traces were produced with tires of different brands and/or models by braking tests. These traces have been adequately sampled using sheets of gelatine. Particles of each trace were analysed using the same methodology as for the tires at their origin. The general chemical profile of a trace or of a tire has been characterized by eighty-six compounds. Based on a statistical comparison of the chemical profiles obtained, it has been shown that a tire trace is not differentiable from the tire at its origin but is generally differentiable from tires that are not at its origin. Thereafter, a sample containing sixty tires was analysed to assess the discrimination potential of the developed methodology. The statistical results showed that most of the tires of different brands and models are differentiable. However, tires of the same brand and model with identical characteristics, such as country of manufacture, size and DOT number, are not differentiable. A model, based on a likelihood ratio approach, was chosen to evaluate the results of the comparisons between the chemical profiles of the traces and tires. The methodology developed was finally blindly tested using three simulated scenarios. Each scenario involved a trace of an unknown tire as well as two tires possibly at its origin. The correct results for the three scenarios were used to validate the developed methodology. The different steps of this work were useful to collect the required information to test and validate the underlying assumption that it is possible to help determine if an offending tire » or is not at the origin of a trace, by means of a statistical comparison of their chemical profile. This aid was formalized by a measure of the probative value of the evidence, which is represented by the chemical profile of the trace of the tire. - Ce travail s'est proposé de développer une méthodologie pour l'exploitation des caractéristiques chimiques des traces de pneumatiques dans le but d'aider à répondre à la question suivante : «Est-ce que le pneumatique incriminé est ou n'est pas à l'origine de la trace relevée sur les lieux ? ». Cette méthodologie s'est intéressée du prélèvement de la trace de pneumatique sur la chaussée à l'exploitation statistique de ses caractéristiques chimiques. L'acquisition de connaissances sur la composition et la fabrication de la bande de roulement des pneumatiques ainsi que la revue de techniques instrumentales utilisées pour l'analyse de matériaux polymériques ont permis de choisir, comme technique analytique pour la présente recherche, la pyrolyse couplée à un chromatographe en phase gazeuse avec un détecteur de spectrométrie de masse (Py-GC/MS). Une méthode analytique a été développée et optimisée afin d'obtenir la plus faible variabilité entre les réplicas d'un même échantillon. L'évaluation de l'intravariabilité de la bande de roulement a été entreprise dans sa largeur et sa circonférence à l'aide de plusieurs prélèvements effectués sur douze pneumatiques de marques et/ou modèles différents. La variabilité au sein de chacune des bandes de roulement (intravariabilité) ainsi qu'entre les bandes de roulement considérées (intervariabilité) a pu être quantifiée. Les différentes méthodes statistiques appliquées ont montré que l'intravariabilité est plus faible que l'intervariabilité, ce qui a permis de différencier ces pneumatiques. Dix traces de pneumatiques ont été produites à l'aide de pneumatiques de marques et/ou modèles différents en effectuant des tests de freinage. Ces traces ont pu être adéquatement prélevées à l'aide de feuilles de gélatine. Des particules de chaque trace ont été analysées selon la même méthodologie que pour les pneumatiques à leur origine. Le profil chimique général d'une trace de pneumatique ou d'un pneumatique a été caractérisé à l'aide de huitante-six composés. Sur la base de la comparaison statistique des profils chimiques obtenus, il a pu être montré qu'une trace de pneumatique n'est pas différenciable du pneumatique à son origine mais est, généralement, différenciable des pneumatiques qui ne sont pas à son origine. Par la suite, un échantillonnage comprenant soixante pneumatiques a été analysé afin d'évaluer le potentiel de discrimination de la méthodologie développée. Les méthodes statistiques appliquées ont mis en évidence que des pneumatiques de marques et modèles différents sont, majoritairement, différenciables entre eux. La méthodologie développée présente ainsi un bon potentiel de discrimination. Toutefois, des pneumatiques de la même marque et du même modèle qui présentent des caractéristiques PTD (i.e. pays de fabrication, taille et numéro DOT) identiques ne sont pas différenciables. Un modèle d'évaluation, basé sur une approche dite du likelihood ratio, a été adopté pour apporter une signification au résultat des comparaisons entre les profils chimiques des traces et des pneumatiques. La méthodologie mise en place a finalement été testée à l'aveugle à l'aide de la simulation de trois scénarios. Chaque scénario impliquait une trace de pneumatique inconnue et deux pneumatiques suspectés d'être à l'origine de cette trace. Les résultats corrects obtenus pour les trois scénarios ont permis de valider la méthodologie développée. Les différentes étapes de ce travail ont permis d'acquérir les informations nécessaires au test et à la validation de l'hypothèse fondamentale selon laquelle il est possible d'aider à déterminer si un pneumatique incriminé est ou n'est pas à l'origine d'une trace, par le biais d'une comparaison statistique de leur profil chimique. Cette aide a été formalisée par une mesure de la force probante de l'indice, qui est représenté par le profil chimique de la trace de pneumatique.