955 resultados para automatic test and measurement
Resumo:
In this paper, we present graphical and quantitative evidence on the important role played by changes in labor market institutions on the rise in wage inequality in the United States during the 1980s. We show that the decline in the real value of the minimium wage and in the rate of unionization explains over a third of the rise in inequality among men.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Introduction : Les statines ont prouvé leur efficacité dans le traitement des dyslipidémies. Cependant, ces molécules sont associées à des effets secondaires d’ordre musculaire. Puisque ces effets peuvent avoir des conséquences graves sur la vie des patients en plus d’être possiblement à l’origine de la non-observance d’une proportion importante des patients recevant une statine, un outil pharmacogénomique qui permettrait d’identifier a priori les patients susceptibles de développer des effets secondaires musculaires induits par une statine (ESMIS) serait très utile. L’objectif de la présente étude était donc de déterminer la valeur monétaire d’un tel type d’outil étant donné que cet aspect représenterait une composante importante pour sa commercialisation et son implantation dans la pratique médicale courante. Méthode : Une première simulation fut effectuée à l’aide de la méthode de Markov, mais celle-ci ne permettait pas de tenir compte de tous les éléments désirés. C’est pourquoi la méthode de simulation d'évènements discrets fut utilisée pour étudier une population de 100 000 patients hypothétiques nouvellement initiés sur une statine. Cette population virtuelle a été dupliquée pour obtenir deux cohortes de patients identiques. Une cohorte recevait le test et un traitement approprié alors que l'autre cohorte recevait le traitement standard actuel—i.e., une statine. Le modèle de simulation a permis de faire évoluer les deux cohortes sur une période de 15 ans en tenant compte du risque de maladies cardio-vasculaires (MCV) fatal ou non-fatal, d'ESMIS et de mortalité provenant d’une autre cause que d’une MCV. Les conséquences encourues (MCV, ESMIS, mortalité) par ces deux populations et les coûts associés furent ensuite comparés. Finalement, l’expérience fut répétée à 25 reprises pour évaluer la stabilité des résultats et diverses analyses de sensibilité ont été effectuées. Résultats : La différence moyenne des coûts en traitement des MCV et des ESMIS, en perte de capital humain et en médicament était de 28,89 $ entre les deux cohortes pour la durée totale de l’expérimentation (15 ans). Les coûts étant plus élevés chez celle qui n’était pas soumise au test. Toutefois, l’écart-type à la moyenne était considérable (416,22 $) remettant en question la validité de l’estimation monétaire du test pharmacogénomique. De plus, cette valeur était fortement influencée par la proportion de patients prédisposés aux ESMIS, par l’efficacité et le coût des agents hypolipidémiants alternatifs ainsi que par les coûts des traitements des ESMIS et de la valeur attribuée à un mois de vie supplémentaire. Conclusion : Ces résultats suggèrent qu’un test de prédisposition génétique aux ESMIS aurait une valeur d’environ 30 $ chez des patients s’apprêtant à commencer un traitement à base de statine. Toutefois, l’incertitude entourant la valeur obtenue est très importante et plusieurs variables dont les données réelles ne sont pas disponibles dans la littérature ont une influence importante sur la valeur. La valeur réelle de cet outil génétique ne pourra donc être déterminée seulement lorsque le modèle sera mis à jour avec des données plus précises sur la prévalence des ESMIS et leur impact sur l’observance au traitement puis analysé avec un plus grand nombre de patients.
Resumo:
La bursite infectieuse aviaire (IBD) est une des causes majeures de pertes économiques pour l’industrie aviaire. La vaccination est le principal outil de contrôle de cette maladie et les oiseaux susceptibles doivent être vaccinés aussitôt que le niveau des anticorps maternels (MA) anti-IBDV est suffisamment bas. L’estimation du moment de vaccination est habituellement déterminée par la formule de Deventer qui utilise le titre initial de MA anti-IBDV et la demi-vie des anticorps pour prédire l’évolution du titre. Dans la présente étude, l’effet du gain de poids sur la vitesse de disparition des MA a été étudié dans le but de l’utiliser pour prédire la détermination du moment de la vaccination. L’analyse des taux d’anticorps neutralisants par ELISA a montré que les poussins avec une forte croissance avaient un taux de disparition plus rapide des MA que ceux à faible croissance. Une formule pour la prédiction du moment de vaccination contre le IBDV, basée sur le gain de poids et le niveau des MA a été développée et vérifiée. La prédiction du moment de vaccination avec cette formule a montré une haute corrélation avec les titres de MA mesurés par ELISA. Le virus de l’anémie infectieuse aviaire (CIAV) est une cause importante d’immunosuppression chez le poulet augmentant la pathogénicité des infections secondaires et en entraînant une réponse humorale suboptimale et une forte mortalité. D’autre part, l’infections sub-clinique du au CIAV provoque une immunosuppression qui facilite la coinfection par d’autre virus tel que le IBDV. Les effets de la coinfection à J1 avec une souche vaccinale de CIAV CAV-VAC® (Intervet) et à J14 avec une souche faiblement virulente de IBDV isolée au Québec, sur l’état de santé des poussins, sur la persistance virale et sur la réponse immunitaire ont été étudiés autant chez des poussins de 1 jour d’âge exempts d’agents pathogènes specifique (SPF) que ceux provenant d’élevages commerciaux. Les résultats ont montré que l’inoculation de la souche vaccinale du CIAV a entraîné une infection sub-clinique, une persistance virale dans la rate et le thymus, une altération de la thymopoièse et une réponse humorale temporaire chez les poussins SPF. Ces effets ont aussi été mis en évidence chez des poussins d’élevage commerciaux malgré des taux élevés de MA. Lors de l’infection avec la souche de IBDV chez des poussins déjà vaccinés contre le CIAV, la persistance du CIAV dans les organes lymphoïdes a été aggravée par une présence de réponses humorales temporaires contre les deux virus et une altération des populations lymphocytaires dans les organes lymphoïdes. Par contre, la présence des MA contre le CIAV a limité temporairement ces effets. Ces travaux ont mis en évidence des désordres immunitaires cellulaires et humoraux et une persistance virale chez des poussins vaccinés contre le CIAV et co-infectés avec le IBDV.
Resumo:
Cette étude quasi-expérimentale a pour but de 1) comparer la prise en compte et les effets de trois conditions rétroactives, à savoir la reformulation, l’incitation et un mélange des deux techniques, 2) déterminer le lien entre la prise en compte et l’apprentissage, et 3) identifier l’effet des perceptions des apprenants quant à la rétroaction corrective sur la prise en compte et l’apprentissage. Quatre groupes d’apprenants d’anglais langue seconde ainsi que leurs enseignants provenant d’un CEGEP francophone de l’île de Montréal ont participé à cette étude. Chaque enseignant a été assigné à une condition rétroactive expérimentale qui correspondait le plus à ses pratiques rétroactives habituelles. La chercheure a assuré l’intervention auprès du groupe contrôle. L’utilisation du passé et de la phrase interrogative était ciblée durant l’intervention expérimentale. Des protocoles de pensée à haute voie ainsi qu’un questionnaire ont été utilisés pour mesurer la prise en compte de la rétroaction corrective. Des tâches de description d’images et d’identification des différences entre les images ont été administrées avant l’intervention (pré-test), immédiatement après l’intervention (post-test immédiat) et 8 semaines plus tard (post-test différé) afin d’évaluer les effets des différentes conditions rétroactives sur l’apprentissage des formes cibles. Un questionnaire a été administré pour identifier les perceptions des apprenants quant à la rétroaction corrective. En termes de prise en compte, les résultats indiquent que les participants sont en mesure de remarquer la rétroaction dépendamment de la forme cible (les erreurs dans l’utilisation du passé sont détectées plus que les erreurs d’utilisation de la phrase interrogative) et de la technique rétroactive utilisée (l’incitation et le mélange d’incitation et de reformulations sont plus détectés plus que la reformulation). En ce qui a trait à l’apprentissage, l’utilisation du passé en général est marquée par plus de développement que celle de la phrase interrogative, mais il n'y avait aucune différence entre les groupes. Le lien direct entre la prise en compte et l’apprentissage ne pouvait pas être explicitement établi. Pendant que la statistique inférentielle a suggéré une relation minimale entre la prise en compte du passé et son apprentissage, mais aucune relation entre la prise en compte de la phrase interrogative et son apprentissage, les analyses qualitatives ont montrés à une association entre la prise en compte et l’apprentissage (sur les deux cibles) pour certains étudiants et augmentations sans prise en compte pour d'autres. Finalement, l’analyse factorielle du questionnaire indique la présence de quatre facteurs principaux, à savoir l’importance de la rétroaction corrective, la reformulation, l’incitation et les effets affectifs de la rétroaction. Deux de ces facteurs ont un effet modérateur sur la prise en compte de la rétroaction sans, toutefois, avoir d’impact sur l’apprentissage.
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.
Resumo:
Poor cold flow properties of vegetable oils are a major problem preventing the usage of many abundantly available vegetable oils as base stocks for industrial lubricants. The major objective of this research is to improve the cold flow properties of vegetable oils by various techniques like additive addition and different chemical modification processes. Conventional procedure for determining pour point is ASTM D97 method. ASTM D97 method is time consuming and reproducibility of pour point temperatures is poor between laboratories. Differential Scanning Calorimetry (DSC) is a fast, accurate and reproducible method to analyze the thermal activities during cooling/heating of oil. In this work coconut oil has been chosen as representative vegetable oil for the analysis and improvement cold flow properties since it is abundantly available in the tropics and has a very high pour point of 24 °C. DSC is used for the analysis of unmodified and modified vegetable oil. The modified oils (with acceptable pour points) were then subjected to different tests for the valuation of important lubricant properties such as viscometric, tribological (friction and wear properties), oxidative and corrosion properties.A commercial polymethacrylate based PPD was added in different percentages and the pour points were determined in each case. Styrenated phenol(SP) was added in different concentration to coconut oil and each solution was subjected to ASTM D97 test and analysis by DSC. Refined coconut oil and other oils like castor oil, sunflower oil and keranja oil were mixed in different proportions and interesterification procedure was carried out. Interesterification of coconut oil with other vegetable oils was not found to be effective in lowering the pour point of coconut oil as the reduction attained was only to the extent of 2 to 3 °C.Chemical modification by acid catalysed condensation reaction with coconut oil castor oil mixture resulted in significant reduction of pour point (from 24 ºC to -3 ºC). Instead of using triacylglycerols, when their fatty acid derivatives (lauric acid- the major fatty acid content of coconut oil and oleic acid- the major fatty acid constituents of monoand poly- unsaturated vegetable oils like olive oil, sunflower oil etc.) were used for the synthesis , the pour point could be brought down to -42 ºC. FTIR and NMR spectroscopy confirmed the ester structure of the product which is fundamental to the biodegradability of vegetable oils. The tribological performance of the synthesised product with a suitable AW/EP additive was comparable to the commercial SAE20W30 oil. The viscometric properties (viscosity and viscosity index) were also (with out additives) comparable to commercial lubricants. The TGA experiment confirmed the better oxidative performance of the product compared to vegetable oils. The sample passed corrosion test as per ASTM D130 method.
Resumo:
Investigations on the fracture behaviour of polymer blends is the topic of this thesis. The blends selected are PP/HDPE and PS/HIPS. PP/HDPE blend is chosen due to its commercial importance and PS/HIPS blend is selected to study the transition from brittle fracture to ductile fracture.PP/HDPE blends were prepared at different compositions by melt blending at 180°C and fracture failure process was investigated by conducting notch sensitivity test and tensile test at different strain rates. The effects of two types of modifiers (particulate and elastomer) on the fracture behaviour and notch sensitivity of PP/HDPE blends were studied. The modifiers used are calcium carbonate, a hard particulate filler commonly used in plastics and Ethylene Propylene Diene Monomer (EPDM). They were added in 2%, 4% and 6% by weight of the blends.The study shows that the mechanical properties of PP/HDPE blends can be optimized by selecting proper blend compositions. The selected modifiers are found to alter and improve the fracture behaviour and notch sensitivity of the blends. Particulate fillers like calcium carbonate can be used for making the mechanical behaviour more stable at the various blend compositions. The resistance to notch sensitivity of the blends is found to be marginally lower in the presence of calcium carbonate. The elastomeric modifier EPDM produces a better stability of the mechanical behaviour. A low concentration of EPDM is sufficient to effect such a change. EPDM significantly improves the resistance to notch sensitivity of the blends. The study shows that judicious selection of modifiers can improve the fracture behaviour and notch sensitivity of PP/HDPE blends and help these materials to be used for critical applications.For investigating the transition in fracture behaviour and failure modes, PS/HIPS blends were selected. The blends were prepared by melt mixing followed by injection moulding to prepare the specimens for conducting tensile, impact and flexure tests. These tests were used to simulate the various conditions which promote failure.The tensile behaviour of unnotched and notched PS/HIPS blend samples were evaluated at slow speeds. Tensile strengths and moduli were found to increase at the higher testing speed for all the blend combinations whereas maximum strain at break was found to decrease. For a particular speed of testing, the tensile strength and modulus show only a very slight decrease as HIPS content is increased up to about 40%. However, there is a drastic decrease on increasing the HIPS content thereafter.The maximum strain at break shows only a very slight change up to about 40% HIPS content and thereafter shows a remarkable increase. The notched specimens also follow a comparable trend even though the notch sensitivity is seen high for PS rich blends containing up to 40% HIPS. The notch sensitivity marginally decreases with increase in HIPS content. At the same time, it is found to increase with the increase in strain rate. It is observed that blends containing more than 40% HIPS fail in ductile mode.The impact characteristics of PSIHIPS blends studied were impact strength, the energy absorbed by the test specimen and impact toughness. Remarkable increase in impact strength is observed as HIPS content in the blend exceeds 40%. The energy absorbed by the test specimens and the impact toughness also show a comparable trend.Flexural testing which helps to characterize the load bearing capacity was conducted on PS/HIPS blend samples at the two different testing speeds of 5mmlmin and 10 mm/min. The flexural strength increases with increase in testing speed for all the blend compositions. At both the speeds, remarkable reduction in flexural strength is observed as HIPS content in the blend exceeds 40%. The flexural strain and flexural energy absorbed by the specimens are found to increase with increase in HIPS content. At both the testing speeds, brittle fracture is observed for PS rich blends whereas HIPS rich blends show ductile mode of failure.Photoelastic investigations were conducted on PS/HIPS blend samples to analyze their failure modes. A plane polariscope with a broad source of light was utilized for the study. The coloured isochromatic fringes formed indicate the presence of residual stress concentration in the blend samples. The coverage made by the fringes on the test specimens varies with the blend composition and it shows a reducing trend with the increase in HIPS content. This indicates that the presence of residual stress is a contributing factor leading to brittle fracture in PS rich blends and this tendency gradually falls with increase in HIPS content and leads to their ductile mode of failure.
Resumo:
With the recent progress and rapid increase in the field of communication, the designs of antennas for small mobile terminals with enhanced radiation characteristics are acquiring great importance. Compactness, efficiency, high data rate capacity etc. are the major criteria for the new generation antennas. The challenging task of the microwave scientists and engineers is to design a compact printed radiating structure having broadband behavior along with good efficiency and enhanced gain. Printed antenna technology has received popularity among antenna scientists after the introduction of planar transmission lines in mid-seventies. When we view the antenna through a transmission line concept, the mechanism behind any electromagnetic radiator is quite simple and interesting. Any electromagnetic system with a discontinuity is radiating electromagnetic energy. The size, shape and orientation of the discontinuities control the radiation characteristics of the system such as radiation pattern, gain, polarization etc. It can be either resonant or non-resonant. This thesis deals with antennas that are developed from a class of transmission lines known as coplanar strip-CPS, a planar analogy of parallel pair transmission line. The specialty of CPS is its symmetric structure compared to other transmission lines, which makes the antenna structures developed from CPS quite simple for design and fabrication. The structural modifications on either metallic strip of CPS results in different antennas. The first part of the thesis discusses a single band and dual band design derived from open ended slot lines which are very much suitable for 2.4 and 5.2 GHz WLAN applications. The second section of the study is vectored into the development of enhanced gain dipoles. A single band dipole and a wide band enhanced gain dipole suitable for 5.2/5.8 GHZ band and imaging applications are developed and discussed. Last part of the thesis discusses the development of directional UWBs. Three different types of ultra-compact UWBs are developed and almost all the frequency domain and time domain analysis of the structures are discussed.
Characterization and Pathogenicity of Vibrio cholerae and Vibrio vulnificus from Marine environments
Resumo:
The genus Vibrioof the family Vibrionaceae are Gram negative, oxidasepositive, rod- or curved- rodshaped facultative anaerobes, widespread in marine and estuarine environments. Vibrio species are opportunistic human pathogens responsible for diarrhoeal disease, gastroenteritis, septicaemia and wound infections and are also pathogens of aquatic organisms, causing infections to crustaceans, bivalves and fishes. In the present study, marine environmental samples like seafood and water and sediment samples from aquafarms and mangroves were screened for the presence of Vibrio species. Of the134 isolates obtained from the various samples, 45 were segregated to the genus Vibrio on the basis of phenotypic characterization.like Gram staining, oxidase test, MoF test and salinity tolerance. Partial 16S rDNA sequence analysis was utilized for species level identification of the isolates and the strains were identified as V. cholerae(N=21), V. vulnificus(N=18), V. parahaemolyticus(N=3), V. alginolyticus (N=2) and V. azureus (N=1). The genetic relatedness and variations among the 45 Vibrio isolates were elucidated based on 16S rDNA sequences. Phenotypic characterization of the isolates was based on their response to 12 biochemical tests namely Voges-Proskauers’s (VP test), arginine dihydrolase , tolerance to 3% NaCl test, ONPG test that detects β-galactosidase activity, and tests for utilization of citrate, ornithine, mannitol, arabinose, sucrose, glucose, salicin and cellobiose. The isolates exhibited diverse biochemical patterns, some specific for the species and others indicative of their environmental source.Antibiogram for the isolates was determined subsequent to testing their susceptibility to 12 antibiotics by the disc diffusion method. Varying degrees of resistance to gentamycin (2.22%), ampicillin(62.22%), nalidixic acid (4.44%), vancomycin (86.66), cefixime (17.77%), rifampicin (20%), tetracycline (42.22%) and chloramphenicol (2.22%) was exhibited. All the isolates were susceptible to streptomycin, co-trimoxazole, trimethoprim and azithromycin. Isolates from all the three marine environments exhibited multiple antibiotic resistance, with high MAR index value. The molecular typing methods such as ERIC PCR and BOX PCR revealed intraspecies relatedness and genetic heterogeneity within the environmental isolatesof V. cholerae and V. vulnificus. The 21 strains of V. choleraewere serogroupedas non O1/ non O139 by screening for the presence O1rfb and O139 rfb marker genes by PCR. The virulence/virulence associated genes namely ctxA, ctxB, ace, VPI, hlyA, ompU, rtxA, toxR, zot, nagst, tcpA, nin and nanwere screened in V. cholerae and V. vulnificusstrains.The V. vulnificusstrains were also screened for three species specific genes viz., cps, vvhand viu. In V. cholerae strains, the virulence associated genes like VPI, hlyA, rtxA, ompU and toxR were confirmed by PCR. All the isolates, except for strain BTOS6, harbored at least one or a combination of the tested genes and V. choleraestrain BTPR5 isolated from prawn hosted the highest number of virulence associated genes. Among the V. vulnificusstrains, only 3 virulence genes, VPI, toxR and cps, were confirmed out of the 16 tested and only 7 of the isolates had these genes in one or more combinations. Strain BTPS6 from aquafarm and strain BTVE4 from mangrove samples yielded positive amplification for the three genes. The toxRgene from 9 strains of V. choleraeand 3 strains of V. vulnificus were cloned and sequenced for phylogenetic analysis based on nucleotide and the amino acid sequences. Multiple sequence alignment of the nucleotide sequences and amino acid sequences of the environmental strains of V. choleraerevealed that the toxRgene in the environmental strains are 100% homologous to themselves and to the V. choleraetoxR gene sequence available in the Genbank database. The 3 strains of V. vulnificus displayed high nucleotide and amino acid sequence similarity among themselves and to the sequences of V. cholerae and V. harveyi obtained from the GenBank database, but exhibited only 72% homology to the sequences of its close relative V. vulnificus. Structure prediction of the ToxR protein of Vibrio cholerae strain BTMA5 was by PHYRE2 software. The deduced amino acid sequence showed maximum resemblance with the structure of DNA-binding domain of response regulator2 from Escherichia coli k-12 Template based homology modelling in PHYRE2 successfully modelled the predicted protein and its secondary structure based on protein data bank (PDB) template c3zq7A. The pathogenicity studies were performed using the nematode Caenorhabditiselegansas a model system. The assessment of pathogenicity of environmental strain of V. choleraewas conducted with E. coli strain OP50 as the food source in control plates, environmental V. cholerae strain BTOS6, negative for all tested virulence genes, to check for the suitability of Vibrio sp. as a food source for the nematode;V. cholerae Co 366 ElTor, a clinical pathogenic strain and V. cholerae strain BTPR5 from seafood (Prawn) and positive for the tested virulence genes like VPI, hlyA, ompU,rtxA and toxR. It was found that V. cholerae strain BTOS6 could serve as a food source in place of E. coli strain OP50 but behavioral aberrations like sluggish movement and lawn avoidance and morphological abnormalities like pharyngeal and intestinal distensions and bagging were exhibited by the worms fed on V. cholerae Co 366 ElTor strain and environmental BTPR5 indicating their pathogenicity to the nematode. Assessment of pathogenicity of the environmental strains of V. vulnificus was performed with V. vulnificus strain BTPS6 which tested positive for 3 virulence genes, namely, cps, toxRand VPI, and V. vulnificus strain BTMM7 that did not possess any of the tested virulence genes. A reduction was observed in the life span of worms fed on environmental strain of V. vulnificusBTMM7 rather than on the ordinary laboratory food source, E. coli OP50. Behavioral abnormalities like sluggish movement, lawn avoidance and bagging were also observed in the worms fed with strain BTPS6, but the pharynx and the intestine were intact. The presence of multi drug resistant environmental Vibrio strainsthat constitute a major reservoir of diverse virulence genes are to be dealt with caution as they play a decisive role in pathogenicity and horizontal gene transfer in the marine environments.
Resumo:
Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------
Resumo:
This work focuses on the analysis of the influence of environment on the relative biological effectiveness (RBE) of carbon ions on molecular level. Due to the high relevance of RBE for medical applications, such as tumor therapy, and radiation protection in space, DNA damages have been investigated in order to understand the biological efficiency of heavy ion radiation. The contribution of this study to the radiobiology research consists in the analysis of plasmid DNA damages induced by carbon ion radiation in biochemical buffer environments, as well as in the calculation of the RBE of carbon ions on DNA level by mean of scanning force microscopy (SFM). In order to study the DNA damages, besides the common electrophoresis method, a new approach has been developed by using SFM. The latter method allows direct visualisation and measurement of individual DNA fragments with an accuracy of several nanometres. In addition, comparison of the results obtained by SFM and agarose gel electrophoresis methods has been performed in the present study. Sparsely ionising radiation, such as X-rays, and densely ionising radiation, such as carbon ions, have been used to irradiate plasmid DNA in trishydroxymethylaminomethane (Tris buffer) and 4-(2-hydroxyethyl)-1-piperazineethanesulfonic acid (HEPES buffer) environments. These buffer environments exhibit different scavenging capacities for hydroxyl radical (HO0), which is produced by ionisation of water and plays the major role in the indirect DNA damage processes. Fragment distributions have been measured by SFM over a large length range, and as expected, a significantly higher degree of DNA damages was observed for increasing dose. Also a higher amount of double-strand breaks (DSBs) was observed after irradiation with carbon ions compared to X-ray irradiation. The results obtained from SFM measurements show that both types of radiation induce multiple fragmentation of the plasmid DNA in the dose range from D = 250 Gy to D = 1500 Gy. Using Tris environments at two different concentrations, a decrease of the relative biological effectiveness with the rise of Tris concentration was observed. This demonstrates the radioprotective behavior of the Tris buffer solution. In contrast, a lower scavenging capacity for all other free radicals and ions, produced by the ionisation of water, was registered in the case of HEPES buffer compared to Tris solution. This is reflected in the higher RBE values deduced from SFM and gel electrophoresis measurements after irradiation of the plasmid DNA in 20 mM HEPES environment compared to 92 mM Tris solution. These results show that HEPES and Tris environments play a major role on preventing the indirect DNA damages induced by ionising radiation and on the relative biological effectiveness of heavy ion radiation. In general, the RBE calculated from the SFM measurements presents higher values compared to gel electrophoresis data, for plasmids irradiated in all environments. Using a large set of data, obtained from the SFM measurements, it was possible to calculate the survive rate over a larger range, from 88% to 98%, while for gel electrophoresis measurements the survive rates have been calculated only for values between 96% and 99%. While the gel electrophoresis measurements provide information only about the percentage of plasmids DNA that suffered a single DSB, SFM can count the small plasmid fragments produced by multiple DSBs induced in a single plasmid. Consequently, SFM generates more detailed information regarding the amount of the induced DSBs compared to gel electrophoresis, and therefore, RBE can be calculated with more accuracy. Thus, SFM has been proven to be a more precise method to characterize on molecular level the DNA damage induced by ionizing radiations.
Resumo:
This thesis in Thermal Flow Drilling and Flowtap in thin metal sheet and pipes of copper and copper alloys had as objectives to know the comportment of copper and copper alloys sheet metal during the Thermal Flow Drill processes with normal tools, to know the best Speed and Feed machine data for the best bushing quality, to known the best Speed for Form Tapping processes and to know the best bush long in pure copper pipes for water solar interchange equipment. Thermal Flow Drilling (TFD) and Form Tapping (FT) is one of the research lines of the Institute of Production and Logistics (IPL) at University of Kassel. At December 1995, a work meeting of IPL, Santa Catarina University, Brazil, Buenos Aires University, Argentine, Tarapacá University (UTA), Chile members and the CEO of Flowdrill B.V. was held in Brazil. The group decided that the Manufacturing Laboratory (ML) of UTA would work with pure copper and brass alloys sheet metal and pure copper pipes in order to develop a water interchange solar heater. The Flowdrill BV Company sent tools to Tarapacá University in 1996. In 1999 IPL and the ML carried out an ALECHILE research project promoted by the DAAD and CONICyT in copper sheet metal and copper pipes and sheet metal a-brass alloys. The normal tools are lobed, conical tungsten carbide tool. When rotated at high speed and pressed with high axial force into sheet metal or thin walled tube generated heat softens the metal and allows the drill to feed forward produce a hole and simultaneously form a bushing from the displacement material. In the market exist many features but in this thesis is used short and longs normal tools of TFD. For reach the objectives it was takes as references four qualities of the frayed end bushing, where the best one is the quality class I. It was used pure copper and a-brass alloys sheet metals, with different thickness. It was used different TFD drills diameter for four thread type, from M-5 to M10. Similar to the Aluminium sheet metals studies it was used the predrilling processes with HSS drills around 30% of the TFD diameter (1,5 – 3,0 mm D). In the next step is used only 2,0 mm thick metal sheet, and 9,2 mm TFD diameter for M-10 thread. For the case of pure commercial copper pipes is used for ¾” inch diameter and 12, 8 mm (3/8”) TFD drill for holes for 3/8” pipes and different normal HSS drills for predrilling processes. The chemical sheet metal characteristics were takes as reference for the material behaviour. The Chilean pure copper have 99,35% of Cu and 0,163% of Zinc and the Chilean a-brass alloys have 75,6% of Cu and 24,0% of Zinc. It is used two German a-brass alloys; Nº1 have 61,6% of Cu, 36,03 % of Zinc and 2,2% of Pb and the German a-brass alloys Nº2 have 63,1% of Cu, 36,7% of Zinc and 0% of Pb. The equipments used were a HAAS CNC milling machine centre, a Kistler dynamometer, PC Pentium II, Acquisition card, TESTPOINT and XAct software, 3D measurement machine, micro hardness, universal test machine, and metallographic microscope. During the test is obtained the feed force and momentum curves that shows the material behaviour with TFD processes. In general it is take three phases. It was possible obtain the best machining data for the different sheet of copper and a-brass alloys thick of Chilean materials and bush quality class I. In the case of a-brass alloys, the chemical components and the TFD processes temperature have big influence. The temperature reach to 400º Celsius during the TFD processes and the a-brass alloys have some percents of Zinc the bush quality is class I. But when the a-brass alloys have some percents of Lead who have 200º C melting point is not possible to obtain a bush, because the Lead gasify and the metallographic net broke. During the TFD processes the recrystallization structures occur around the Copper and a-brass alloy bush, who gives more hardness in these zones. When the threads were produce with Form Tapping processes with Flowtap tools, this hardness amount gives a high limit load of the thread when hey are tested in a special support that was developed for it. For eliminated the predrilling processes with normal HSS drills it was developed a compound tool. With this new tool it was possible obtain the best machining data for quality class I bush. For the copper pipes it is made bush without predrilling and the quality class IV was obtained. When it is was used predrilling processes, quality classes I bush were obtained. Then with different HSS drill diameter were obtained different long bush, where were soldering with four types soldering materials between pipes with 3/8” in a big one as ¾”. Those soldering unions were tested by traction test and all the 3/8” pipes broken, and the soldering zone doesn’t have any problem. Finally were developed different solar water interchange heaters and tested. As conclusions, the present Thesis shows that the Thermal Flow Drilling in thinner metal sheets of cooper and cooper alloys needs a predrilling process for frayed end quality class I bushings, similar to thinner sheets of aluminium bushes. The compound tool developed could obtain quality class I bushings and excludes predrilling processes. The bush recrystalization, product of the friction between the tool and the material, the hardness grows and it is advantageous for the Form Tapping. The methodology developed for commercial copper pipes permits to built water solar interchange heaters.