996 resultados para same basic integrator
Resumo:
Port-au-Prince, la ville la plus peuplée des Caraïbes est ceinturée de quartiers précaires connus sous l’appellation de bidonvilles. Ces quartiers construits généralement sur des terrains dangereux, envahis par une population en quête de logement, abritent la plus forte proportion des habitants de la ville. Ils constituent en même temps des lieux d’observation de l’inimaginable capacité des populations locales à garantir l’accès à certains services. À travers l’action d’une association locale évoluant à Village solidarité dans la zone métropolitaine de Port-au-Prince, nous avons étudié les apports et les limites des stratégies utilisées dans l’organisation de services publics d’électricité. L’analyse repose fondamentalement sur une approche de développement local reposant sur cinq notions complémentaires et interreliées qui sont les suivantes : le projet commun, l’appartenance et l’identité collective, les ressources, le leadership, l’opportunité politique. Les résultats de la recherche font état d’un projet commun aux contours assez flous qui reflète des insuffisances au niveau des modes de pensée, et au niveau des ressources matérielles et financières mises en jeu. Le style de leadership en place au sein de l’association est teinté de déterminisme religieux, pris au piège des manœuvres clientélistes des politiciens locaux et infantilisé par l’action des agences gouvernementales. A la fin de l’étude nous dégageons des pistes pour dynamiser les forces du milieu et réorienter l’action associative afin d’aller vers un projet collectif. Ces pistes reposent fondamentalement sur la transformation des modes de pensée influençant l’action et la transformation des pratiques organisationnelles.
Resumo:
La perception est de plus en plus reconnue comme fondamentale à la compréhension du phénotype autistique. La première description de l’autisme, par Kanner en 1947, fait état d’un profil cognitif hétérogène caractérisé par des habiletés exceptionnelles à l’intérieur de domaines spécifiques de la perception (ex., la musique). L’accumulation des observations cliniques sur la présence de particularités perceptives a mené à l’élaboration d’études empiriques permettant d’objectiver des surfonctionnements dans le traitement élémentaire de l’information perceptive dans l’autisme. Parallèlement, des études cognitives suggèrent la présence d’une « intelligence différente » chez les personnes autistes. Celle-ci serait caractérisée par une dissociation entre des performances à différents tests d’intelligence fortement corrélés ensemble chez les personnes typiques. Le potentiel intellectuel des personnes autistes serait sous-estimé lorsque mesuré par l’échelle de Wechsler, plutôt que des mesures d’intelligence fluide comme les Matrices Progressives de Raven. Avec l’appui d’études en imagerie cérébrale, ces résultats suggèrent une relation unique entre la perception et l’intelligence chez cette population clinique. Étant donné l’accumulation de preuves sur 1) la présence d’atypies perceptuelles, 2) le rôle différent de la perception dans l’intelligence et 3) l’importance des comportements répétitifs et intérêts restreints dans le phénotype autistique (DSM-5), le premier volet de cette thèse s’est intéressé à la relation entre les performances perceptives des personnes autistes et celle des personnes ayant un développement typique, au-delà de ce qui est expliqué par l’intelligence. À l’aide de modèles de régression linéaire, les résultats démontrent un profil de covariation spécifique à l’autisme pour les habiletés plurimodales. Contrairement aux personnes ayant un développement typique, ces associations persistent au-delà de ce qui est expliqué par l’intelligence générale ou par l’efficacité générale des systèmes perceptifs. Ce profil de covariation résiduelle propre aux personnes autistes suggère la présence d’un facteur plurimodal spécifique à ce groupe clinique : le facteur « p ». Le deuxième volet de cette thèse s’est intéressé à la prévalence des habiletés exceptionnelles au niveau individuel, la relation les forces perceptives et les talents, ainsi qu’aux facteurs de prédisposition en lien avec le développement d’habiletés exceptionnelles. Les forces perceptives des personnes autistes furent évaluées à l’aide de tâches expérimentales sensibles à la détection de surfonctionnements perceptifs, soit une tâche de discrimination de hauteurs sonores et une version modifiée du sous-test « Blocs » de l’échelle d’intelligence de Wechsler. Les talents furent évalués de manière clinique à l’aide de l’ADI-R (« Autism Diagnostic Interview-Revised »). Les données indiquent que 88.4 % des personnes autistes avec une intelligence dans la normale présentent au moins une habileté exceptionnelle (force perceptive ou talent). Les talents sont rapportés chez 62.5 % des cas et les forces perceptives se retrouvent chez 58 % des cas. La cooccurrence des forces perceptives entre les modalités perceptives est relativement peu fréquente (24 % à 27 %) et la présence d’un talent dans une modalité n’augmente pas les chances de présenter une force perceptive dans une même modalité. Une plus grande intelligence augmente les chances de présenter au moins un talent. En revanche, une intelligence plus faible, mais se situant tout de même dans les limites de la normale, est associée à un profil cognitif plus hétérogène avec des forces perceptives plus fréquentes. En somme, l’intelligence autistique serait caractérisée par un rôle plus important de la perception, indépendamment des surfonctionnements perceptifs. Cette particularité cognitive se manifesterait par la présence d’un facteur plurimodal, « p », spécifique à l’autisme. Théoriquement, le facteur « p » reflèterait des modifications innées (ou « hardwired ») dans l’organisation corticale des microcircuits responsables de l'encodage des dimensions perceptives élémentaires. En revanche, une faible association intermodale entre les forces perceptives suggère que des modifications corticales sont essentielles, mais non suffisantes pour le développement d’habiletés exceptionnelles. Par des processus de plasticité, des modifications corticales auraient des répercussions sur le phénotype autistique en offrant une base plus « fertile » pour le développement d’habiletés exceptionnelles, voire savantes, lorsque la personne autiste serait exposée à des expériences de vie avantageuses. Par ailleurs, les résultats de cette thèse, combinés à la littérature existante sur l’intelligence et l’apprentissage des personnes autistes, nous amènent à réfléchir sur les approches d’évaluation et d’intervention les mieux adaptées au fonctionnement spécifique de cette population clinique.
Resumo:
La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.
Resumo:
L’invalidité attribuable à la douleur représente un problème important en raison de ses coûts personnels, financiers et sociétaux. L’effort scientifique mène à l’identification des facteurs de risque pour l’évolution de la douleur vers un état qui mine la capacité de la personne affligée à vaquer à ses occupations fondamentales. Cet effort met en relief le rôle déterminant que jouent les facteurs psychosociaux à chaque stade de l’évolution vers l’invalidité en raison de la douleur. Parmi les facteurs mis en cause, se trouvent les difficultés psychologiques (dépression, anxiété, somatisation, trouble de la personnalité, catastrophisme et évitement de l’activité), l’insatisfaction au travail et le contexte de réclamation. Forts de cette connaissance, les pays industrialisés se dotent de lignes directrices pour la prise en charge de la douleur aiguë dans le but de réduire les coûts, tant pour la personne que pour la société. Vingt ans après la parution des premiers guides de pratique, et la publication subséquente de dizaines d’autres guides véhiculant essentiellement les mêmes informations, les médecins peinent toujours à appliquer les recommandations. À partir des données probantes issues de la littérature scientifique, le présent ouvrage propose une synthèse critique des résultats pour pousser la réflexion et faire avancer la démarche dans le sens d’une réduction des coûts personnels, financiers et sociétaux.
Resumo:
La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.
Resumo:
Pendant plus de cent ans, les anthropologues ont étudié les phénomènes de parenté tels que le mariage et la famille dans une grande diversité de sociétés humaines. En dépit de ces efforts, il y a clairement un manque de consensus concernant les notions de bases impliquées et plusieurs anthropologues sont insatisfaits de l’état actuel des connaissances théoriques offertes par leur discipline. Nous nous sommes donc demandé si la perspective culturaliste, qui ne tient pas compte des fondements biologiques du comportement humain et qui a dominé les études de parenté depuis leurs débuts, serait responsable de cet état de fait. Pour tester cette hypothèse, nous avons comparé deux corpus de connaissances portant sur les notions de base de la parenté humaine. Le premier s’appuie sur le contenu de sept manuels d’anthropologie ainsi que sur l’œuvre marquante de David M. Schneider « A Critique of the Study of Kinship » (1984). Le deuxième s’appuie sur des connaissances acquises dans une perspective évolutionniste portant sur les mêmes phénomènes. Les résultats de cette analyse comparative indiquent que les anthropologues méconnaissent l’influence de la biologie sur la parenté et que l’intégration des connaissances existantes à ce sujet dans les théories anthropologiques permettrait de résoudre les principaux problèmes identifiés.
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
Le système hématopoïétique est un tissu en constant renouvellement et les cellules souches hématopoïétiques (CSHs) sont indispensables pour soutenir la production des cellules matures du sang. Deux fonctions définissent les CSHs; la propriété d’auto-renouvellement, soit la capacité de préserver l’identité cellulaire suivant une division, et la multipotence, le potentiel de différenciation permettant de générer toutes les lignées hématopoïétiques. Chez l’adulte, la majorité des CSHs sont quiescentes et l’altération de cet état corrèle avec une diminution du potentiel de reconstitution des CSHs, suggérant que la quiescence protège les fonctions des CSHs. La quiescence est un état réversible et dynamique et les réseaux génétiques le contrôlant restent peu connus. Un nombre croissant d’évidences suggère que si à l’état d’homéostasie il y a une certaine redondance entre les gènes impliqués dans ces réseaux de contrôle, leurs rôles spécifiques sont révélés en situation de stress. La famille des bHLHs (basic helix-loop-helix) inclue différentes classes des protéines dont ceux qui sont tissu-spécifiques comme SCL, et les protéines E, comme E12/E47 et HEB. Certains bHLHs sont proposés êtres important pour la fonction des cellules souches, mais cela ne fait pas l’unanimité, car selon le contexte cellulaire, il y a redondance entre ces facteurs. La question reste donc entière, y a-t-il un rôle redondant entre les bHLHs d’une même classe pour la fonction à long-terme des CSHs? Les travaux présentés dans cette thèse visaient dans un premier temps à explorer le lien encore mal compris entre la quiescence et la fonction des CSHs en mesurant leurs facultés suite à un stress prolifératif intense et dans un deuxième temps, investiguer l’importance et la spécificité de trois gènes pour la fonction des CSHs adultes, soit Scl/Tal1, E2a/Tcf3 et Heb/Tcf12. Pour répondre à ces questions, une approche cellulaire (stress prolifératif) a été combinée avec une approche génétique (invalidation génique). Plus précisément, la résistance des CSHs au stress prolifératif a été étudiée en utilisant deux tests fonctionnels quantitatifs optimisés, soit un traitement basé sur le 5-fluorouracil, une drogue de chimiothérapie, et la transplantation sérielle en nombre limite. Dans la mesure où la fonction d’un réseau génique ne peut être révélée que par une perturbation intrinsèque, trois modèles de souris, i.e. Scl+/-, E2a+/- et Heb+/- ont été utilisés. Ceci a permis de révéler que l’adaptation des CSHs au stress prolifératif et le retour à l’équilibre est strictement contrôlé par les niveaux de Scl, lesquels règlent le métabolisme cellulaire des CSHs en maintenant l’expression de gènes ribosomaux à un niveau basal. D’autre part, bien que les composantes du réseau puissent paraître redondants à l’équilibre, mes travaux montrent qu’en situation de stress prolifératif, les niveaux de Heb restreignent la prolifération excessive des CSHs en induisant la sénescence et que cette fonction ne peut pas être compensée par E2a. En conclusion, les résultats présentés dans cette thèse montrent que les CSHs peuvent tolérer un stress prolifératif intense ainsi que des dommages à l’ADN non-réparés, tout en maintenant leur capacité de reconstituer l’hématopoïèse à long-terme. Cela implique cependant que leur métabolisme revienne au niveau de base, soit celui trouvé à l’état d’homéostasie. Par contre, avec l’augmentation du nombre de division cellulaire les CSHs atteignent éventuellement une limite d’expansion et entrent en sénescence.
Resumo:
En tant que moyen de communication qui détermine les structures de base des langues, la métaphore se classe parmi les enjeux les plus importants du domaine de la traductologie, d’où la complexité de la rendre traduisible. La nature indirecte de la métaphore étant problématique, celle-ci exige une étude approfondie, surtout vis-à-vis le transfert de la culture d’une langue à une autre. Un survol de la littérature académique traitant des théories et des approches différentes en traductologie révèle une façon de rendre possible la traduction de la métaphore. Cette étude traite de la traduction des métaphores du perse aux sous-titres anglais. Elle indique également les approches et les stratégies appliquées à la traduction des expressions linguistiques métaphoriques telles que proposées par Newmark (1988). En se fondant sur des exemples authentiques tirés des textes sources (deux films perses bien connus) et leurs traductions anglaises, cette étude démontre la façon dont certains traducteurs iraniens traduisent des expressions métaphoriques en se servant d’une des sept stratégies proposées par Newmark. Elle explique également comment certains éléments (par ex. les difficultés de la traduction) ont été influents sur leurs conclusions, tout en soutenant l’hypothèse que la reproduction d’une même image d’une langue source dans une langue cible ainsi que l’effacement sont respectivement la plus fréquente et la moins fréquente des stratégies employées par les sous-titreurs iraniens.
Resumo:
The study shows that standard plastics like polypropylene and high density polyethylene can be reinforced by adding nylon short fibres. Compared to the conventional glass reinforced thermoplastics this novel class of reinforced thermoplastics has the major advantage of recyclability. Hence such composites represent a new spectrum of recyclable polymer composites. The fibre length and fibre diameter used for reinforcement are critical parameters While there is a critical fibre length below which no effective reinforcement takes place, the reinforcement improves when the fibre diameter decreases due to increased surface area.While the fibres alone give moderate reinforcement, chemical modification of the matrix can further improve the strength and modulus of the composites. Maleic anhydride grafting in presence of styrene was found to be the most efficient chemical modification. While the fibre addition enhances the viscosity of the melt at lower shear rates, the enhancement at higher shear rate is only marginal. This shows that processing of the composite can be done in a similar way to that of the matrix polymer in high shear operations such as injection moulding. Another significant observation is the decrease in melt viscosity of the composite upon grafting. Thus chemical modification of matrix makes processing of the composite easier in addition to improving the mechanical load bearing capacity.For the development of a useful short fibre composite, selection of proper materials, optimum design with regard to the particular product and choosing proper processing parameters are most essential. Since there is a co-influence of many parameters, analytical solutions are difficult. Hence for selecting proper processing parameters 'rnold flow' software was utilized. The orientation of the fibres, mechanical properties, temperature profile, shrinkage, fill time etc. were determined using the software.Another interesting feature of the nylon fibre/PP and nylon fibre/HDPE composites is their thermal behaviour. Both nylon and PP degrade at the same temperature in single steps and hence the thermal degradation behaviour of the composites is also being predictable. It is observed that the thermal behaviour of the matrix or reinforcement does not affect each other. Almost similar behaviour is observed in the case of nylon fibre/HDPE composites. Another equally significant factor is the nucleating effect of nylon fibre when the composite melt cools down. In the presence of the fibre the onset of crystallization occurs at slightly higher temperature.When the matrix is modified by grafting, the onset of crystallization occurs at still higher temperature. Hence it may be calculated that one reason for the improvement in mechanical behaviour of the composite is the difference in crystallization behaviour of the matrix in presence of the fibre.As mentioned earlier, a major advantage of these composites is their recyclability. Two basic approaches may be employed for recycling namely, low temperature recycling and high temperature recycling. In the low temperature recycling, the recycling is done at a temperature above the melting point of the matrix, but below that of the fibres while in the high temperature route. the recycling is done at a temperature above the melting points of both matrix and fibre. The former is particularly interesting in that the recycled material has equal or even better mechanical properties compared to the initial product. This is possible because the orientation of the fibre can improve with successive recycling. Hence such recycled composites can be used for the same applications for which the original composite was developed. In high temperature recycling, the composite is converted into a blend and hence the properties will be inferior to that of the original composite, but will be higher than that of the matrix material alone.
Resumo:
A rare horizontal gene transfer event could be traced. The movement of the SXT element among the Vibrionaceae could be followed. This element was first reported from Vibrio cholerae and in this study the same could be confirmed in Vibrio alginolyticus. Events such as these, which take place with respect to other virulence/virulence associated genes, may lead to the emergence of pathogenic strains from hitherto non-pathogens or may even give rise to new pathogens. The results generated in the course of this study paves way for further characterization and detailed study, especially with respect to those strains which showed gastric fluid accumulation in the in vivo suckling mouse assay. Antibiotic resistance pattern shown by a sample population of Vibrios can be used for deciding treatment options. There is enough scope for further research on these topics towards generating basic knowledge, which can be of immense significance in human and aquaculture health.
Resumo:
Among the large number of photothcrmal techniques available, photoacoustics assumes a very significant place because of its essential simplicity and the variety of applications it finds in science and technology. The photoacoustic (PA) effect is the generation of an acoustic signal when a sample, kept inside an enclosed volume, is irradiated by an intensity modulated beam of radiation. The radiation absorbed by the sample is converted into thermal waves by nonradiative de-excitation processes. The propagating thermal waves cause a corresponding expansion and contraction of the gas medium surrounding the sample, which in tum can be detected as sound waves by a sensitive microphone. These sound waves have the same frequency as the initial modulation frequency of light. Lock-in detection method enables one to have a sufficiently high signal to noise ratio for the detected signal. The PA signal amplitude depends on the optical absorption coefficient of the sample and its thermal properties. The PA signal phase is a function of the thermal diffusivity of the sample.Measurement of the PA amplitude and phase enables one to get valuable information about the thermal and optical properties of the sample. Since the PA signal depends on the optical and thennal properties of the sample, their variation will get reflected in the PA signal. Therefore, if the PA signal is collected from various points on a sample surface it will give a profile of the variations in the optical/thennal properties across the sample surface. Since the optical and thermal properties are affected by the presence of defects, interfaces, change of material etc. these will get reflected in the PA signal. By varying the modulation frequency, we can get information about the subsurface features also. This is the basic principle of PA imaging or PA depth profiling. It is a quickly expanding field with potential applications in thin film technology, chemical engineering, biology, medical diagnosis etc. Since it is a non-destructive method, PA imaging has added advantages over some of the other imaging techniques. A major part of the work presented in this thesis is concemed with the development of a PA imaging setup that can be used to detect the presence of surface and subsmface defects in solid samples.Determination of thermal transport properties such as thermal diffusivity, effusivity, conductivity and heat capacity of materials is another application of photothennal effect. There are various methods, depending on the nature of the sample, to determine these properties. However, there are only a few methods developed to determine all these properties simultaneously. Even though a few techniques to determine the above thermal properties individually for a coating can be found in literature, no technique is available for the simultaneous measurement of these parameters for a coating. We have developed a scanning photoacoustic technique that can be used to determine all the above thermal transport properties simultaneously in the case of opaque coatings such as paints. Another work that we have presented in this thesis is the determination of thermal effusivity of many bulk solids by a scanning photoacoustic technique. This is one of the very few methods developed to determine thermal effiisivity directly.
Resumo:
The focus of study in this thesis is on the necessity and extent of judicial creativity in interpreting provisions in certain crucial areas in the Constitution of India. Judicial innovation was essential to adapt the constitutional provisions to modern changed context. Creativity of the Court has been mainly in the creation and introduction of certain new concepts not found in any specific provision of the Constitution which, but were essential for its meaningful interpretation.Independence of the judiciary, basic structure and certain elements of social justice cherished as ideal by the makers of the Constitution are some such concepts infused into the Constitution by the judiciary. The second aspect of creativity lies in the attempt of the Court to construe provisions in the Constitution with a view to upholding and maintaining the concepts so infused into the Constitution. Introduction of those concepts into the Constitution was necessary and is justified. all important features of the Constitution like democratic form of government, federal structure, judicial review, independence of judiciary and rule of law were thus included in the doctrine to prevent their alteration by amendments.As a result of such a construction, the nature of those directive principles itself has changed. They ceased to be mere directives for state action but became mandate for it. If left to legislative or executive will for their implementation, the directives would have remained enforceable as ordinary right.To conclude, notwithstanding the errors committed by the Supreme Court in construing the provisions in the above areas, they stand testimony to its creative and innovative response in interpreting the Constitution. If this trend is continued, it will be possible to achieve through the judicial process, maintenance of independence of the judiciary, avoidance of destruction of the Constitution through the process of amendment and realisation of social justice envisaged in the directive principles. It can be hoped that the Court would maintain its energetic and vibrant mind and rise up to the occasions and extend the same to other areas in future.
Resumo:
Learning Disability (LD) is a general term that describes specific kinds of learning problems. It is a neurological condition that affects a child's brain and impairs his ability to carry out one or many specific tasks. The learning disabled children are neither slow nor mentally retarded. This disorder can make it problematic for a child to learn as quickly or in the same way as some child who isn't affected by a learning disability. An affected child can have normal or above average intelligence. They may have difficulty paying attention, with reading or letter recognition, or with mathematics. It does not mean that children who have learning disabilities are less intelligent. In fact, many children who have learning disabilities are more intelligent than an average child. Learning disabilities vary from child to child. One child with LD may not have the same kind of learning problems as another child with LD. There is no cure for learning disabilities and they are life-long. However, children with LD can be high achievers and can be taught ways to get around the learning disability. In this research work, data mining using machine learning techniques are used to analyze the symptoms of LD, establish interrelationships between them and evaluate the relative importance of these symptoms. To increase the diagnostic accuracy of learning disability prediction, a knowledge based tool based on statistical machine learning or data mining techniques, with high accuracy,according to the knowledge obtained from the clinical information, is proposed. The basic idea of the developed knowledge based tool is to increase the accuracy of the learning disability assessment and reduce the time used for the same. Different statistical machine learning techniques in data mining are used in the study. Identifying the important parameters of LD prediction using the data mining techniques, identifying the hidden relationship between the symptoms of LD and estimating the relative significance of each symptoms of LD are also the parts of the objectives of this research work. The developed tool has many advantages compared to the traditional methods of using check lists in determination of learning disabilities. For improving the performance of various classifiers, we developed some preprocessing methods for the LD prediction system. A new system based on fuzzy and rough set models are also developed for LD prediction. Here also the importance of pre-processing is studied. A Graphical User Interface (GUI) is designed for developing an integrated knowledge based tool for prediction of LD as well as its degree. The designed tool stores the details of the children in the student database and retrieves their LD report as and when required. The present study undoubtedly proves the effectiveness of the tool developed based on various machine learning techniques. It also identifies the important parameters of LD and accurately predicts the learning disability in school age children. This thesis makes several major contributions in technical, general and social areas. The results are found very beneficial to the parents, teachers and the institutions. They are able to diagnose the child’s problem at an early stage and can go for the proper treatments/counseling at the correct time so as to avoid the academic and social losses.
Resumo:
With the advent of satellite communication and radio astronomy, the need for large and efficient reflector antennas had triggered a widespread investigation in reflector feed design techniques. Major improvements sought are reduction in spill-over, cross polarization losses and the enhancement of aperture efficiency. The search for such a feed culminated in the corrugated horn. The main idea behind the present work is to use the H-plane sectoral horns fitted with,corrugated flanges as feeds of a paraboloid and see how the secondary pattern of the reflector antenna varies with different parameters of the feed. An offset paraboloid is used as the secondary reflector in order to avoid the adverse effect of aperture ‘blocking by the feed horn structure on the secondary radiation pattern. The measurements were repeated for three different H-plane sectoral horns with the same set of corrugated flanges at various X-band frequencies. The following parameters of the whole system are studied: (a) Beam shaping. (b) Gain. (c) Variation of VSWR and (d) Cross polarization