823 resultados para Sophisticated voting
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
Les domaines de transactivation (TAD) acides sont présents dans plusieurs protéines oncogéniques, virales et dans des facteurs de différenciation de cellules souches. Ces domaines acides contrôlent la transcription à travers une myriade d’interactions avec divers partenaires ce qui provoque l’activation de la transcription ou leur propre élimination. Cependant, dans la dernière décennie, de plus en plus de recherches ont démontré que les TAD possédaient un sous-domaine activation/dégradation (DAD) responsable pour une fonction d'activation de la transcription dépendante de la dégradation de la protéine. Un tel phénomène peut être accompli par plusieurs moyens tels que des modifications post-traductionnelles, l’association à des cofacteurs ou la formation d’un réseau d’interaction complexe en chaînes. Or, aucune preuve concrète n’a pu clairement démontrer le fonctionnement de la dépendance paradoxale entre ces deux fonctions sur un activateur de transcription. Le DAD, a été observé dans plusieurs facteurs de transcription incluant la protéine suppresseur de tumeur p53 et le facteur de différenciation érythrocyte EKLF. Un aspect particulier des DAD est que la composition de leur séquence d’acide aminé est fortement similaire à celle des domaines de liaison à l’ubiquitine (UBD) qui jouent un rôle clé dans le contrôle de la transcription à travers leur interaction non-covalente avec l’ubiquitine. Ainsi, dans ce mémoire, nous avons étudié la possibilité que les TAD acides soient capables d’agir comme UBD pour réguler leur fonction paradoxale à travers des interactions non-covalentes avec l’ubiquitine. L’analyse est faite en utilisant la résonnance magnétique nucléaire (RMN) ainsi qu’avec des essais fonctionnels de dégradation. En somme, cette étude amène une plus grande compréhension des protéines impliquées dans le contrôle des TAD et caractérise le tout premier exemple de TAD capable d’interagir avec l’ubiquitine.
Resumo:
Les développements technologiques et la mondialisation ont permis aux gens d’avoir accès à l’information plus facilement et rapidement que jamais, provoquant ainsi des changements importants dans le milieu juridique qui doit s’adapter à la nouvelle clientèle sophistiquée et exigeante. Dans ce travail, nous nous penchons sur certains aspects devant être considérés par les avocats modernes assistant leur clientèle dans le cadre des transactions d’acquisition et de fusion.
Resumo:
La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.
Resumo:
La Seconde Guerre mondiale était riche en possibilités d’avancement pour la population noire. Les leaders afro-américains, conscients du caractère favorable du contexte, mirent sur pied de nouvelles stratégies afin d’optimiser les gains afro-américains. L’économie de guerre favorisa les migrations internes vers les centres industriels du Nord et de l’Ouest. Les migrants noirs s’extirpaient donc du carcan contraignant du Sud où ils étaient régulièrement privés de leur droit de vote. Les leaders noirs brandirent alors un nouvel outil pour faire pression sur les deux principaux partis politiques fédéraux : le nouveau poids électoral afro-américain. La période fut aussi marquée par une hausse de l’activisme noir. Celui-ci se voyait légitimé par les idéaux de liberté et de démocratie prétendument défendus par les États-Unis. Finalement, le plein-emploi permit l’essor du statut économique noir et les leaders afro-américains tentèrent d’exploiter cette conjoncture particulière afin d’en faire bénéficier leur communauté à long terme.
Resumo:
Cette thèse examine les théories politiques profanes qui sont mises de l’avant dans les articles et les reportages des journalistes politiques. Par «théories profanes», nous entendons les constructions intellectuelles informelles qui aident les journalistes à appréhender et à concevoir la vie politique. Nous les définissons ici par opposition aux théories scientifiques des universitaires. Ces théories sont examinées sous trois angles différents, au travers de trois articles scientifiques distincts. Notre principal objectif est de déterminer dans quelle mesure et pour quelles raisons les théories journalistiques profanes convergent ou divergent des théories universitaires scientifiques. Au premier chapitre, nous nous demandons ce que les journalistes font, en nous attardant aux critères sur lesquels ces derniers s’appuient pour analyser la personnalité des chefs de partis politiques. Plus précisément, nous cherchons à savoir si les journalistes tiennent compte des considérations politiques jugées importantes par les citoyens. Afin d’atteindre cet objectif, nous réalisons une analyse de contenu des reportages diffusés dans les grands bulletins d’information télévisés au sujet de l’ex-chef du Parti québécois, André Boisclair. Au second chapitre, nous poussons notre réflexion un cran plus loin en nous demandant ce que les journalistes disent précisément dans les théories qu’ils développent. Pour ce faire, nous examinons les théories développées par les journalistes pour expliquer le comportement des parlementaires. De manière spécifique, nous contrastons les théories académiques de la dissidence politique avec ce qui s’est écrit dans les grands journaux canadiens à l’occasion de quatre votes particulièrement serrés ayant eu lieu à la Chambre des communes à propos de la prolongation de la mission canadienne en Afghanistan et de l’abolition du registre des armes d’épaule. Enfin, nous nous attardons à ce que les journalistes pensent de leurs propres théories, en les interrogeant sur les raisons qui les poussent à mettre ces dernières de l’avant et sur la manière dont ils s’y prennent pour les développer. Nous nous attardons aux mécanismes qui rythment la pensée des journalistes et nous portons notre regard sur les matériaux dont ceux-ci se servent pour construire les théories qu’ils incluent dans leurs reportages. Pour ce faire, nous réalisons des entrevues semi-dirigées avec des journalistes politiques affectés à la couverture de l’élection présidentielle française de 2012. Nos questions portent notamment sur le chemin intellectuel qu’ils parcourent lorsqu’ils tentent de comprendre et d’expliquer le comportement des politiciens, ainsi que sur la façon dont ils conçoivent les campagnes électorales et le rôle qu’ils sont appelés à jouer à l’intérieur de celles-ci. Nos conclusions sont à l’effet que les journalistes construisent bel et bien des théories profanes de la vie politique afin d’aller au-delà des simples comptes rendus factuels et de répondre à ce qu’ils considèrent être une nécessité de leur travail. Les théories qu’ils mettent de l’avant tiennent compte des considérations politiques jugées importantes par les électeurs, et elles ont des traits communs avec certaines des idées sous-tendues par les théories scientifiques des universitaires. Ces théories s’articulent autour des observations que font les journalistes, et des conversations auxquelles ils prennent part ou dont ils sont témoins. Elles reflètent la plupart du temps l’expérience ou le vécu du journaliste. Les théories journalistiques profanes se distinguent toutefois des théories scientifiques en ce qu’elles ne sont ni formalisées, ni explicitement nommées. Elles n’ont pas la sophistication des théories universitaires, et elles sont parfois reléguées à l’arrière-plan de la couverture médiatique au bénéfice d’aspects plus théâtraux de la vie politique. Les journalistes développent par contre des mécanismes pour valider leurs théories. La contribution de cette thèse à l’avancement des connaissances se manifeste sur les plans conceptuel, théorique et empirique. Sur le plan conceptuel, nous étayons davantage le concept des théories journalistiques. Notre thèse permet de mieux comprendre la couverture médiatique de la politique, en mettant en lumière un de ses aspects jusqu’ici négligé par les politologues, soit le fait que les journalistes construisent et utilisent des théories politiques qui leur sont propres pour appréhender l’univers au sein duquel ils évoluent. Sur le plan théorique, nous faisons ressortir les objectifs et les impératifs qui guident les journalistes qui développent ces théories. Enfin, sur le plan empirique, nous donnons pour une rare fois l’occasion aux journalistes de s’exprimer sur la manière dont ils perçoivent leur propre travail.
Resumo:
Tout en voulant inclure la fiction télévisuelle brésilienne parmi les fictions de qualité, cette recherche analyse l’émergence et l’évolution du concept de qualité dans le panorama télévisuel brésilien. Examinant l’histoire de la télédramaturgie au Brésil, depuis les téléthéâtres jusqu’aux microséries réalisées par Luiz Fernando Carvalho, en particulier la microsérie Capitu (2008), nous suggérons que la production fictionnelle brésilienne a atteint un niveau de qualité sophistiquée et avant-gardiste qui illustre une alternative au style préconisé par la formule des séries télévisées américaines qui se regroupent sous l’étiquette de la Quality TV. De plus, le raffinement de la microsérie contribue à la légitimation de la valeur artistique de la télévision à partir de caractéristiques télévisuelles, contrairement à la production fictionnelle américaine dont l’esthétique plutôt cinématographique finit par discréditer davantage le petit écran. Finalement, nous souhaitons démontrer l’importance des innovations esthétiques que cette microsérie a apportées au sein d’une sphère médiatique qui semble se diriger progressivement et rapidement vers l’uniformisation du langage télévisuel et de son contenu.
Resumo:
Beaucoup d'efforts dans le domaine des matériaux polymères sont déployés pour développer de nouveaux matériaux fonctionnels pour des applications spécifiques, souvent très sophistiquées, en employant des méthodes simplifiées de synthèse et de préparation. Cette thèse porte sur les polymères photosensibles – i.e. des matériaux fonctionnels qui répondent de diverses manières à la lumière – qui sont préparés à l'aide de la chimie supramoléculaire – i.e. une méthode de préparation qui repose sur l'auto-assemblage spontané de motifs moléculaires plus simples via des interactions non covalentes pour former le matériau final désiré. Deux types de matériaux photosensibles ont été ciblés, à savoir les élastomères thermoplastiques à base de copolymères à blocs (TPE) et les complexes d'homopolymères photosensibles. Les TPEs sont des matériaux bien connus, et même commercialisés, qui sont généralement composés d’un copolymère tribloc, avec un bloc central très flexible et des blocs terminaux rigides qui présentent une séparation de phase menant à des domaines durs isolés, composés des blocs terminaux rigides, dans une matrice molle formée du bloc central flexible, et ils ont l'avantage d'être recyclable. Pour la première fois, au meilleur de notre connaissance, nous avons préparé ces matériaux avec des propriétés photosensibles, basé sur la complexation supramoléculaire entre un copolymère tribloc simple parent et une petite molécule possédant une fonctionnalité photosensible via un groupe azobenzène. Plus précisément, il s’agit de la complexation ionique entre la forme quaternisée d'un copolymère à blocs, le poly(méthacrylate de diméthylaminoéthyle)-poly(acrylate de n-butyle)-poly(méthacrylate de diméthylaminoéthyle) (PDM-PnBA-PDM), synthétisé par polymérisation radicalaire par transfert d’atomes (ATRP), et l'orange de méthyle (MO), un composé azo disponible commercialement comportant un groupement SO3 -. Le PnBA possède une température de transition vitreuse en dessous de la température ambiante (-46 °C) et les blocs terminaux de PDM complexés avec le MO ont une température de transition vitreuse élevée (140-180 °C, en fonction de la masse molaire). Des tests simples d'élasticité montrent que les copolymères à blocs complexés avec des fractions massiques allant de 20 à 30% présentent un caractère élastomère. Des mesures d’AFM et de TEM (microscopie à force atomique et électronique à ii transmission) de films préparés à l’aide de la méthode de la tournette, montrent une corrélation entre le caractère élastomère et les morphologies où les blocs rigides forment une phase minoritaire dispersée (domaines sphériques ou cylindriques courts). Une phase dure continue (morphologie inversée) est observée pour une fraction massique en blocs rigides d'environ 37%, ce qui est beaucoup plus faible que celle observée pour les copolymères à blocs neutres, dû aux interactions ioniques. La réversibilité de la photoisomérisation a été démontrée pour ces matériaux, à la fois en solution et sous forme de film. La synthèse du copolymère à blocs PDM-PnBA-PDM a ensuite été optimisée en utilisant la technique d'échange d'halogène en ATRP, ainsi qu’en apportant d'autres modifications à la recette de polymérisation. Des produits monodisperses ont été obtenus à la fois pour la macroamorceur et le copolymère à blocs. À partir d'un seul copolymère à blocs parent, une série de copolymères à blocs partiellement/complètement quaternisés et complexés ont été préparés. Des tests préliminaires de traction sur les copolymères à blocs complexés avec le MO ont montré que leur élasticité est corrélée avec la fraction massique du bloc dur, qui peut être ajustée par le degré de quaternisation et de complexation. Finalement, une série de complexes d'homopolymères auto-assemblés à partir du PDM et de trois dérivés azobenzènes portant des groupes (OH, COOH et SO3) capables d'interactions directionnelles avec le groupement amino du PDM ont été préparés, où les dérivés azo sont associés avec le PDM, respectivement, via des interactions hydrogène, des liaisons ioniques combinées à une liaison hydrogène à travers un transfert de proton (acidebase), et des interactions purement ioniques. L'influence de la teneur en azo et du type de liaison sur la facilité d’inscription des réseaux de diffraction (SRG) a été étudiée. L’efficacité de diffraction des SRGs et la profondeur des réseaux inscrits à partir de films préparés à la méthode de la tournette montrent que la liaison ionique et une teneur élevée en azo conduit à une formation plus efficace des SRGs.
Resumo:
Depuis une trentaine d’années, les citoyens des démocraties libérales boudent les isoloirs, souvent dépités par le manque d’impact de leur geste sur leur environnement (Sandel, 2012; Putnam, 2000). Plutôt que d’abandonner la sphère publique, plusieurs d’entre eux ont choisi de l’investir autrement. C’est ainsi que le monde occidental a connu un essor certain de la participation publique. Contrairement au vote, le citoyen est ici invité à prendre la parole, mais aussi à écouter les opinions des autres participants. Il se retrouve donc investi d’un rôle bien plus complexe sans être nécessairement doté des outils lui permettant d’accomplir la mission. Cette étude se penche sur le processus de l’écoute en consultation publique et vise à en déplier les mécanismes. Il s’agit d’observer comment s’exprime l’écoute en consultation publique, en dressant une typologie des marqueurs d’écoute et des sollicitations à l’écoute pour en étudier le fonctionnement. L’étude révèle qu’une écoute attentive peut se transformer en une écoute plus engagée quand une négociation mesurée de l’écoute prend place. Pour cela, chacun des acteurs doit être conscient de lui-même mais aussi de l’autre, du rôle de l’autre et du but final de la consultation. L’écoute engagée privilégie le partage d’autorité et auteurité nécessaire à la co-construction d’un discours entre tous les acteurs, une écoute qui se matérialise par le rapport que la commission remet aux preneurs de décision. La légitimité de ce rapport dépend du travail en amont entre les acteurs et, entre autres, de leur capacité à s’écouter, au delà de la dimension discursive. Le type d’écoute mis en œuvre contribue à inférer une légitimité à la consultation publique.
Resumo:
Alors que l’intérêt pour les processus d’intégration des immigrants et des minorités ethniques est en pleine croissance parmi les chercheurs européens, les facteurs qui expliquent les différentes formes de participation civique et politique doivent être examinés plus en profondeur. Prenant pour base la littérature sur l’immigration, cette étude examine la question de recherche suivante: Comment peut-on expliquer les variations des formes de participation civique et politique des activistes issus de l’immigration au niveau local? Afin de répondre à cette question, cette étude identifie les formes de participation de la part d’activistes issus de l’immigration dans quatre villes Italiennes et examine les discours et les pratiques de multiples acteurs impliqués dans le domaine de l’immigration dans un contexte national d’hostilité croissante. Cette thèse soutient que pour comprendre différentes formes de participation, il est important de considérer non seulement l’État et les acteurs institutionnels, mais aussi les acteurs non-institutionnels et examiner comment ces derniers influencent les opportunités ainsi que les restrictions à la participation. Par ailleurs, cette recherche examine les canaux conventionnels et non-conventionnels dans quatre villes italiennes et étudie les activistes issus de l’immigration comme des acteurs politiques pertinents, capables de se mobiliser et d’influencer la participation à travers leur interaction et alliances avec les acteurs de la société d’accueil. Cette recherche a permis de produire trois résultats. Le premier montre que les approches d’intégration adoptées par les acteurs sont importantes. Cette étude a identifié trois approches d’intégration: 1) « welfariste », basée sur l’idée que les immigrants sont dans le besoin et doivent donc recevoir des services; 2) interculturelle, basée sur l’idée que les immigrants sont de futurs citoyens et que l’intégration est réciproque; 3) promotion des droits politiques, basée sur l’idée que les immigrants ont des droits politiques fondamentaux ; et qui encourage l’ouverture des canaux de participation politique, surtout aux immigrants privés du droit de vote local. L’analyse empirique démontre que, alors que l’approche welfariste n’encourage pas la participation parce qu’elle conçoit les immigrants comme des acteurs passifs, les autres deux approches ont respectivement un impact sur les formes de participation civique et politique. La deuxième conclusion souligne le rôle des acteurs de gauche. En particulier, cette étude montre que les acteurs qui ouvrent de canaux pour la participation ne sont pas uniquement les acteurs de gauche modérée, comme les autorités locales, les partis politiques et les syndicats, mais aussi les groupes de gauche radicale et non-institutionnelle. Chaque acteur de gauche comprend et agit différemment par rapport aux sujets de l’immigration et de la participation et ce fait influence comment les activistes issues de l’immigration se mobilisent. La troisième conclusion met en évidence le rôle de la perception des opportunités par les activistes issus de l’immigration et la façon avec laquelle ils s’approprient les discours et les pratiques des acteurs de gauche. Ce travail démontre que l’ouverture de canaux est possible grâce à l’engagement de personnes issues de l’immigration qui agissent à travers les opportunités qui leurs sont offertes, créent des alliances avec la gauche et défient les discours et pratiques des acteurs locaux.
Resumo:
Instead of developing easily degradable, and low-priced insecticides, we are going after highly sophisticated chemicals. Here, an attempt is being made to develop safer formulations of insecticides of botanical origin. Different parts of the plants were chosen based on their use in countryside and villages The dried plant materials were extracted with petroleum ether, and were applied on Tribolium castaneum. The results were statistically analysed. The active principles from Croton tigilium and Leea sambucina, the most potential plants, were isolated using Column Chromatography, TLC, and Hydrolysis. The isolated principles were analysed spectroscopically ( UV-Vis., IR, NMR, and MS ) to identify their chemical nature. The active principles from Leea and Croton were identified as a cholisterate derivative and a phorbol derivative respectively. In order to ascertain the environmental combatibility of the principles, degradation by soil bacteria was studied. The isolated principles were made into three type of formulations using stabilizers .The formulations were applied on Snake gourd semilooper, Pulse beetle, and mosquito larvae. Also the biocidal activity of the formulations was studied. Both Leea derivative and Croton derivative could be formulated effectively and were effective against a variety of pests. They are eco-friendly, as there is no artificial chemicals involved.
Resumo:
Magnetism and magnetic materials have been an ever-attractive subject area for engineers and scientists alike because of its versatility in finding applications in useful devices. They find applications in a host of devices ranging from rudimentary devices like loud speakers to sophisticated gadgets like waveguides and Magnetic Random Access Memories (MRAM).The one and only material in the realm of magnetism that has been at the centre stage of applications is ferrites and in that spinel ferrites received the lions share as far as practical applications are concerned.It has been the endeavour of scientists and engineers to remove obsolescence and improve upon the existing so as to save energy and integrate in to various other systems. This has been the hallmark of material scientists and this has led to new materials and new technologies.In the field of ferrites too there has been considerable interest to devise new materials based on iron oxides and other compounds. This means synthesising ultra fine particles and tuning its properties to device new materials. There are various preparation techniques ranging from top- down to bottom-up approaches. This includes synthesising at molecular level, self assembling,gas based condensation. Iow temperature eo-precipitation, solgel process and high energy ball milling. Among these methods sol-gel process allows good control of the properties of ceramic materials. The advantage of this method includes processing at low temperature. mixing at the molecular level and fabrication of novel materials for various devices.Composites are materials. which combine the good qualities of one or more components. They can be prepared in situ or by mechanical means by the incorporation of fine particles in appropriate matrixes. The size of the magnetic powders as well as the nature of matrix affect the processability and other physical properties of the final product. These plastic/rubber magnets can in turn be useful for various applications in different devices. In applications involving ferrites at high frequencies, it is essential that the material possesses an appropriate dielectric permittivity and suitable magnetic permeability. This can be achieved by synthesizing rubber ferrite composites (RFC's). RFCs are very useful materials for microwave absorptions. Hence the synthesis of ferrites in the nanoregirne.investigations on their size effects on the structural, magnetic, and electrical properties and the incorporation of these ferrites into polymer matrixes assume significance.In the present study, nano particles of NiFe204, Li(!5Fe2S04 and Col-e-O, are prepared by sol gel method. By appropriate heat treatments, particles of different grain sizes are obtained. The structural, magnetic and electrical measurements are evaluated as a function of grain size and temperature. NiFel04 prepared in the ultrafine regime are then incorporated in nitrile rubber matrix. The incorporation was carried out according to a specific recipe and for various loadings of magnetic fillers. The cure characteristics, magnetic properties, electrical properties and mechanical properties of these elastomer blends are carried out. The electrical permittivity of all the rubber samples in the X - band are also conducted.
Resumo:
The theme of the thesis is centred around one important aspect of wireless sensor networks; the energy-efficiency.The limited energy source of the sensor nodes calls for design of energy-efficient routing protocols. The schemes for protocol design should try to minimize the number of communications among the nodes to save energy. Cluster based techniques were found energy-efficient. In this method clusters are formed and data from different nodes are collected under a cluster head belonging to each clusters and then forwarded it to the base station.Appropriate cluster head selection process and generation of desirable distribution of the clusters can reduce energy consumption of the network and prolong the network lifetime. In this work two such schemes were developed for static wireless sensor networks.In the first scheme, the energy wastage due to cluster rebuilding incorporating all the nodes were addressed. A tree based scheme is presented to alleviate this problem by rebuilding only sub clusters of the network. An analytical model of energy consumption of proposed scheme is developed and the scheme is compared with existing cluster based scheme. The simulation study proved the energy savings observed.The second scheme concentrated to build load-balanced energy efficient clusters to prolong the lifetime of the network. A voting based approach to utilise the neighbor node information in the cluster head selection process is proposed. The number of nodes joining a cluster is restricted to have equal sized optimum clusters. Multi-hop communication among the cluster heads is also introduced to reduce the energy consumption. The simulation study has shown that the scheme results in balanced clusters and the network achieves reduction in energy consumption.The main conclusion from the study was the routing scheme should pay attention on successful data delivery from node to base station in addition to the energy-efficiency. The cluster based protocols are extended from static scenario to mobile scenario by various authors. None of the proposals addresses cluster head election appropriately in view of mobility. An elegant scheme for electing cluster heads is presented to meet the challenge of handling cluster durability when all the nodes in the network are moving. The scheme has been simulated and compared with a similar approach.The proliferation of sensor networks enables users with large set of sensor information to utilise them in various applications. The sensor network programming is inherently difficult due to various reasons. There must be an elegant way to collect the data gathered by sensor networks with out worrying about the underlying structure of the network. The final work presented addresses a way to collect data from a sensor network and present it to the users in a flexible way.A service oriented architecture based application is built and data collection task is presented as a web service. This will enable composition of sensor data from different sensor networks to build interesting applications. The main objective of the thesis was to design energy-efficient routing schemes for both static as well as mobile sensor networks. A progressive approach was followed to achieve this goal.
Resumo:
Shrimp Aquaculture has provided tremendous opportunity for the economic and social upliftment of rural communities in the coastal areas of our country Over a hundred thousand farmers, of whom about 90% belong to the small and marginal category, are engaged in shrimp farming. Penaeus monodon is the most predominant cultured species in India which is mainly exported to highly sophisticated, quality and safety conscious world markets. Food safety has been of concem to humankind since the dawn of history and the concern about food safety resulted in the evolution of a cost effective, food safety assurance method, the Hazard Analysis Critical Control Point (HACCP). Considering the major contribution of cultured Penaeus monodon to the total shrimp production and the economic losses encountered due to disease outbreak and also because traditional methods of quality control and end point inspection cannot guarantee the safety of our cultured seafood products, it is essential that science based preventive approaches like HACCP and Pre requisite Programmes (PRP) be implemented in our shrimp farming operations. PRP is considered as a support system which provides a solid foundation for HACCP. The safety of postlarvae (PL) supplied for brackish water shrimp farming has also become an issue of concern over the past few years. The quality and safety of hatchery produced seeds have been deteriorating and disease outbreaks have become very common in hatcheries. It is in this context that the necessity for following strict quarantine measures with standards and code of practices becomes significant. Though there were a lot of hue and cry on the need for extending the focus of seafood safety assurance from processing and exporting to the pre-harvest and hatchery rearing phases, an experimental move in this direction has been rare or nil. An integrated management system only can assure the effective control of the quality, hygiene and safety related issues. This study therefore aims at designing a safety and quality management system model for implementation in shrimp farming and hatchery operations by linking the concepts of HACCP and PRP.
Resumo:
Data centre is a centralized repository,either physical or virtual,for the storage,management and dissemination of data and information organized around a particular body and nerve centre of the present IT revolution.Data centre are expected to serve uniinterruptedly round the year enabling them to perform their functions,it consumes enormous energy in the present scenario.Tremendous growth in the demand from IT Industry made it customary to develop newer technologies for the better operation of data centre.Energy conservation activities in data centre mainly concentrate on the air conditioning system since it is the major mechanical sub-system which consumes considerable share of the total power consumption of the data centre.The data centre energy matrix is best represented by power utilization efficiency(PUE),which is defined as the ratio of the total facility power to the IT equipment power.Its value will be greater than one and a large value of PUE indicates that the sub-systems draw more power from the facility and the performance of the data will be poor from the stand point of energy conservation. PUE values of 1.4 to 1.6 are acievable by proper design and management techniques.Optimizing the air conditioning systems brings enormous opportunity in bringing down the PUE value.The air conditioning system can be optimized by two approaches namely,thermal management and air flow management.thermal management systems are now introduced by some companies but they are highly sophisticated and costly and do not catch much attention in the thumb rules.