947 resultados para Specifications


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur les mécanismes de relaxation et de fuite des excitons dans des systèmes de boîtes quantiques(BQs) d’InAs/InP. Les systèmes sont composés d’un sub- strat volumique d’InP, appelé matrice (M), d’un puits quantique d’InAs, nommé couche de mouillage (CM), et des familles de BQs d’InAs. La distinction entre les familles est faite par le nombre de monocouche d’épaisseur des boîtes qui sont beaucoup plus larges que hautes. Une revue de littérature retrace les principaux mécanismes de relaxation et de fuite des excitons dans les systèmes. Ensuite, différents modèles portant sur la fuite thermique des excitons des BQs sont comparés. Les types de caractérisations déjà produites et les spécifications des croissances des échantillons sont présentés. L’approche adoptée pour ce mémoire a été de caractériser temporellement la dynamique des BQs avec des mesures d’absorbtion transitoire et de photoluminescence résolue en temps (PLRT) par addition de fréquences. L’expérience d’absorption transitoire n’a pas fait ressortir de résultats très probants, mais elle est expliquée en détails. Les mesures de PLRT ont permis de suivre en température le temps de vie effectif des excitons dans des familles de BQs. Ensuite, avec un modèle de bilan détaillé, qui a été bien explicité, il a été possible d’identifier le rôle de la M et de la CM dans la relaxation et la fuite des excitons dans les BQs. Les ajustements montrent plus précisément que la fuite de porteurs dans les BQs se fait sous la forme de paires d’électrons-trous corrélées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complexité de la tâche qu’est la lecture du français en interaction avec les caractéristiques de la personne qui a un retard de deux ans en lecture, la population cible de cette recherche, place cette dernière en situation d’échec. Tous les processus impliqués dans l’acte de lire en interaction avec ces caractéristiques induisent des échecs et des retards d’apprentissage de la lecture. L’enseignant, qui souhaite utiliser un manuel scolaire tout en intégrant un élève de 3e année ne sachant toujours pas lire, a deux choix : lui offrir un manuel de 1re année, un manuel de 3e année ou adapter lui-même son matériel. Si l’enseignant lui remet un manuel de 1re année, l’élève vit des réussites, mais les thèmes sont infantilisants. Si l’enseignant remet un manuel de 3e année à ce même élève, les thèmes ne sont pas infantilisants, mais le niveau en lecture place ce dernier systématiquement en situation d’échec. Si l’enseignant adapte lui-même le matériel, l’entreprise est grande en charge de travail pour ce dernier. En réponse à ce dilemme, le Groupe DÉFI Accessibilité (GDA) a conçu des manuels scolaires adaptés. Ils sont, à première vue, identiques à la version originale Signet (3e année), mêmes thèmes, mêmes titres, mêmes numéros de pages, mêmes illustrations et mêmes réponses aux deux premières questions de chaque page, mais les textes sont simplifiés afin de permettre la lecture à l’élève de 3e année qui a deux ans de retard dans cette matière. En accord avec une stratégie de design inclusif, la simplification des manuels par le GDA a été réalisée en fonction des caractéristiques d’un groupe de référence reconnu pour avoir de grandes difficultés d’apprentissage de la lecture, soit des élèves qui ont des incapacités intellectuelles (Langevin, Rocque, Ngongang et Chaghoumi, 2012). L’objet de cette thèse est le calcul de la productivité et de l’efficience de ces manuels scolaires adaptés auprès d’élèves qui ont deux années de retard en lecture, la population cible. La méthodologie utilisée pour cette recherche est l’analyse de la valeur pédagogique, une méthode systématique de développement et d’évaluation de produits, procédés ou services, adaptée de l’ingénierie. Cette recherche a pour objet la troisième et dernière phase de l’analyse de la valeur pédagogique, soit l’évaluation des manuels scolaires adaptés. En analyse de la valeur pédagogique, comme pour cette recherche, la mise à l’essai a deux objectifs : comparer le prototype créé au cahier des charges fonctionnel regroupant toutes les fonctions que devrait remplir le produit pour répondre aux besoins de ses utilisateurs potentiels et calculer la productivité/efficience. Puisqu’il s’agit d’une première mise à l’essai, un troisième objectif est ajouté, soit la proposition de pistes d’amélioration au prototype de manuels scolaires adaptés. La mise à l’essai s’est échelonnée sur six mois. L’échantillon regroupe quatre enseignantes de 3e année, deux en classes spéciales et deux en classes régulières. Ces dernières enseignent à 32 élèves utilisateurs des manuels scolaires adaptés : six sont dyslexiques, quatre ont une connaissance insuffisante de la langue française, un a un trouble envahissant du développement avec incapacités intellectuelles et 21 ont des incapacités intellectuelles légères. Les résultats sont présentés sous la forme de trois articles. Les quatre enseignantes ont confirmé la réponse des manuels scolaires adaptés au cahier des charges fonctionnel. De plus, la phase de conception a été jugée efficiente et la phase d’utilisation productive. Il n’y a pas de modification à faire aux manuels scolaires adaptés. Par contre, le guide d’utilisateur doit être modifié, puisque l’outil n’a pas été utilisé tel qu’il était prévu par l’équipe de conception.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous investiguons dans ce travail la création d'échantillons permettant l'étude du comportement des polaritons excitoniques dans les matériaux semi-conducteurs organiques. Le couplage fort entre les états excités d'électrons et des photons impose la création de nouveaux états propres dans le milieu. Ces nouveaux états, les polaritons, ont un comportement bosonique et sont donc capables de se condenser dans un état fortement dégénéré. Une occupation massive de l'état fondamental permet l'étude de comportements explicables uniquement par la mécanique quantique. La démonstration, au niveau macroscopique, d'effets quantiques promet d'éclairer notre compréhension de la matière condensée. De plus, la forte localisation des excitons dans les milieux organiques permet la condensation des polaritons excitoniques organiques à des températures beaucoup plus hautes que dans les semi-conducteurs inorganiques. À terme, les échantillons proposés dans ce travail pourraient donc servir à observer une phase cohérente macroscopique à des températures facilement atteignables en laboratoire. Les cavités proposées sont des résonateurs Fabry-Perot ultraminces dans lesquels est inséré un cristal unique d'anthracène. Des miroirs diélectriques sont fabriqués par une compagnie externe. Une couche d'or de 60 nanomètres est ensuite déposée sur leur surface. Les miroirs sont ensuite mis en contact, or contre or, et compressés par 2,6 tonnes de pression. Cette pression soude la cavité et laisse des espaces vides entre les lignes d'or. Une molécule organique, l'anthracène, est ensuite insérée par capillarité dans la cavité et y est cristallisée par la suite. Dans leur état actuel, les cavités présentent des défauts majeurs quant à la planarité des miroirs et à l'uniformité des cristaux. Un protocole détaillé est présenté et commenté dans ce travail. Nous y proposons aussi quelques pistes pour régler les problèmes courants de l'appareil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la cytokinèse, le génome dédoublé est compartimentalisé en deux cellules filles. L’anneau contractile, une structure dynamique, est constitué d’actine, myosine (NMY-II) et d’autres protéines accessoires. NMY-2 est le seul moteur protéique impliqué dans la contraction de l’anneau durant la cytokinèse. Depuis longtemps, il a été considéré que celle-ci glissait le long des filaments d’actine grâce à sa capacité de traction. Récemment, plusieurs études ont découvert que son activité réticulante joue un rôle en cytokinèse et il est connu que la NMY-2 peut s’assembler en filaments bipolaires à partir de dimères. Ainsi, nous postulons que leur dimension (nombre de moteurs ATPasiques) pourrait dicter leur contribution en activité motrice et réticulante. Afin de déterminer la composition des filaments corticaux de NMY-2, nous avons utilisé une technique d'imagerie de molécules individuelles à l’aide de la microscopie TIRF. J’ai trouvé à travers l’analyse statistique de la distribution des NMY-2 mesurés que les filaments sont assemblés à deux dimensions constantes: Des filaments composés de 20 dimères et 30 dimères. La kinase Rho est une activatrice de NMY-2 nécessaire pour les niveaux physiologiques de NMY-2 sur l’anneau contractile, pour des cinétiques et fermeture concentrique de l’anneau. La déplétion de RhoK augmente l’abondance relative des filaments de 20 dimères. Ainsi, RhoK pourrait réguler le recrutement de la NMY et aussi l’assemblage des filaments corticaux de NMY-2. De plus, à l’aide de la microscopie confocale à temps réel, j’ai trouvé que lors de la déplétion de RhoK, il se produit une réduction du recrutement et du délai d’initiation du sillon, une fermeture lente et une augmentation significative de la concentricité de l’anneau. De plus, j’ai mesuré des défauts dans l’organisation corticale de l’anneau contractile en patch. La déplétion de MRCK-1 n’affecte pas l’initiation du sillon, les cinétiques de fermeture, ou la fermeture concentrique de l’anneau. Paradoxalement, la déplétion de MRCK-1 augmente le recrutement cortical de NMY-2, mais quand depleté simultanément avec Rho-K il diminue NMY-2 à l’équateur comparé à la déplétion seule de Rho-K. De plus, la double déplétion, conduit à un phénotype de concentricité de l’anneau, suivie d’un recentrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tests PAMPA et les tests Caco-2 sont des essais in vitro de l’évaluation de la perméabilité intestinale des médicaments. Ils sont réalisés lors de la phase de découverte du médicament. Les tests PAMPA ne sont pas biologiquement représentatifs de la paroi intestinale, mais ils sont rapides et peu coûteux. Les tests Caco-2 nécessitent plus de 21 jours pour la culture cellulaire et des installations spécifiques sont requises. Ils sont constitués d’une monocouche d’entérocytes à confluence et donc plus biologiquement représentatifs. Il y a un besoin pour le développement d’un essai qui est biologiquement représentatif de la membrane intestinale humaine, rapide et peu coûteux. Le premier but de ce projet était de développer une méthode analytique qui permettrait l’évaluation simultanée de huit médicaments témoins utilisés pour la validation de l’essai de perméabilité. Le deuxième but de ce projet était donc d’améliorer la membrane des tests PAMPA pour proposer un nouveau test : le néoPAMPA. Contrairement au test PAMPA traditionnel, cette membrane est constituée de trois composantes : (1) un filtre poreux qui agit à titre de support, (2) un coussin polydopamine chargé négativement qui sert d’ancrage et qui assure la fluidité de la bicouche et (3) une bicouche lipidique formée par fusion de vésicules. Une méthode analytique HPLC-MS/MS a été validée selon les spécifications de la FDA et de la EMA. Cette méthode a permis de quantifier simultanément les huit médicaments standards utilisés pour le test néoPAMPA. Le test PAMPA traditionnel a été mis en place à titre d’essai control. Les coefficients de perméabilité mesurés pour les huit médicaments au travers de la membrane PAMPA comparaient favorablement aux résultats de la littérature. Les composantes de la membrane néoPAMPA ont été optimisées. Les conditions optimales retenues étaient les filtres de polycarbonate hydrophile ayant des pores de 15 nm, les plaques Costar 12 puits comme dispositif des tests de perméabilité, une bicouche lipidique composée de 70 % DOPC et de 30 % cholestérol cationique ainsi qu’une déposition des liposomes en présence de 150 mM NaCl suivi d’un équilibre d’1 h en présence d’une solution saturée en DOPC. Les stabilités de la cassette de médicaments et des liposomes sont insuffisantes pour le conditionnement commercial des membranes néoPAMPA. Les différentes optimisations réalisées ont permis d’améliorer la membrane néoPAMPA sans toutefois la rendre fonctionnelle. La membrane néoPAMPA n’est toujours pas en mesure de discriminer des molécules en fonction de leur perméabilité attendue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comprehensive overview of reclamation of cured rubber with special emphasis on latex reclamation is depicted in this paper. The latex industry has expanded over the years to meet the world demands for gloves, condoms, latex thread, etc. Due to the strict specifications for the products and the unstable nature of the latex as high as 15% of the final latex products are rejected. As waste latex rubber (WLR) represents a source of high-quality rubber hydrocarbon, it is a potential candidate for generating reclaimed rubber of superior quality. The role of the different components in the reclamation recipe is explained and the reaction mechanism and chemistry during reclamation are discussed in detail. Different types of reclaiming processes are described with special reference to processes, which selectively cleave the cross links in the vulcanized rubber. The state-of-the-art techniques of reclamation with special attention on latex treatment are reviewed. An overview of the latest development concerning the fundamental studies in the field of rubber recycling by means of low-molecular weight compounds is described. A mathematical model description of main-chain and crosslink scission during devulcanization of a rubber vulcanizate is also given.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The latex industry has expanded over the years to meet the world demands for gloves, condoms, latex thread etc. Because of the strict specifications for the products and the unstable nature of the latex, as high as 15%, of the final latex products are rejected. Since waste latex rubber (WLR) represents a source of high quality rubber hydrocarbon, it is a potential candidate for generating reclaimed rubber of superior quality. Two types of WLR with different amounts of polysulfidic bridges are used in these experiments, which are reclaimed with variation of the concentration of the reclaiming agents, the reclamation temperature and time, Di phenyldisultide, 2-aminophenyldisulfide and 2,2'-dibenzamidodiphenyldisulfide (DBADPDS) are used as reclaiming agents, and the effect of diphenyldisulfides (DPDS) with different substituents, on the reclamation efficiency of WLR is investigated. A kinetic study of the reclamation reaction with the three reclaiming agents is done. The reaction rates and activation energies are calculated and compared with literature values. The comparative study of the three different reclaiming agents shows that (DBADPDS) is able to break the crosslinks at temperature levels 20'C below the temperature levels normally used with DPDS. Another advantage of this reclaiming agent is the reduced smell during the reclamation process and of the final reclaims, one of the most important shortcomings of other disulfides used for this purpose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analog-to digital Converters (ADC) have an important impact on the overall performance of signal processing system. This research is to explore efficient techniques for the design of sigma-delta ADC,specially for multi-standard wireless tranceivers. In particular, the aim is to develop novel models and algorithms to address this problem and to implement software tools which are avle to assist the designer's decisions in the system-level exploration phase. To this end, this thesis presents a framework of techniques to design sigma-delta analog to digital converters.A2-2-2 reconfigurable sigma-delta modulator is proposed which can meet the design specifications of the three wireless communication standards namely GSM,WCDMA and WLAN. A sigma-delta modulator design tool is developed using the Graphical User Interface Development Environment (GUIDE) In MATLAB.Genetic Algorithm(GA) based search method is introduced to find the optimum value of the scaling coefficients and to maximize the dynamic range in a sigma-delta modulator.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sharing of information with those in need of it has always been an idealistic goal of networked environments. With the proliferation of computer networks, information is so widely distributed among systems, that it is imperative to have well-organized schemes for retrieval and also discovery. This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron.The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.Most of the distributed systems of the nature of ECRS normally will possess a "fragile architecture" which would make them amenable to collapse, with the occurrence of minor faults. This is resolved with the help of the penta-tier architecture proposed, that contained five different technologies at different tiers of the architecture.The results of experiment conducted and its analysis show that such an architecture would help to maintain different components of the software intact in an impermeable manner from any internal or external faults. The architecture thus evolved needed a mechanism to support information processing and discovery. This necessitated the introduction of the noveI concept of infotrons. Further, when a computing machine has to perform any meaningful extraction of information, it is guided by what is termed an infotron dictionary.The other empirical study was to find out which of the two prominent markup languages namely HTML and XML, is best suited for the incorporation of infotrons. A comparative study of 200 documents in HTML and XML was undertaken. The result was in favor ofXML.The concept of infotron and that of infotron dictionary, which were developed, was applied to implement an Information Discovery System (IDS). IDS is essentially, a system, that starts with the infotron(s) supplied as clue(s), and results in brewing the information required to satisfy the need of the information discoverer by utilizing the documents available at its disposal (as information space). The various components of the system and their interaction follows the penta-tier architectural model and therefore can be considered fault-tolerant. IDS is generic in nature and therefore the characteristics and the specifications were drawn up accordingly. Many subsystems interacted with multiple infotron dictionaries that were maintained in the system.In order to demonstrate the working of the IDS and to discover the information without modification of a typical Library Information System (LIS), an Information Discovery in Library Information System (lDLIS) application was developed. IDLIS is essentially a wrapper for the LIS, which maintains all the databases of the library. The purpose was to demonstrate that the functionality of a legacy system could be enhanced with the augmentation of IDS leading to information discovery service. IDLIS demonstrates IDS in action. IDLIS proves that any legacy system could be augmented with IDS effectively to provide the additional functionality of information discovery service.Possible applications of IDS and scope for further research in the field are covered.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose a method to display full complex Fresnel holograms by adding the information displayed on two analogue ferroelectric liquid crystal spatial light modulators. One of them works in real-only configuration and the other in imaginary-only mode. The Fresnel holograms are computed by backpropagating an object at a selected distance with the Fresnel transform. Then, displaying the real and imaginary parts on each panel, the object is reconstructed at that distance from the modulators by simple propagation of light. We present simulation results taking into account the specifications of the modulators as well as optical results. We have also studied the quality of reconstructions using only real, imaginary, amplitude or phase information. Although the real and imaginary reconstructions look acceptable for certain distances, full complex reconstruction is always better and is required when arbitrary distances are used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Latex protein allergy is a serious problem faced by users of natural rubber latex products. This is severe in health care workers, who are constantly using latex products like examination gloves, surgical gloves etc. Out of the total proteins only a small fraction is extractable and only these proteins cause allergic reactions in sensitized people. Enzymic deproteinisation of latex and leaching and chlorination of latex products are the common methods used to reduce the severity of the problem.Enzyme deproteinisation is a cubersome process involving high cost and process loss.Physical properties of such films are poor. Leaching is a lengthy process and in leached latex products presence of extractable proteins is observed on further storing. Chlorination causes yellowing of latex products and reduction in tensile properties.In this context a more simple process of removal of extractable proteins from latex itself was investigated. This thesis reports the application of poly propylene glycol (PPG) to displace extractable proteins from natural latex. PPG is added to 60 % centrifuged natural latex to the extent of 0.2 % m/rn, subssequently diluted to 30 % dry rubber content and again concentrated to obtain a low protein latex.Dilution of concentrated latex and subsequent concentration lead to a total reduction in non - rubber solids in the concentrate, especially proteins and reduction in the ionic concentration in the aqueous phase of the latex. It has been reported that proteins in natural rubber / latex affect its behaviour in the vulcanisation process. Ionic concentration in the aqueous phase of latex influence the stability, viscosity and flow behaviour of natural latex. Hence, a detailed technological evaluation was carried out on this low protein latex. In this study, low protein latex was compared with single centrifuged latex ( the raw material to almost every latex product), double centrifuged latex ( because dilution and second concentration of latex is accompanied by protein removal to some extent and reduction in the ionic concentration of the aqueous phase of latex.). Studies were conducted on Sulphur cure in conventional and EV systems under conditions of post ~ cure and prevulcanisation of latex. Studies were conducted on radiation cure in latex stage. Extractable protein content in vulcanised low protein latex films are observed to be very low. lt is observed that this low protein latex is some what slower curing than single centrifuged latex, but faster than double centrifuged latex. Modulus of low protein latex films were slightly low. In general physical properties of vulcanised low protein latex films are only siightly lower than single centrifuged latex. Ageing properties of the low protein latex films were satisfactory. Viscosity and flow behaviour of low protein latex is much better than double centrifuged latex and almost comparable to single centrifuged latex. On observing that the physical properties and flow behaviour of low protein latex was satisfactory, it was used for the preparation of examination gloves and the gloves were evaluated. It is observed that the properties are conforming to the Indian Standard Specifications. It is thus observed that PPG treatment of natural latex is a simple process of preparing low protein latex. Extractable protein content in these films are very low.The physical properties of the films are comparable to ordinary centrifuged latex and better than conventionally deprotenized latex films. This latex can be used for the production of examination gloves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Packaging is important not only in extending the shellife of fish and fishery products but also improving their marketability. In the recent years, significant development have taken place in the packaging industry. During the past decade in India, there is almost a packaging revolution with the availability of variety packaging materials, thus generating better packaging consciousness in other producer/manufacturing industries. But unfortunately, such realisation is not forthcoming in the fisheries sector and packaging techniques for local and export trade continues to be on traditional lines with their inherent drawbacks and limitations. Better packaging ensures improved quality and presentation of the products and ensures higher returns to the producer. Among several packaging materials used in fishery industry, ISI specifications had been formulated only for corrugated fibre board boxes for export of seafoods and froglegs. This standard was formulated before containersiation came into existance in the export of marine products. Before containerisation, the standards were stringent in view of the rough handling, transportation and storage. Two of the common defects reported in the master cartons exported from India are low mechanical strength and tendency to get wet. They are weakened by the deposits of moisture caused by temperature fluctuations during loading, unloading and other handling stages. It is necessary to rectify the above defects in packaging aquatic products and hence in the present study extensive investigations are carried out to find out the reasons for the damage of master cartons, to evolve code of practice for the packaging oi frozen shrimp for exports, development of alternative style of packaging for the shipping container, development of suitable consumer packaging materials for fish soup powder, cured dried mackeral, fish pickles in oil and frozen shrimp. For the development of suitable packaging materials, it is absolutely essential to know the properties of packaging materials, effect of different packaging materials on theirshelf life and their suitability for food contact applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increase in traffic growth and maintenance expenditures demands the urgent need for building better, long-lasting, and more efficient roads preventing or minimizing bituminous pavement distresses. Many of the principal distresses in pavements initiate or increase in severity due to the presence of water. In Kerala highways, where traditional dense graded mixtures are used for the surface courses, major distress is due to moisture induced damages. The Stone Matrix Asphalt (SMA) mixtures provide a durable surface course. Proven field performance of test track at Delhi recommends Stone Matrix Asphalt as a right choice to sustain severe climatic and heavy traffic conditions. But the concept of SMA in India is not so popularized and its application is very limited mainly due to the lack of proper specifications. This research is an attempt to study the influence of additives on the characteristics of SMA mixtures and to propose an ideal surface course for the pavements. The additives used for this investigation are coir, sisal, banana fibres (natural fibres), waste plastics (waste material) and polypropylene (polymer). A preliminary investigation is conducted to characterize the materials used in this study. Marshall test is conducted for optimizing the SMA mixtures (Control mixture-without additives and Stabilized mixtures with additives). Indirect tensile strength tests, compression strength tests, triaxial strength tests and drain down sensitivity tests are conducted to study the engineering properties of stabilized mixtures. The comparison of the performance of all stabilized mixtures with the control mixture and among themselves are carried out. A statistical analysis (SPSS package Ver.16) is performed to establish the findings of this study