864 resultados para fate and effect modelling


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of the work is to study the flow behavior and to support the design of air cleaner by dynamic simulation.In a paper printing industry, it is necessary to monitor the quality of paper when the paper is being produced. During the production, the quality of the paper can be monitored by camera. Therefore, it is necessary to keep the camera lens clean as wood particles may fall from the paper and lie on the camera lens. In this work, the behavior of the air flow and effect of the airflow on the particles at different inlet angles are simulated. Geometries of a different inlet angles of single-channel and double-channel case were constructed using ANSYS CFD Software. All the simulations were performed in ANSYS Fluent. The simulation results of single-channel and double-channel case revealed significant differences in the behavior of the flow and the particle velocity. The main conclusion from this work are in following. 1) For the single channel case the best angle was 0 degree because in that case, the air flow can keep 60% of the particles away from the lens which would otherwise stay on lens. 2) For the double channel case, the best solution was found when the angle of the first inlet was 0 degree and the angle of second inlet was 45 degree . In that case, the airflow can keep 91% of particles away from the lens which would otherwise stay on lens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis is the Logistics Development Forum's assignment and the work dealing with the development of the Port of Helsinki as part of Helsinki hub. The Forum aims to develop logistics efficiency through public-private co-operation and development of the port is clearly dependent on both factors. Freight volumes in the Port of Helsinki are the biggest single factor in hub and, therefore, the role of the port of the entire hub development is strong. The aim is to look at how the port will develop as a result of changes in the foreign trade of Finland and the Northern European logistics trends in 25 years time period. Work includes the current state analysis and scenario work. The analyses are intended to find out, which trends are the most important in the port volume development. The change and effect of trends is examined through scenarios based on current state. Based on the work, the structure of Finnish export industry and international demand are in the key role in the port volume development. There is significant difference between demands of Finnish exporting products in different export markets and the development between the markets has different impacts on the port volumes by mass and cargo type. On the other hand, the Finnish economy is stuck in a prolonged recession and competition between ports has become a significant factor in the individual port's volume development. Ecological valuesand regulations have changed the competitive landscape and maritime transport emissions reductions has become an important competitive factor for short routes in the Baltic Sea, such as in the link between Helsinki and Tallinn.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The NeO'liberal State and the Crisis ofPublic Service Broadcasting in the Anglo-American Democracies The purpose ofthis analysis ofthe present condition ofpublic service broadcasting in the Anglo- American democracies was to investigate whether such media can still be regarded as the primarypublic spherefor a dialogue between each nation 's civil society and the State. The motivationfor this thesis was based on a presumption that such fora for public discussion on the central issues of each society have become viewed as less relevant bypoliticians andpolicy-makers and thepublics they were intended to serve in the Anglo-American democracies over thepast two decades. It is speculated that this is the case because ofa beliefthat the post-war consensus between the respective States andpublics that led to the construction of the Keynesian Welfare State and the notion ofpublic service broadcasting has been displaced by an individualistic, neo-liberal, laissez-faire ideology. In other words, broadcasting as a consumer-oriented, commercial commodity has superseded concerns pertaining to the importance ofthe public interest. The methodology employed in this thesis is a comparative analysisfrom a criticalpolitical economy perspective. It was considered appropriate to focus on the United Kingdom, Australia, Canada and the\ United States because they comprise the four largest Anglo-American nations with democratic political systems andprimarily market economies. Justificationfor this particular sample is reinforced by thefact that case study countries also share a common socio-political and economic tradition. The evidence assembledfor this thesis consisted almost exclusively ofexisting literature on the subjects ofpublic service broadcasting, global economic andpolitical integration, and the ascendance ofthe 'free-market ' ethos in Western democracies since the late mid- to late-1970s. In essence, this thesis could be considered as a reinterpretation ofthe existing literature relevant to these issues. Several important common features werefound among the political, economic and broadcasting systems of the four case study nations. It is proposed that the prevalence of the neo-liberal world view throughout the political and policy environments of the four countries has undermined the stability and credibility of each nation 's national public service broadcasting organization, although with varying intensity and effect,. Deregulation ofeach nation 's broadcasting system and the supremacy ofthe notion of 'consumer sovereignty' have marginalized the view of broadcasting on any basis other than strictly economic criteria in thefour case study countries. This thesis concludes that,for a reconstruction ofa trulyparticipatory anddemocraticpublicsphere to be realized in the present as well as thefuture, a reassessment ofthe conventional concept ofthe 'public sphere ' is necessary. Therefore, it is recommended that thefocus ofpolicy-makers in each Anglo-American democracy be redirectedfrom that which conceived ofan all-encompassing, large, state-ownedand operated public broadcasting service toward a view which considers alternativeforms ofpublic communication, such as local community and ethnic broadcasting operations, that are likely to be more responsive to the needs of the increasingly diverse and heterogeneous populations that comprise the modem Anglo-American democracies. The traditional conception of public broadcasters must change in accordance with its contemporary environment if the fundamental principles of the public sphere and public service broadcasting are to be realized.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The importance of reflective practice to the novice nurse was explored in this study. The novice nurse, for the purpose of this study, was defined as a Registered Nurse who graduated from an accredited nursing program within a 1 2-month period prior to the data collection date and who had no prior experience as a Registered Nurse before graduation. All of the nurses enrolled in this study were female. This study explored the perceived link between transformational learning and reflective practice, and whether there may be a need to standardize a conceptual framework and definition for reflective practice in nursing academia. The literature that was reviewed for this study indicated that there were inconsistencies in the application of reflective practice within academic curriculums. The literature did identify that the majority of academic scholars have agreed that reflection is paramount in the development of critical thinking skills, self-awareness, and selfdirection. And, while all of these skills drive professional practice and effect excellent patient care, institutional health care has been reticent to support the value of reflective practice because of a lack of empirical data sets. The 4 novice Registered Nurses who participated in this study were asked 4 openended questions that provided a foundation for comparing the novice nurses' experiences, interpretations, and perceptions of reflective practice. These nurses participated in individual audiotaped interviews with the researcher. The study was based upon Heath's (1998) model of "Theory hitegration via Reflective Practice." The results demonstrated that reflective practice was significant to the novice nurse and was used as a tool to identify further learning needs. Transformational learning through reflection was described by the study participants. The findings within this study are consistent with previous work done in the area of reflection and the novice nurse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The effects of sample solvent composition and the injection volume, on the chromatographic peak profiles of two carbamate derivatives, methyl 2-benzimidazolecarbamate (MBC) and 3-butyl-2,4-dioxo[1,2-a]-s-triazinobenzimidazole (STB), were studied using reverse phase high performance liquid chromatograph. The study examined the effects of acetonitrile percentage in the sample solvent from 5 to 50%, effects of methanol percentage from 5 to 50%, effects of pH increase from 4.42 to 9.10, and effect of increasing buffer concentration from ° to 0.12M. The effects were studied at constant and increasing injection mass and at four injection volumes of 10, 50, 100 and 200 uL. The study demonstrated that the amount and the type of the organic solvents, the pH, and the buffer strength of the sample solution can have a pronounced effect on the peak heights, peak widths, and retention times of compounds analysed. MBC, which is capable of intramolecular hydrogen bonding and has no tendency to ionize, showed a predictable increase .in band broadening and a decrease in retention times at higher eluting strengths of the sample solvent. STB, which has a tendency to ionize or to strongly interact with the sample solvent, was influenced in various ways by the changes in ths sample solvent composition. The sample solvent effects became more pronounced as the injection volume increased and as the percentage of organic solvent in the sample solution became greater. The peak height increases for STB at increasing buffer concentrations became much more pronounced at higher analyte concentrations. It was shown that the widely accepted procedure of dissolving samples in the mobile phase does not yield the most efficient chromatograms. For that reason samples should be dissolved in the solutions with higher aqueous content than that of the mobile phase whenever possible. The results strongly recommend that all the samples and standards, regardless whether the standards are external or internal, be analysed at a constant sample composition and a constant injection volume.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cancer du poumon associé à l’exposition au nickel, au chrome VI et au cadmium dans le milieu de travail utilisant deux études populationnelles cas-témoins à Montréal. Au début des années 1990, le nickel, le chrome VI et le cadmium ont été classés en tant qu’agents cancérigènes de classe 1 par le CIRC (Centre International de Recherche sur le Cancer). Cependant, les résultats des études ayant permis la classification de ces métaux n’ont pas toujours été reproduits, et d’importantes questions demeurent quant aux effets de ces métaux à de faibles niveaux d’exposition. Un plus grand nombre de recherches empiriques est donc nécessaire afin de réaffirmer la cancérogénicité de ces agents, et d’identifier les circonstances dans lesquelles ils peuvent être néfastes. L'objectif de cette étude était d'explorer la relation entre l’exposition à un des métaux (soit le nickel, le chrome VI, ou le cadmium) et les risques subséquents de développer un cancer du poumon chez des travailleurs provenant de différents milieux de travail qui sont exposés à ces métaux à de différents degrés. Deux études cas-témoins de base populationnelle menées à Montréal ont fourni les données nécessaires pour examiner la cancérogénicité de ces métaux. La première étude était menée entre 1979 et 1986 chez des hommes âgés de 35 à 70 ans ayant un cancer dans l’un de 19 sites anatomiques de cancer sélectionnés. La seconde étude était menée entre 1996 et 2001 chez des hommes et des femmes âgés de 35 à 75 ans, avec un diagnostic de tumeur maligne au poumon. Dans ces deux études, les cas ont été recensés dans tous les hôpitaux de l'île de Montréal, tandis que les contrôles populationnels appariés par âge et stratifiés par sexe, ont été sélectionnés des listes électorales. Une entrevue avec chaque sujet a permis d'obtenir un historique d'emploi détaillé ainsi que des informations précises sur les facteurs de risques socio-économiques et personnels. Les descriptions de poste ont été évaluées par une équipe d'experts chimistes et hygiénistes afin de déterminer si le sujet a été exposé à chaque agent, et pour mesurer à la fois la concentration et la durée de chaque exposition, ainsi que l’exposition cumulative tout au long de la vie de chaque participant. Pour déterminer si une exposition à l’un des trois métaux en cause était associée à une augmentation de l'incidence du cancer du poumon, des données ont été analysées par régression logistique : des ajustements ont été effectués pour des facteurs de confusion pertinents incluant un historique détaillé du tabagisme. Des mesures catégoriques d'exposition cumulée ont été également analysées, ainsi que la modification des effets par le tabagisme. Les deux études ont été analysées séparément, puis par la suite combinées afin d'augmenter la puissance statistique. Les niveaux d'exposition mesurés dans cette population ne semblaient pas poser un excès de risque de cancer du poumon pour les travailleurs exposés au chrome VI. Cependant, ceux qui ont été exposés au nickel ont subi une augmentation significative du risque, et ce, quel que soit leur niveau d'exposition. Le risque de développer un cancer du poumon suite à une exposition au cadmium était élevé, mais pas de manière significative. Pour chacun des trois métaux, le risque de cancer du poumon était très élevé parmi les non-fumeurs, mais pas parmi les fumeurs. L’effet combiné du tabagisme et de l’exposition aux métaux était compatible avec un excès de risque additif. Cependant, les intervalles de confiance dans cette étude tendaient à être larges, et une faiblesse de puissance statistique peut limiter l’interprétation de certains résultats. Cette étude est unique dans la mesure où elle a fourni des preuves empiriques sur les risques de développer le cancer du poumon liés aux faibles niveaux d’exposition au nickel, au chrome VI, ou au cadmium provenant de divers contextes de travail. Dans la plupart des autres études, la majorité des expositions pertinentes n’ont pas été bien contrôlées. À l'inverse, cette étude a bénéficié de la collecte et de la disponibilité d'information détaillée concernant le tabagisme et d’autres facteurs de risque. Les résultats de cette étude ont d'importantes conséquences pour la santé publique, tant au niveau de la détermination des risques pour les travailleurs actuellement exposés à ces métaux, qu'au niveau de l’évaluation des risques pour la population en général, elle-même exposée à ces métaux par le biais de la pollution et de la fumée de cigarette. Cette analyse contribuera fort probablement à une réévaluation par le CIRC de la cancérogénicité de ces métaux. L'exploration de la relation entre les risques de cancer du poumon et l'exposition au nickel, au chrome VI et au cadmium est donc opportune et pertinente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tout au long de la vie d’un individu, il existe un nombre optimal de cellules à produire et de progéniteurs à conserver en réserve. On parle de maintien de l’homéostasie tissulaire. De façon générale, l’organisme a cinq possibilités pour réguler l’homéostasie : l’autorenouvellement et la quiescence, souvent utilisés pour maintenir un ‘pool’ fonctionnel de progéniteurs, la différenciation qui permet de produire des cellules effectrices, l’apoptose et la sénescence, qui permettent de limiter la production de cellules ou encore d’en faire diminuer le nombre quand elles sont en excès. La régulation de ces quatre mécanismes peut se faire de façon extrinsèque en passant par différentes voies de signalisation combinées à l’action intrinsèque de facteurs de transcription comme Ikaros et GATA1. Le facteur de transcription Ikaros joue un rôle critique dans le devenir des cellules progénitrices et la différenciation des lignages hématopoïétiques. Cependant, il demeure surtout connu pour son influence sur la voie Notch dans les cellules lymphoïdes, notamment les lymphocytes T. Les cellules érythroïdes sont hautement sensibles à l’environnement et donc, particulièrement adaptées à l’étude des régulations de l’homéostasie. Les résultats de différentes études ont permis de démontrer qu’Ikaros et la voie Notch influencent l’érythropoïèse. Cependant le détail de leurs actions demeure en grande partie inconnu à ce jour. Au cours de notre étude nous avons voulu déterminer l’action d’Ikaros dans le maintien de l’homéostasie des cellules érythroïdes et si son rôle passe par un dialogue avec la voie Notch. Nous avons voulu décrypter les mécanismes de régulation transcriptionnelle utilisés par Ikaros et par Notch au cours de l’érythropoïèse et leurs effets. Notre étude montre qu’Ikaros réprime à l’aide de GATA1 le gène Hes1, une cible importante de la voie Notch, en recrutant un complexe de la famille Polycomb, le PRC2 ii (Polycomb Repressive Complex 2). Cette répression permet la promotion de la différenciation des cellules érythroïdes. Au niveau du maintien de l’homéostasie par régulation de l’apoptose, Ikaros est connu pour cibler l’anti-apoptotique Bcl2l1 dans les lymphocytes. Puisque Gata-1, partenaire préférentiel d’Ikaros cible Bcl2l1 dans les cellules érythroïdes, nous avons caractérisé leur effet sur l’expression de Bcl2l1. Nous avons découvert qu’Ikaros active de façon directe Bcl2l1 et qu’il recrute sur le gène deux complexes partenaires d’élongation : un de la famille SET1/MLL, et le complexe P-TEFb-NuRD. En l’absence d’Ikaros, le fragment intracellulaire de Notch (NICD) et son cofacteur RBP-J remplacent Ikaros et favorisent l’hyper-activation de l’expression de Bcl2l1. Ceci est associé à la modification du complexe d’élongation recruté, ainsi qu’à la mise en place de modifications épigénétiques distinctes de celles observées avec Ikaros ce qui modifie l’élongation transcriptionnelle du gène. Ikaros et Notch sont fréquemment mutés ou présentent des fonctions altérées dans les leucémies. Notre étude montre un dialogue Ikaros/Notch influençant aussi bien la différenciation que l’apoptose et met en évidence l’existence d’un circuit génétique dont le dérèglement pourrait favoriser l’apparition d’une hématopoïèse maligne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present scientific investigation of the effects of copper, mercury and cadmium has focussed on their effects on two commercially important marine bivalve species, Perna indica (brown mussel) and Donax incarnatus (wedge clam), conspicuous representatives of the tropical intertidal areas. The investigation centred around delineating the cause and effects of heavy metal stress, individually and in combination on these species under laboratory conditions. A clear understanding of the cause and effect can be had only if laboratory experiments are conducted employing sub-lethal concentrations of the above toxicants. Therefore, during the course of the investigation, sub-lethal concentrations of copper, mercury and cadmium were employed to assess the concentration dependent effects on survival, ventilation rate, O:N ratio and tissues. The results obtained are compared with the already available information and partitioned in sections to make a meaningful presentation.The thesis is presented in five chapters comprising INTRODUCTION, ACUTE TOXICITY, VENTILATION RATE, OXYGEN : NITROGEN RATIO and HISTOPATHOLOGY. Each chapter has been divided into various sections such as INTRODUCTION, REVIEW OF LITERATURE, MATERIAL AND METHODS, RESULTS and DISCUSSION

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cerebral glioma is the most prevalent primary brain tumor, which are classified broadly into low and high grades according to the degree of malignancy. High grade gliomas are highly malignant which possess a poor prognosis, and the patients survive less than eighteen months after diagnosis. Low grade gliomas are slow growing, least malignant and has better response to therapy. To date, histological grading is used as the standard technique for diagnosis, treatment planning and survival prediction. The main objective of this thesis is to propose novel methods for automatic extraction of low and high grade glioma and other brain tissues, grade detection techniques for glioma using conventional magnetic resonance imaging (MRI) modalities and 3D modelling of glioma from segmented tumor slices in order to assess the growth rate of tumors. Two new methods are developed for extracting tumor regions, of which the second method, named as Adaptive Gray level Algebraic set Segmentation Algorithm (AGASA) can also extract white matter and grey matter from T1 FLAIR an T2 weighted images. The methods were validated with manual Ground truth images, which showed promising results. The developed methods were compared with widely used Fuzzy c-means clustering technique and the robustness of the algorithm with respect to noise is also checked for different noise levels. Image texture can provide significant information on the (ab)normality of tissue, and this thesis expands this idea to tumour texture grading and detection. Based on the thresholds of discriminant first order and gray level cooccurrence matrix based second order statistical features three feature sets were formulated and a decision system was developed for grade detection of glioma from conventional T2 weighted MRI modality.The quantitative performance analysis using ROC curve showed 99.03% accuracy for distinguishing between advanced (aggressive) and early stage (non-aggressive) malignant glioma. The developed brain texture analysis techniques can improve the physician’s ability to detect and analyse pathologies leading to a more reliable diagnosis and treatment of disease. The segmented tumors were also used for volumetric modelling of tumors which can provide an idea of the growth rate of tumor; this can be used for assessing response to therapy and patient prognosis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordination among supply chain members is essential for better supply chain performance. An effective method to improve supply chain coordination is to implement proper coordination mechanisms. The primary objective of this research is to study the performance of a multi-level supply chain while using selected coordination mechanisms separately, and in combination, under lost sale and back order cases. The coordination mechanisms used in this study are price discount, delay in payment and different types of information sharing. Mathematical modelling and simulation modelling are used in this study to analyse the performance of the supply chain using these mechanisms. Initially, a three level supply chain consisting of a supplier, a manufacturer and a retailer has been used to study the combined effect of price discount and delay in payment on the performance (profit) of supply chain using mathematical modelling. This study showed that implementation of individual mechanisms improves the performance of the supply chain compared to ‘no coordination’. When more than one mechanism is used in combination, performance in most cases further improved. The three level supply chain considered in mathematical modelling was then extended to a three level network supply chain consisting of a four retailers, two wholesalers, and a manufacturer with an infinite part supplier. The performance of this network supply chain was analysed under both lost sale and backorder cases using simulation modelling with the same mechanisms: ‘price discount and delay in payment’ used in mathematical modelling. This study also showed that the performance of the supply chain is significantly improved while using combination of mechanisms as obtained earlier. In this study, it is found that the effect (increase in profit) of ‘delay in payment’ and combination of ‘price discount’ & ‘delay in payment’ on SC profit is relatively high in the case of lost sale. Sensitivity analysis showed that order cost of the retailer plays a major role in the performance of the supply chain as it decides the order quantity of the other players in the supply chain in this study. Sensitivity analysis also showed that there is a proportional change in supply chain profit with change in rate of return of any player. In the case of price discount, elasticity of demand is an important factor to improve the performance of the supply chain. It is also found that the change in permissible delay in payment given by the seller to the buyer affects the SC profit more than the delay in payment availed by the buyer from the seller. In continuation of the above, a study on the performance of a four level supply chain consisting of a manufacturer, a wholesaler, a distributor and a retailer with ‘information sharing’ as coordination mechanism, under lost sale and backorder cases, using a simulation game with live players has been conducted. In this study, best performance is obtained in the case of sharing ‘demand and supply chain performance’ compared to other seven types of information sharing including traditional method. This study also revealed that effect of information sharing on supply chain performance is relatively high in the case of lost sale than backorder. The in depth analysis in this part of the study showed that lack of information sharing need not always be resulting in bullwhip effect. Instead of bullwhip effect, lack of information sharing produced a huge hike in lost sales cost or backorder cost in this study which is also not favorable for the supply chain. Overall analysis provided the extent of improvement in supply chain performance under different cases. Sensitivity analysis revealed useful insights about the decision variables of supply chain and it will be useful for the supply chain management practitioners to take appropriate decisions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.