833 resultados para Many-To-One Matching Market
Resumo:
Problème: Ma thèse porte sur l’identité individuelle comme interrogation sur les enjeux personnels et sur ce qui constitue l’identification hybride à l’intérieur des notions concurrentielles en ce qui a trait à l’authenticité. Plus précisément, j’aborde le concept des identifications hybrides en tant que zones intermédiaires pour ce qui est de l’alternance de codes linguistiques et comme négociation des espaces continuels dans leur mouvement entre les cultures et les langues. Une telle négociation engendre des tensions et/ou apporte le lien créatif. Les tensions sont inhérentes à n’importe quelle construction d’identité où les lignes qui définissent des personnes ne sont pas spécifiques à une culture ou à une langue, où des notions de l’identité pure sont contestées et des codes communs de l’appartenance sont compromis. Le lien créatif se produit dans les exemples où l’alternance de code linguistique ou la négociation des espaces produit le mouvement ouvert et fluide entre les codes de concurrence des références et les différences à travers les discriminations raciales, la sexualité, la culture et la langue. Les travaux que j’ai sélectionnés représentent une section transversale de quelques auteurs migrants provenant de la minorité en Amérique du Nord qui alternent les codes linguistiques de cette manière. Les travaux détaillent le temps et l’espace dans leur traitement de l’identité et dans la façon dont ils cernent l’hybridité dans les textes suivants : The Woman Warrior de Maxine Hong Kingston (1975-76), Hunger of Memory de Richard Rodriguez (1982), Comment faire l’amour avec un nègre sans se fatiguer de Dany Laferrière (1985), Borderlands/La Frontera de Gloria Anzalduá (1987), Lost in Translation de Eva Hoffman (1989), Avril ou l’anti-passion de Antonio D’Alfonso (1990) et Chorus of Mushrooms de Hiromi Goto (1994). Enjeux/Questions La notion de l’identification hybride est provocante comme sujet. Elle met en question l’identité pure. C’est un sujet qui a suscité beaucoup de discussions tant en ce qui a trait à la littérature, à la politique, à la société, à la linguistique, aux communications, qu’au sein même des cercles philosophiques. Ce sujet est compliqué parce qu’il secoue la base des espaces fixes et structurés de l’identité dans sa signification culturelle et linguistique. Par exemple, la notion de patrie n’a pas les représentations exclusives du pays d’origine ou du pays d’accueil. De même, les notions de race, d’appartenance ethnique, et d’espaces sexuels sont parfois négativement acceptées si elles proviennent des codes socialement admis et normalisés de l’extérieur. De tels codes de la signification sont souvent définis par l’étiquette d’identification hétérosexuelle et blanche. Dans l’environnement généralisé d’aujourd’hui, plus que jamais, une personne doit négocier qui elle est, au sens de son appartenance à soi, en tant qu’individu et ce, face aux modèles locaux, régionaux, nationaux, voire même globaux de la subjectivité. Nous pouvons interpréter ce mouvement comme une série de couches superposées de la signification. Quand nous rencontrons une personne pour la première fois, nous ne voyons que la couche supérieure. D’ailleurs, son soi intérieur est caché par de nombreuses couches superposées (voir Joseph D. Straubhaar). Toutefois, sous cette couche supérieure, on retrouve beaucoup d’autres couches et tout comme pour un oignon, on doit les enlever une par une pour que l’individualité complète d’une personne soit révélée et comprise. Le noyau d’une personne représente un point de départ crucial pour opposer qui elle était à la façon dont elle se transforme sans cesse. Sa base, ou son noyau, dépend du moment, et comprend, mais ne s’y limite pas, ses origines, son environnement et ses expériences d’enfance, son éducation, sa notion de famille, et ses amitiés. De plus, les notions d’amour-propre et d’amour pour les autres, d’altruisme, sont aussi des points importants. Il y a une relation réciproque entre le soi et l’autre qui établit notre degré d’estime de soi. En raison de la mondialisation, notre façon de comprendre la culture, en fait, comment on consomme et définit la culture, devient rapidement un phénomène de déplacement. À l’intérieur de cette arène de culture généralisée, la façon dont les personnes sont à l’origine chinoises, mexicaines, italiennes, ou autres, et poursuivent leur évolution culturelle, se définit plus aussi facilement qu’avant. Approche Ainsi, ma thèse explore la subjectivité hybride comme position des tensions et/ou des relations créatrices entre les cultures et les langues. Quoique je ne souhaite aucunement simplifier ni le processus, ni les questions de l’auto-identification, il m’apparaît que la subjectivité hybride est aujourd’hui une réalité croissante dans l’arène généralisée de la culture. Ce processus d’échange est particulièrement complexe chez les populations migrantes en conflit avec leur désir de s’intégrer dans les nouveaux espaces adoptés, c’est-à-dire leur pays d’accueil. Ce réel désir d’appartenance peut entrer en conflit avec celui de garder les espaces originels de la culture définie par son pays d’origine. Ainsi, les références antérieures de l’identification d’une personne, les fondements de son individualité, son noyau, peuvent toujours ne pas correspondre à, ou bien fonctionner harmonieusement avec, les références extérieures et les couches d’identification changeantes, celles qu’elle s’approprie du pays d’accueil. Puisque nos politiques, nos religions et nos établissements d’enseignement proviennent des représentations nationales de la culture et de la communauté, le processus d’identification et la création de son individualité extérieure sont formées par le contact avec ces établissements. La façon dont une personne va chercher l’identification entre les espaces personnels et les espaces publics détermine ainsi le degré de conflit et/ou de lien créatif éprouvé entre les modes et les codes des espaces culturels et linguistiques. Par conséquent, l’identification des populations migrantes suggère que la « community and culture will represent both a hybridization of home and host cultures » (Straubhaar 27). Il y a beaucoup d’écrits au sujet de l’hybridité et des questions de l’identité et de la patrie, toutefois cette thèse aborde la valeur créative de l’alternance de codes culturels et linguistiques. Ce que la littérature indiquera Par conséquent, la plate-forme à partir de laquelle j’explore mon sujet de l’hybridité flotte entre l’interprétation postcoloniale de Homi Bhabha concernant le troisième espace hybride; le modèle d’hétéroglossie de Mikhail Bakhtine qui englobent plusieurs de mes exemples; la représentation de Roland Barthes sur l’identité comme espace transgressif qui est un modèle de référence et la contribution de Chantal Zabus sur le palimpseste et l’alternance de codes africains. J’utilise aussi le modèle de Sherry Simon portant sur l’espace urbain hybride de Montréal qui établit un lien important avec la valeur des échanges culturels et linguistiques, et les analyses de Janet Paterson. En effet, la façon dont elle traite la figure de l’Autre dans les modèles littéraires au Québec fournisse un aperçu régional et national de l’identification hybride. Enfin, l’exploration du bilinguisme de Doris Sommer comme espace esthétique et même humoristique d’identification situe l’hybridité dans une espace de rencontre créative. Conséquence Mon approche dans cette thèse ne prétend pas résoudre les problèmes qui peuvent résulter des plates-formes de la subjectivité hybride. Pour cette raison, j’évite d’aborder toute approche politique ou nationaliste de l’identité qui réfute l’identification hybride. De la même façon, je n’amène pas de discussion approfondie sur les questions postcoloniales. Le but de cette thèse est de démontrer à quel point la subjectivité hybride peut être une zone de relation créatrice lorsque l’alternance de codes permet des échanges de communication plus intimes entre les cultures et les langues. C’est un espace qui devient créateur parce qu’il favorise une attitude plus ouverte vis-à-vis les différents champs qui passent par la culture, aussi bien la langue, que la sexualité, la politique ou la religion. Les zones hybrides de l’identification nous permettent de contester les traditions dépassées, les coutumes, les modes de communication et la non-acceptation, toutes choses dépassées qui emprisonnent le désir et empêchent d’explorer et d’adopter des codes en dehors des normes et des modèles de la culture contenus dans le discours blanc, dominant, de l’appartenance culturelle et linguistique mondialisée. Ainsi, il appert que ces zones des relations multi-ethniques exigent plus d’attention des cercles scolaires puisque la population des centres urbains à travers l’Amérique du Nord devient de plus en plus nourrie par d’autres types de populations. Donc, il existe un besoin réel d’établir une communication sincère qui permettrait à la population de bien comprendre les populations adoptées. C’est une invitation à stimuler une relation plus intime de l’un avec l’autre. Toutefois, il est évident qu’une communication efficace à travers les frontières des codes linguistiques, culturels, sexuels, religieux et politiques exige une négociation continuelle. Mais une telle négociation peut stimuler la compréhension plus juste des différences (culturelle ou linguistique) si des institutions académiques offrent des programmes d’études intégrant davantage les littératures migrantes. Ma thèse vise à illustrer (par son choix littéraire) l’identification hybride comme une réalité importante dans les cultures généralisées qui croissent toujours aujourd’hui. Les espaces géographiques nous gardent éloignés les uns des autres, mais notre consommation de produits exotiques, qu’ils soient culturels ou non, et même notre consommation de l’autre, s’est rétrécie sensiblement depuis les deux dernières décennies et les indicateurs suggèrent que ce processus n’est pas une tendance, mais plutôt une nouvelle manière d’éprouver la vie et de connaître les autres. Ainsi les marqueurs qui forment nos frontières externes, aussi bien que ces marqueurs qui nous définissent de l’intérieur, exigent un examen minutieux de ces enjeux inter(trans)culturels, surtout si nous souhaitons nous en tenir avec succès à des langues et des codes culturels présents, tout en favorisant la diversité culturelle et linguistique. MOTS-CLÉS : identification hybride, mouvement ouvert, alternance de code linguistique, négociation des espaces, tensions, connectivité créative
Resumo:
Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.
Resumo:
Les récepteurs nucléaires (RN) sont des facteurs de transcription ligand dépendants qui contrôlent une grande variété de processus biologiques de la physiologie humaine, ce qui a fait d'eux des cibles pharmacologiques privilégiées pour de nombreuses maladies. L'un de ces récepteurs, le récepteur de l’œstrogène alpha (ERα), peut activer la prolifération cellulaire dans certaines sections de l'épithélium mammaire tandis qu’un autre, le récepteur de l'acide rétinoïque alpha (RARα), peut provoquer un arrêt de la croissance et la différenciation cellulaire. La signalisation de ces deux récepteurs peut être altérée dans le cancer du sein, contribuant à la tumorigénèse mammaire. L’activité d’ERα peut être bloquée par les anti-oestrogènes (AE) pour inhiber la prolifération des cellules tumorales mammaires. Par contre, l’activation des voies de RARα avec des rétinoïdes dans un contexte clinique a rencontré peu de succès. Ceci pourrait résulter du manque de spécificité des ligands testés pour RARα et/ou de leur activité seulement dans certains sous-types de tumeurs mammaires. Puisque les récepteurs nucléaires forment des homo- et hétéro-dimères, nous avons cherché à développer de nouveaux essais pharmacologiques pour étudier l'activité de complexes dimériques spécifiques, leur dynamique d’association et la structure quaternaire des récepteurs des œstrogènes. Nous décrivons ici une nouvelle technique FRET, surnommée BRET avec renforcement de fluorescence par transferts combinés (BRETFect), qui permet de détecter la formation de complexes de récepteurs nucléaires ternaires. Le BRETFect peut suivre l'activation des hétérodimères ERα-ERβ et met en évidence un mécanisme allostérique d'activation que chaque récepteur exerce sur son partenaire de dimérisation. L'utilisation de BRETFect en combinaison avec le PCA nous a permis d'observer la formation de multimères d’ERα fonctionnels dans des cellules vivantes pour la première fois. La formation de multimères est favorisée par les AE induisant la dégradation du récepteur des oestrogènes, ce qui pourrait contribuer à leurs propriétés spécifiques. Ces essais de BRET apportent une nette amélioration par rapport aux tests de vecteurs rapporteur luciférase classique, en fournissant des informations spécifiques aux récepteurs en temps réel sans aucune interférence par d'autres processus tels que la transcription et de la traduction. L'utilisation de ces tests nous a permis de caractériser les propriétés de modulation de l’activité des récepteurs nucléaires d’une nouvelle classe de molécules hybrides qui peuvent à la fois lier ERa ou RAR et inhiber les HDACs, conduisant au développement de nouvelles molécules prometteuses bifonctionnelles telles que la molécule hybride RAR-agoniste/HDACi TTNN-HA.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
One major component of power system operation is generation scheduling. The objective of the work is to develop efficient control strategies to the power scheduling problems through Reinforcement Learning approaches. The three important active power scheduling problems are Unit Commitment, Economic Dispatch and Automatic Generation Control. Numerical solution methods proposed for solution of power scheduling are insufficient in handling large and complex systems. Soft Computing methods like Simulated Annealing, Evolutionary Programming etc., are efficient in handling complex cost functions, but find limitation in handling stochastic data existing in a practical system. Also the learning steps are to be repeated for each load demand which increases the computation time.Reinforcement Learning (RL) is a method of learning through interactions with environment. The main advantage of this approach is it does not require a precise mathematical formulation. It can learn either by interacting with the environment or interacting with a simulation model. Several optimization and control problems have been solved through Reinforcement Learning approach. The application of Reinforcement Learning in the field of Power system has been a few. The objective is to introduce and extend Reinforcement Learning approaches for the active power scheduling problems in an implementable manner. The main objectives can be enumerated as:(i) Evolve Reinforcement Learning based solutions to the Unit Commitment Problem.(ii) Find suitable solution strategies through Reinforcement Learning approach for Economic Dispatch. (iii) Extend the Reinforcement Learning solution to Automatic Generation Control with a different perspective. (iv) Check the suitability of the scheduling solutions to one of the existing power systems.First part of the thesis is concerned with the Reinforcement Learning approach to Unit Commitment problem. Unit Commitment Problem is formulated as a multi stage decision process. Q learning solution is developed to obtain the optimwn commitment schedule. Method of state aggregation is used to formulate an efficient solution considering the minimwn up time I down time constraints. The performance of the algorithms are evaluated for different systems and compared with other stochastic methods like Genetic Algorithm.Second stage of the work is concerned with solving Economic Dispatch problem. A simple and straight forward decision making strategy is first proposed in the Learning Automata algorithm. Then to solve the scheduling task of systems with large number of generating units, the problem is formulated as a multi stage decision making task. The solution obtained is extended in order to incorporate the transmission losses in the system. To make the Reinforcement Learning solution more efficient and to handle continuous state space, a fimction approximation strategy is proposed. The performance of the developed algorithms are tested for several standard test cases. Proposed method is compared with other recent methods like Partition Approach Algorithm, Simulated Annealing etc.As the final step of implementing the active power control loops in power system, Automatic Generation Control is also taken into consideration.Reinforcement Learning has already been applied to solve Automatic Generation Control loop. The RL solution is extended to take up the approach of common frequency for all the interconnected areas, more similar to practical systems. Performance of the RL controller is also compared with that of the conventional integral controller.In order to prove the suitability of the proposed methods to practical systems, second plant ofNeyveli Thennal Power Station (NTPS IT) is taken for case study. The perfonnance of the Reinforcement Learning solution is found to be better than the other existing methods, which provide the promising step towards RL based control schemes for practical power industry.Reinforcement Learning is applied to solve the scheduling problems in the power industry and found to give satisfactory perfonnance. Proposed solution provides a scope for getting more profit as the economic schedule is obtained instantaneously. Since Reinforcement Learning method can take the stochastic cost data obtained time to time from a plant, it gives an implementable method. As a further step, with suitable methods to interface with on line data, economic scheduling can be achieved instantaneously in a generation control center. Also power scheduling of systems with different sources such as hydro, thermal etc. can be looked into and Reinforcement Learning solutions can be achieved.
Resumo:
So far, in the bivariate set up, the analysis of lifetime (failure time) data with multiple causes of failure is done by treating each cause of failure separately. with failures from other causes considered as independent censoring. This approach is unrealistic in many situations. For example, in the analysis of mortality data on married couples one would be interested to compare the hazards for the same cause of death as well as to check whether death due to one cause is more important for the partners’ risk of death from other causes. In reliability analysis. one often has systems with more than one component and many systems. subsystems and components have more than one cause of failure. Design of high-reliability systems generally requires that the individual system components have extremely high reliability even after long periods of time. Knowledge of the failure behaviour of a component can lead to savings in its cost of production and maintenance and. in some cases, to the preservation of human life. For the purpose of improving reliability. it is necessary to identify the cause of failure down to the component level. By treating each cause of failure separately with failures from other causes considered as independent censoring, the analysis of lifetime data would be incomplete. Motivated by this. we introduce a new approach for the analysis of bivariate competing risk data using the bivariate vector hazard rate of Johnson and Kotz (1975).
Resumo:
Industrialization of our society has led to an increased production and discharge of both xenobiotic and natural chemical substances. Many of these chemicals will end up in the soil. Pollution of soils with heavy metals is becoming one of the most severe ecological and human health hazards. Elevated levels of heavy metals decrease soil microbial activity and bacteria need to develop different mechanisms to confer resistances to these heavy metals. Bacteria develop heavy-metal resistance mostly for their survivals, especially a significant portion of the resistant phenomena was found in the environmental strains. Therefore, in the present work, we check the multiple metal tolerance patterns of bacterial strains isolated from the soils of MG University campus, Kottayam. A total of 46 bacterial strains were isolated from different locations of the campus and tested for their resistant to 5 common metals in use (lead, zinc, copper, cadmium and nickel) by agar dilution method. The results of the present work revealed that there was a spatial variation of bacterial metal resistance in the soils of MG University campus, this may be due to the difference in metal contamination in different sampling location. All of the isolates showed resistance to one or more heavy metals selected. Tolerance to lead was relatively high followed by zinc, nickel, copper and cadmium. About 33% of the isolates showed very high tolerance (>4000μg/ml) to lead. Tolerance to cadmium (65%) was rather low (<100 μg/ml). Resistance to zinc was in between 100μg/ml - 1000μg/ml and the majority of them shows resistance in between 200μg/ml - 500μg/ml. Nickel resistance was in between 100μg/ml - 1000μg/ml and a good number of them shows resistance in between 300μg/ml - 400μg/ml. Resistance to copper was in between <100μg/ml - 500μg/ml and most of them showed resistance in between 300μg/ml - 400μg/ml. From the results of this study, it was concluded that heavy metal-resistant bacteria are widely distributed in the soils of MG university campus and the tolerance of heavy metals varied among bacteria and between locations
Resumo:
The development of computer and network technology is changing the education scenario and transforming the teaching and learning process from the traditional physical environment to the digital environment. It is now possible to access vast amount of information online and enable one to one communication without the confines of place or time. While E-learning and teaching is unlikely to replace face-to-face training and education it is becoming an additional delivery method, providing new learning opportunities to many users. It is also causing an impact on library services as the increased use of ICT and web based learning technologies have paved the way for providing new ICT based services and resources to the users. Online learning has a crucial role in user education, information literacy programmes and in training the library professionals. It can help students become active learners, and libraries will have to play a greater role in this process of transformation. The significance of libraries within an institution has improved due to the fact that academic libraries and information services are now responsible for e-learning within their organization.
Resumo:
In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.
Resumo:
Urban and peri-urban agriculture (UPA) increasingly supplies food and non-food values to the rapidly growing West African cities. However, little is known about the resource use efficiencies in West African small-scale UPA crop and livestock production systems, and about the benefits that urban producers and retailers obtain from the cultivation and sale of UPA products. To contribute to filling this gap of knowledge, the studies comprising this doctoral thesis determined nutrient use efficiencies in representative urban crop and livestock production system in Niamey, Niger, and investigated potential health risks for consumers. Also assessed was the economic efficiency of urban farming activities. The field study, which was conducted during November 2005 to January 2008, quantified management-related horizontal nutrient flows in 10 vegetable gardens, 9 millet fields and 13 cattle and small ruminant production units. These farms, selected on the basis of a preceding study, represented the diversity of UPA crop and livestock production systems in Niamey. Based on the management intensity, the market orientation and especially the nutrient input to individual gardens and fields, these were categorized as high or low input systems. In the livestock study, high and low input cattle and small ruminant units were differentiated based on the amounts of total feed dry matter offered daily to the animals at the homestead. Additionally, economic returns to gardeners and market retailers cultivating and selling amaranth, lettuce, cabbage and tomato - four highly appreciated vegetables in Niamey were determined during a 6-months survey in forty gardens and five markets. For vegetable gardens and millet fields, significant differences in partial horizontal nutrient balances were determined for both management intensities. Per hectare, average annual partial balances for carbon (C), nitrogen (N), phosphorus (P) and potassium (K) amounted to 9936 kg C, 1133 kg N, 223 kg P and 312 kg K in high input vegetable gardens as opposed to 9580 kg C, 290 kg N, 125 kg P and 351 kg K in low input gardens. These surpluses were mainly explained by heavy use of mineral fertilizers and animal manure to which irrigation with nutrient rich wastewater added. In high input millet fields, annual surpluses of 259 kg C ha-1, 126 kg N ha-1, 20 kg P ha-1 and 0.4 kg K ha-1 were determined. Surpluses of 12 kg C ha-1, 17 kg N ha-1, and deficits of -3 kg P ha-1 and -3 kg K ha-1 were determined for low input millet fields. Here, carbon and nutrient inputs predominantly originated from livestock manure application through corralling of sheep, goats and cattle. In the livestock enterprises, N, P and K supplied by forages offered at the farm exceeded the animals’ requirements for maintenance and growth in high and low input sheep/goat as well as cattle units. The highest average growth rate determined in high input sheep/goat units was 104 g d-1 during the cool dry season, while a maximum average gain of 70 g d-1 was determined for low input sheep/goat units during the hot dry season. In low as well as in high input cattle units, animals lost weight during the hot dry season, and gained weight during the cool dry season. In all livestock units, conversion efficiencies for feeds offered at the homestead were rather poor, ranging from 13 to 42 kg dry matter (DM) per kg live weight gain (LWG) in cattle and from 16 to 43 kg DM kg-1 LWG in sheep/goats, pointing to a substantial waste of feeds and nutrients. The economic assessment of the production of four high value vegetables pointed to a low efficiency of N and P use in amaranth and lettuce production, causing low economic returns for these crops compared to tomato and cabbage to which inexpensive animal manure was applied. The net profit of market retailers depended on the type of vegetable marketed. In addition it depended on marketplace for amaranth and lettuce, and on season and marketplace for cabbage and tomato. Analysis of faecal pathogens in lettuce irrigated with river water and fertilized with animal manure indicated a substantial contamination by Salmonella spp. with 7.2 x 104 colony forming units (CFU) per 25 g of produce fresh matter, while counts of Escherichia coli averaged 3.9 x 104 CFU g-1. In lettuce irrigated with wastewater, Salmonella counts averaged 9.8 x 104 CFU 25 g-1 and E. coli counts were 0.6 x 104 CFU g-1; these values exceeded the tolerable contamination levels in vegetables of 10 CFU g-1 for E. coli and of 0 CFU 25 g-1 for Salmonella. Taken together, the results of this study indicate that Niamey’s UPA enterprises put environmental safety at risk since excess inputs of N, P and K to crop and livestock production units favour N volatilisation and groundwater pollution by nutrient leaching. However, more detailed studies are needed to corroborate these indications. Farmers’ revenues could be significantly increased if nutrient use efficiency in the different production (sub)systems was improved by better matching nutrient supply through fertilizers and feeds with the actual nutrient demands of plants and animals.
Resumo:
Obwohl die DNA Methyltransferase 2 (Dnmt2) hoch konserviert ist und zu der am weitesten verbreiteten eukaryotischen MTase-Familie gehört, ist ihre biologische Funktion nach wie vor unklar. Nachdem lange Zeit keine DNA Methylierungsaktivität nachgewiesen werden konnte, wurde vor einigen Jahren über geringe Mengen an 5-Methylcytosin (5mC) in Retroelementen der “Dnmt2-only”-Organismen D. melanogaster, D. discoideum und E. histolytica berichtet (Kunert et al. 2003; Fisher et al. 2004; Kuhlmann et al. 2005; Phalke et al. 2009). Als kurze Zeit später robuste Methylierung der tRNAAsp durch humane Dnmt2 gezeigt wurde (Goll et al. 2006), wurde zunächst eine Dualspezifität des Enzyms vorgeschlagen (Jeltsch et al. 2006). Neuere Daten zum 5mC-Status verschiedener „Dnmt2-only“-Organismen bilden Anlass für kontroverse Diskussionen über Ausmaß und Bedeutung der DNA Methyltransferaseaktivität von Dnmt2 (Schaefer et al. 2010a; Krauss et al. 2011). Die vorliegende Arbeit konzentriert sich auf die Identifizierung neuer RNA Substrate des Dnmt2-Homologs DnmA aus D. discoideum sowie die biologische Bedeutung der tRNA-Methylierung durch Dnmt2. Wie in anderen Organismen beschrieben, fungiert auch DnmA als tRNAAsp(GUC) MTase in vitro und in vivo. Zusätzlich konnte in vitro tRNAGlu(UUC) als neues Substrat der Dnmt2-Homologe aus D. discoideum und dem Menschen identifiziert werden. In einem Kooperationsprojekt wurde außerdem auch tRNAAsp-Methylierungsaktivität für das Dnmt2-Homolog aus S. pombe (Pmt1) nachgewiesen. Crosslink-RNA-Immunopräzipitationen (RNA-CLIP) mit anschließender Next-Generation-Sequenzierung der mit DnmA assoziierten RNAs zeigen, dass DnmA mit tRNA Fragmenten interagiert, die sich vom Anticodonloop bis in den T-loop erstrecken. Neben der tRNAAsp(GUC) und tRNAGlu(UUC/CUC) sind Fragmente der tRNAGly(GCC) verstärkt angereichert. Inwiefern diese Fragmente eine biologische Funktion haben oder spezifische Degradationsprodukte darstellen, ist noch ungeklärt. Interessanterweise sind von einigen tRNAs wenige Sequenzen von antisense-Fragmenten in den RNA-CLIP Daten zu finden, die etwas kürzer, jedoch exakt komplementär zu den genannten sense-Fragmenten sind. Besonders stark sind diese Fragmente der tRNAGlu(UUC) vertreten. In einem weiteren RNA-CLIP Experiment wurden U-snRNAs, snoRNA und intergenische Sequenzen mit DnmA angereichert. Bei nachfolgenden in vitro Methylierungsstudien konnte ausschließlich die U2-snRNA als potentielles Nicht-tRNA-Substrat der hDnmt2 und DnmA identifiziert werden. Da tRNA Modifikationen im Anticodonloop die Codonerkennung beeinflussen können, wurde ein System etabliert um die Translationseffizienz eines GFP-Reportergens in Wildtyp- und dnmAKO-Zellen zu messen. In D. discoideum wird das Aspartat-Codon GAU ca. zehnmal häufiger genutzt als das GAC Codon, allerdings ist nur eine tRNAAsp(GUC) im Genom der Amöbe kodiert. Aus diesem Grund wurde zusätzlich die Frage adressiert, inwiefern die DnmA-abhängige Methylierung dieser tRNA das „Wobbling“ beeinflusst. Dazu wurde dem Reportergen jeweils eine (GAU)5- und (GAC)5-Leadersequenz vorgeschaltet. Entgegen der Annahme wurde der (GAC)5-Leader in beiden Stämmen etwas effizienter translatiert. Insgesamt zeigte der dnmAKO-Stamm eine leicht erhöhte Translationseffizienz der Reportergene. Vergleichende Analysen zur Aufnahme von Fremd-DNA zeigten signifikant reduzierte Transformationseffizienzen mit einem integrierenden Plasmid in dnmAKO-Zellen. Ein weiterer dnmAKO-Stamm zeigte diesen Effekt jedoch nicht, wobei bei derselben Mutante eine deutlich reduzierte Aufnahme eines extrachromosomalen Plasmids zu verzeichnen war. Untersuchungen zum Einfluss von DnmA auf die Regulation des Retroelements skipper ergaben keinen Zusammenhang zwischen der Generierung kleiner RNAs und der erhöhten Transkription des Retrotransposons in dnmAKO-Zellen (Kuhlmann et al. 2005). Durch Kompensationsversuche sowie Experimente mit einer weiteren dnmAKO-Mutante konnte die Mobilisierung des Retrotransposons nicht eindeutig als DnmA-Funktion eingeordnet werden. In einem weiteren Projekt wurden die Bindung des m5C-bindenden Proteins EhMLBP aus E. histolytica an DNA mittels Rasterkraftmikroskopie abgebildet (Lavi et al. 2006). Neben vermutlich unspezifischen Endbindungsereignissen konnte eine bevorzugte Bindungsstelle des Proteins an LINE DNA (long intersperesed nuclear element) identifiziert werden. Möglicherweise fällt diese mit einem von zwei A/T-reichen Bereichen der LINE DNA zusammen, von denen vermutet wird, dass diese für die Bindung von EhMLBP an DNA von Bedeutung sind. Insgesamt bestätigen die Ergebnisse dieser Arbeit die tRNAAsp Methylierungsaktivität als konservierte Dnmt2-Funktion. Darüber hinaus erweitern sie das Substratspektrum der Dnmt2-Methyltransferasen im Bereich der tRNA. Außerdem wird erstmals ein potentielles Nicht-tRNA Substrat vorgeschlagen. Zusätzlich geben neu entdeckte Phänotypen Hinweise auf vielfältige zelluläre Dnmt2-Funktionen.
Resumo:
The diffusion of highly productive breeds across developing countries goes along with a neglect of indigenous breeds, which are well suited to their environment but often show low yields. Thus, in Niger, the flock of Koundoum sheep are rapidly decreasing. The Koundoum is one of the few wool sheep breeds of Africa and shows important adaptive feature to its native environment, i.e. the humid pastures on the banks of the Niger River. To characterise the breed and to understand its production context, a survey has been conducted in 104 herds in four communes along the Niger River (Kollo, Tillabery, Say and Tera). Nine body measurements, including live weight, were taken on 180 adult sheep (101 females and 79 males). The herds varied from 2 to 60 heads, with a median size of eight animals and two thirds of the herds having less than 10 animals. Mainly fed on natural pastures, 85.6% of the herds received crop residues. Only natural mating was practiced. Veterinary care was restricted to anti-helminthic and some indigenous treatments. The frequent affiliation of breeders to professional unions appeared as favourable to the implementation of a collective conservation program. The Koundoum sheep were white or black coated, with the black colour being most frequent (75.6%). Wattles were present in both sexes at similar frequencies of around 14%. All biometric variables were significantly and positively correlated between them. The thoracic perimeter showed the best correlation with live weight in both males and females. Three variables were selected for live weight prediction: thoracic perimeter, height at withers and rump length. From the present study, it is expected that the in situ conservation of the Koundoum sheep will be highly problematic, due to lack of market opportunities for wool and the willingness of smallholders to get involved in pure Koundoum rearing.
Resumo:
We study the relation between support vector machines (SVMs) for regression (SVMR) and SVM for classification (SVMC). We show that for a given SVMC solution there exists a SVMR solution which is equivalent for a certain choice of the parameters. In particular our result is that for $epsilon$ sufficiently close to one, the optimal hyperplane and threshold for the SVMC problem with regularization parameter C_c are equal to (1-epsilon)^{- 1} times the optimal hyperplane and threshold for SVMR with regularization parameter C_r = (1-epsilon)C_c. A direct consequence of this result is that SVMC can be seen as a special case of SVMR.
Resumo:
El presente documento explora las estrategias y características de dos unidades de trabajo vinculadas a uno de los fenómenos comerciales informales más importantes en Bogotá y que es conocido popularmente como El Madrugón, mercado en el que se venden principalmente artículos de la confección. Se trató de ilustrar en detalle y relacionalmente mediante la teoría del sociólogo Pierre Bourdieu, las diversas situaciones a nivel comercial y productivo que estructuran la permanencia en un territorio altamente competitivo y que se caracteriza por sus ventas mayoristas. Asimismo, la investigación trata de entender las lógicas comerciales de un fenómeno urbano cuyo origen está fuertemente configurado por una política pública en relación a la recuperación de un espacio público en el sector de San Victorino (Bogotá), pero también por una estructura de mercado muy particular. El objetivo principal del presente trabajo fue el de comprender cómo este territorio se construye a partir de prácticas informales que en algunos casos tienen elementos Modernos.
Resumo:
A continuación, se presentan los factores estratégicos de más importancia que enfocados adecuadamente y con una administración eficaz de los recursos generarán mucho más valor a la actividad portuaria de la Costa Atlántica Colombiana: Aprovechamiento de los recursos existentes: Las vías existentes, terrestres y fluviales proporcionan alto valor al manejo de la mercancía. Inversión en mejora y mantenimiento generará mejora en tiempos de transporte. Capacitación continua y la adquisición de nueva tecnología: Adquirir tecnología es vital, pero capacitar al talento humano es el otro 50% del trabajo para poder rendir un 100% y hacer de la inversión un dinero valido. Firma de Tratados de cooperación Puertos Hermanos: el enriquecimiento de conocimiento es primordial, compartir experiencias, generar encuentros que permitan realizar alianzas de cooperación en donde sea posible alcanzar estándares mundiales de desarrollo para ampliar el mercado. Crear oportunidad de negocio para clientes: generar un ambiente seguro para la carga de las líneas navieras es la mejor cara para el mercado portuario, que vean en cada puerto una oportunidad de crecimiento e inversión. Gobierno: Trabajar de la mano con el apoyo del gobierno para generar sinergia y crear mejores oportunidades de negocio con otros países.