919 resultados para Many-to-many-assignment problem
Resumo:
Violence has always been a part of the human experience, and therefore, a popular topic for research. It is a controversial issue, mostly because the possible sources of violent behaviour are so varied, encompassing both biological and environmental factors. However, very little disagreement is found regarding the severity of this societal problem. Most researchers agree that the number and intensity of aggressive acts among adults and children is growing. Not surprisingly, many educational policies, programs, and curricula have been developed to address this concern. The research favours programs which address the root causes of violence and seek to prevent rather than provide consequences for the undesirable behaviour. But what makes a violence prevention program effective? How should educators choose among the many curricula on the market? After reviewing the literature surrounding violence prevention programs and their effectiveness, The Second Step Violence Prevention Curriculum surfaced as unique in many ways. It was designed to address the root causes of violence in an active, student-centred way. Empathy training, anger management, interpersonal cognitive problem solving, and behavioural social skills form the basis of this program. Published in 1992, the program has been the topic of limited research, almost entirely carried out using quantitative methodologies.The purpose of this study was to understand what happens when the Second Step Violence Prevention Curriculum is implemented with a group of students and teachers. I was not seeking a statistical correlation between the frequency of violence and program delivery, as in most prior research. Rather, I wished to gain a deeper understanding of the impact ofthe program through the eyes of the participants. The Second Step Program was taught to a small, primary level, general learning disabilities class by a teacher and student teacher. Data were gathered using interviews with the teachers, personal observations, staff reports, and my own journal. Common themes across the four types of data collection emerged during the study, and these themes were isolated and explored for meaning. Findings indicate that the program does not offer a "quick fix" to this serious problem. However, several important discoveries were made. The teachers feU that the program was effective despite a lack of concrete evidence to support this claim. They used the Second Step strategies outside their actual instructional time and felt it made them better educators and disciplinarians. The students did not display a marked change in their behaviour during or after the program implementation, but they were better able to speak about their actions, the source of their aggression, and the alternatives which were available. Although they were not yet transferring their knowledge into positive action,a heightened awareness was evident. Finally, staff reports and my own journal led me to a deeper understanding ofhow perception frames reality. The perception that the program was working led everyone to feel more empowered when a violent incident occurred, and efforts were made to address the cause rather than merely to offer consequences. A general feeling that we were addressing the problem in a productive way was prevalent among the staff and students involved. The findings from this investigation have many implications for research and practice. Further study into the realm of violence prevention is greatly needed, using a balance of quantitative and qualitative methodologies. Such a serious problem can only be effectively addressed with a greater understanding of its complexities. This study also demonstrates the overall positive impact of the Second Step Violence Prevention Curriculum and, therefore, supports its continued use in our schools.
Resumo:
Introduction The question of the meaning, methods and philosophical manifestations of history is currently rife with contention. The problem that I will address in an exposition of the thought of Wilhelm Dilthey and Martin Heidegger, centers around the intersubjectivity of an historical world. Specifically, there are two interconnected issues. First, since all knowledge occurs to a person from within his or her historical age how can any person in any age make truth claims? In order to answer this concern we must understand the essence and role of history. Yet how can we come to an individual understanding ofwhat history is when the meanings that we use are themselves historically enveloped? But can we, we who are well aware of the knowledge that archaeology has dredged up from old texts or even from 'living' monuments of past ages, really neglect to notice these artifacts that exist within and enrich our world? Charges of wilful blindness would arise if any attempt were made to suggest that certain things of our world did not come down to us from the past. Thus it appears more important 2 to determine what this 'past' is and therefore how history operates than to simply derail the possibility for historical understanding. Wilhelm Dilthey, the great German historicist from the 19th century, did not question the existence of historical artifacts as from the past, but in treating knowledge as one such artifact placed the onus on knowledge to show itself as true, or meaningful, in light ofthe fact that other historical periods relied on different facts and generated different truths or meanings. The problem for him was not just determining what the role of history is, but moreover to discover how knowledge could make any claim as true knowledge. As he stated, there is a problem of "historical anarchy"!' Martin Heidegger picked up these two strands of Dilthey's thought and wanted to answer the problem of truth and meaning in order to solve the problem of historicism. This problem underscored, perhaps for the first time, that societal presuppositions about the past and present oftheir era are not immutable. Penetrating to the core of the raison d'etre of the age was an historical reflection about the past which was now conceived as separated both temporally and attitudinally from the present. But further than this, Heidegger's focus on asking the question of the meaning of Being meant that history must be ontologically explicated not merely ontically treated. Heidegger hopes to remove barriers to a genuine ontology by II 1 3 including history into an assessment ofprevious philosophical systems. He does this in order that the question of Being be more fully explicated, which necessarily for him includes the question of the Being of history. One approach to the question ofwhat history is, given the information that we get from historical knowledge, is whether such knowledge can be formalized into a science. Additionally, we can approach the question of what the essence and role of history is by revealing its underlying characteristics, that is, by focussing on historicality. Thus we will begin with an expository look at Dilthey's conception of history and historicality. We will then explore these issues first in Heidegger's Being and Time, then in the third chapter his middle and later works. Finally, we shall examine how Heidegger's conception may reflect a development in the conception of historicality over Dilthey's historicism, and what such a conception means for a contemporary historical understanding. The problem of existing in a common world which is perceived only individually has been philosophically addressed in many forms. Escaping a pure subjectivist interpretation of 'reality' has occupied Western thinkers not only in order to discover metaphysical truths, but also to provide a foundation for politics and ethics. Many thinkers accept a solipsistic view as inevitable and reject attempts at justifying truth in an intersubjective world. The problem ofhistoricality raises similar problems. We 4 -. - - - - exist in a common historical age, presumably, yet are only aware ofthe historicity of the age through our own individual thoughts. Thus the question arises, do we actually exist within a common history or do we merely individually interpret this as communal? What is the reality of history, individual or communal? Dilthey answers this question by asserting a 'reality' to the historical age thus overcoming solipsism by encasing individual human experience within the historical horizon of the age. This however does nothing to address the epistemological concern over the discoverablity of truth. Heidegger, on the other hand, rejects a metaphysical construel of history and seeks to ground history first within the ontology ofDasein, and second, within the so called "sending" of Being. Thus there can be no solipsism for Heidegger because Dasein's Being is necessarily "cohistorical", Being-with-Others, and furthermore, this historical-Being-in-the-worldwith- Others is the horizon of Being over which truth can appear. Heidegger's solution to the problem of solipsism appears to satisfy that the world is not just a subjective idealist creation and also that one need not appeal to any universal measures of truth or presumed eternal verities. Thus in elucidating Heidegger's notion of history I will also confront the issues ofDasein's Being-alongside-things as well as the Being of Dasein as Being-in-the-world so that Dasein's historicality is explicated vis-a-vis the "sending of Being" (die Schicken des S eins).
Resumo:
This study explored motivations of mid-life women over 30 years old who had returned to school. It sought to fmd whether these women returned to solve a problem arising from life events, whether viewing a problem was related to internal or external motivation, whether this perception was related to having greater coping skills, and whether having greater coping was related to seeking support from internal or external sources. This study examined which emotions were most related to viewing a life event as a problem. Finally, it explored the results of previous research of mid-life women in their role as a student. Women (N==83) from three types of institutions volunteered for this study: a university (N==34), a college (N==28), and an adult education centre (N==21). Participants took home a questionnaire package - a I3-page questionnaire and consent form - that were completed and mailed back to the researcher in pre-paid envelopes. Results showed that women over 30 seek education as a solution to a life event problem. External motivation was related to a life event being a problem (p<.005). There was a significant difference in coping scores between institutions. Moods that were related to viewing a life event as problematic were: anger and depressive moods (p<. 001), fatigue and vigor (p<.O 1), and tension/anxiety (p<.05). Mid-life women students' satisfaction in this role was related to being externally motivated. These women sought support from both internal and external sources, rarely had social interactions with peers, and viewed this role as important, yet, temporary in that it will help them change their lives. Implications ofthe results suggest further exploration ofthe roles of anger and depression in motivating women over 30 to learn and finding ways of directing women to use their emotional intelligence to seek out learning.
Resumo:
The following properties of the core of a one well-known: (i) the core is non-empty; (ii) the core is a lattice; and (iii) the set of unmatched agents is identical for any two matchings belonging to the core. The literature on two-sided matching focuses almost exclusively on the core and studies extensively its properties. Our main result is the following characterization of (von Neumann-Morgenstern) stable sets in one-to-one matching problem only if it is a maximal set satisfying the following properties : (a) the core is a subset of the set; (b) the set is a lattice; (c) the set of unmatched agents is identical for any two matchings belonging to the set. Furthermore, a set is a stable set if it is the unique maximal set satisfying properties (a), (b) and (c). We also show that our main result does not extend from one-to-one matching problems to many-to-one matching problems.
Resumo:
Dans ce mémoire, nous présentons un nouveau type de problème de confection de tour- née pour un seul véhicule avec cueillettes et livraisons et contrainte de chargement. Cette variante est motivée par des problèmes similaires rapportés dans la littérature. Le véhi- cule en question contient plusieurs piles où des colis de hauteurs différentes sont empilés durant leur transport. La hauteur totale des items contenus dans chacune des piles ne peut dépasser une certaine hauteur maximale. Aucun déplacement n’est permis lors de la li- vraison d’un colis, ce qui signifie que le colis doit être sur le dessus d’une pile au moment d’être livré. De plus, tout colis i ramassé avant un colis j et contenu dans la même pile doit être livré après j. Une heuristique à grand voisinage, basé sur des travaux récents dans le domaine, est proposée comme méthode de résolution. Des résultats numériques sont rapportés pour plusieurs instances classiques ainsi que pour de nouvelles instances.
Resumo:
Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.
Resumo:
Le diabète de type 2 et l'obésité sont des problèmes de santé majeurs et les peuples autochtones sont particulièrement à risque. Pour remédier à ce problème largement répandu dans les populations autochtones canadiennes pour qui la médication moderne n’est pas culturellement adaptée, notre équipe s’est donné comme objectif d’étudier les activités potentielles antidiabétique et anti-obésité de la pharmacopée traditionnelle des Cris de la Baie James. Le but de cette étude est de tester l’hypothèse selon laquelle certaines plantes médicinales pourraient inhiber l'absorption intestinale du glucose, une activité anti-hyperglycémique qui, par la même occasion, contribuerait à combattre l’obésité. Les extraits éthanoliques de dix-sept plantes médicinales de la forêt boréale ont été testés dans des cellules intestinales Caco-2 et comparés à l’effet d’inhibiteurs compétitifs connus, tels que la phlorizine et la phlorétine. Ces inhibiteurs sont des composés polyphénoliques qui partagent de nombreuses caractéristiques structurelles avec des constituants moléculaires de plusieurs plantes Cri. Les résultats démontrent que treize des dix-sept extraits de plantes ont inhibé de façon significative l'absorption intestinale du 3H-D-glucose. Pour valider ces effets in vivo, quatre extraits ont été administrés à des rats Wistar par gavage intragastrique (250 mg/kg) en même temps qu’un bolus de glucose (3 g/kg). Suite à ce gavage, deux de ces extraits ont restreint l’augmentation de la glycémie d'environ 40% par rapport à un contrôle sans extrait. Ces résultats indiquent qu’une inhibition compétitive de l'absorption intestinale du glucose peut être atteinte par des extraits bruts de plantes médicinales. La prise de ces plantes durant les repas aiderait à un meilleur contrôle post-prandial de la glycémie, particulièrement chez les personnes à risque.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La fertilisation phosphatée est très répandue dans les pratiques agricoles Nord-Américaines. Bien que généralement très efficace pour augmenter la production végétale, son utilisation peut engendrer certaines contaminations environnementales. Afin de diminuer ce problème, plusieurs pratiques de gestion sont envisagées. Parmi celles-ci, on retrouve l’intéressante possibilité de manipuler la flore microbienne car cette dernière est reconnue pour son implication dans bons nombres de processus fondamentaux liés à la fertilité du sol. Cette étude a démontré que lors d’essais en champs, la forme de fertilisant ajouté au sol ainsi que la dose de phosphore (P) appliquée avaient un impact sur la distribution des microorganismes dans les différentes parcelles. Une première expérience menée sur une culture de luzerne en prairie semi-aride a montré que les échantillons provenant de parcelles ayant reçu différentes doses de P présentaient des différences significatives dans leurs communautés bactériennes et fongiques. La communauté de CMA est restée similaire entre les différents traitements. Une deuxième expérience fut menée pendant trois saisons consécutives afin de déterminer l’effet de différentes formes de fertilisation organiques et minérale ajustées selon une dose unique de P sur les populations bactériennes et fongiques d’une culture intensive de maïs en rotation avec du soja. Les résultats des analyses ont montrés que les populations varient selon le type de fertilisation reçu et que les changements sont indépendants du type de végétaux cultivé. Par contre, les populations microbiennes subissent une variation plus marquée au cours de la saison de culture. La technique de DGGE a permis d’observer les changements frappant la diversité microbienne du sol mais n’a permis d’identifier qu’une faible proportion des organismes en cause. Parallèlement à cette deuxième étude, une seconde expérience au même site fut menée sur la communauté de champignons mycorhiziens à arbuscules (CMA) puisqu’il s’agit d’organismes vivant en symbiose mutualiste avec la majorité des plantes et favorisant la nutrition de même que l’augmentation de la résistance aux stress de l’hôte. Ceci permit d’identifier et de comparer les différents CMA présents dans des échantillons de sol et de racines de maïs et soja. Contrairement aux bactéries et aux champignons en général, les CMA présentaient une diversité très stable lors des différents traitements. Par contre, au cours des trois années expérimentales, il a été noté que certains ribotypes étaient significativement plus liés au sol ou aux racines. Finalement, l’ensemble de l’étude a démontré que la fertilisation phosphatée affecte la structure des communautés microbiennes du sol dans les systèmes évalués. Cependant, lors de chaque expérience, la date d’échantillonnage jouait également un rôle prépondérant sur la distribution des organismes. Plusieurs paramètres du sol furent aussi mesurés et ils présentaient aussi une variation au cours de la saison. L’ensemble des interactions possibles entre ces différents paramètres qui, dans certains cas, variaient selon le traitement appliqué, aurait alors probablement plus d’impact sur la biodiversité microbienne que la seule fertilisation.
Resumo:
La chromatine est essentielle au maintien de l’intégrité du génome, mais, ironiquement, constitue l’obstacle principal à la transcription des gènes. Plusieurs mécanismes ont été développés par la cellule pour pallier ce problème, dont l’acétylation des histones composant les nucléosomes. Cette acétylation, catalysée par des histones acétyl transférases (HATs), permet de réduire la force de l’interaction entre les nucléosomes et l’ADN, ce qui permet à la machinerie transcriptionnelle de faire son travail. Toutefois, on ne peut laisser la chromatine dans cet état permissif sans conséquence néfaste. Les histone déacétylases (HDACs) catalysent le clivage du groupement acétyle pour permettre à la chromatine de retrouver une conformation compacte. Cette thèse se penche sur la caractérisation de la fonction et du mécanisme de recrutement des complexes HDACs Rpd3S et Set3C. Le complexe Rpd3S est recruté aux régions transcrites par une interaction avec le domaine C-terminal hyperphosphorylé de Rpb1, une sous-unité de l’ARN polymérase II. Toutefois, le facteur d’élongation DSIF joue un rôle dans la régulation de cette association en limitant le recrutement de Rpd3S aux régions transcrites. L’activité HDAC de Rpd3S, quant à elle, dépend de la méthylation du résidu H3K36 par l’histone méthyltransférase Set2. La fonction du complexe Set3C n’est pas clairement définie. Ce complexe est recruté à la plupart de ses cibles par l’interaction entre le domaine PHD de Set3 et le résidu H3K4 di- ou triméthylé. Un mécanisme indépendant de cette méthylation, possiblement le même que pour Rpd3S, régit toutefois l’association de Set3C aux régions codantes des gènes les plus transcrits. La majorité de ces résultats ont été obtenus par la technique d’immunoprécipitation de la chromatine couplée aux biopuces (ChIP-chip). Le protocole technique et le design expérimental de ce type d’expérience fera aussi l’objet d’une discussion approfondie.
Resumo:
Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.
Resumo:
L’émergence des souches bactériennes résistantes aux antibiotiques est un phénomène inquiétant, qui se répand à travers le monde. Staphylococcus aureus et Pseudomonas aeruginosa sont des bactéries pathogènes opportunistes multi résistantes qui peuvent causer plusieurs maladies. Cependant, ces bactéries deviennent difficiles à traiter avec des antibiotiques sans occasionner de toxicité. Alors pour trouver des solutions, c’est nécessaire de développer de nouvelles molécules afin de combattre les agents pathogènes résistants. Grâce à leur action pharmacologique, les fluorures exercent un certain effet antibactérien au niveau de l'émail des dents; donc, leur association aux antibiotiques pourrait bien a méliorer l’activité antimicrobienne. De ce fait, nous nous sommes proposés d’étudier les activités in vitro de la vancomycine (VAN), l’oxacilline (OXA), la ceftazidime (CFT) et la méropenème (MER) libre ou associée au fluorure de sodium (NaF) et fluorure de lithium (LiF) qui ont été évaluées sur des souches S.aureus et P.aeruginosa sensibles et résistantes, par la méthode de la microdilution en bouillon, déterminant leur concentration minimale inhibitrice (CMI), leur concentration minimale bactéricide (CMB), leur courbe cinétique (Time-Kill). Leur cytotoxicité sur les globules rouges humains, et leur stabilité à la température de 4°C et 22°C ont été étudiées. Les associations des antimicrobiens aux dérivés des fluorures ont montré une amélioration de l’effet des antibiotiques par la réduction des leurs concentrations et toxicité pour traiter correctement ces pathogènes résistants. Par conséquent, des antibiotiques associés aux dérivés de fluorure pourraient devenir une option de traitement contre des souches résistantes afin de diminuer la toxicité causée par de fortes doses des antibiotiques conventionnels.
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
Le respect de la vie privée est garanti dans presque tous les pays du monde, dont la République Démocratique du Congo. Les textes juridiques internes et internationaux qui assurent la protection de la vie privée ont généralement été édictés à une époque où l'on ne pouvait tenir compte de l’avènement des inforoutes. Cet article tend à rechercher, autant que faire se peut, les divers formes de violations de la vie privée pouvant être commises sur les réseaux numériques et les mécanismes de protection y relatifs. Sont abordées, en premier lieu, les violations effectuées par les pouvoirs publics. Nombreuses sont les atteintes à la vie privée autorisées par les normes juridiques étatiques pour raison de sécurité publique. Il en est ainsi des perquisitions électroniques, des visites de lieux et des saisies opérées par des agents des services étatiques porteurs des titres réguliers et dans le strict respect tant de la procédure que des lois. Toutefois, il arrive que les agents d'État débordent le cadre de l’objet de leur mission ou agissent sans titre régulier. Du côté des atteinte perpétrées par les personnes privées, l'on pourra citer, à titre indicatif, la commission des délits de presse et la violation du secret professionnel, la prise de connaissance ou la soustraction frauduleuse des données à caractère personnel. Ces atteintes procèdent de divers fondements, parmi lesquels on retrouvera les conceptions libertaires, les intérêts égoïstes, l’ignorance des législations étrangères, le principe de la liberté de l’information, les raisons scientifiques ou celles d’ordre public. Un certain nombre de mécanismes juridiques permet néanmoins de combattre ou de réfréner les violations de la vie privée. Tout semble graviter autour de la mise en œuvre d’une procédure pouvant enclencher des sanctions pénales, civiles, disciplinaires ou administratives, hormis l’existence de certains mécanismes de protection particuliers tel que le droit de réponse.
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.