895 resultados para Anchoring heuristic
Resumo:
Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
Cette thèse part du postulat que la crise du syndicalisme résulte d’une remise en cause des identités collectives ayant légitimé jusque dans les années 70 leur représentation des travailleurs. En témoignent les mobilisations, qui se déroulent souvent en dehors des syndicats et de façon conflictuelle avec eux, de travailleuses et travailleurs longtemps minorés par les arrangements institutionnels prévalant avec la société salariale. Différents travaux dans le renouveau syndical relèvent de leur côté que les syndicats peinent à prendre en compte les besoins et aspirations de ces travailleurs car leur identité collective les entraîne à rester dans les sentiers des orientations et représentations institutionnalisées. Cependant, les auteurs se focalisent sur la façon dont le syndicalisme, et en particulier les leaders, peuvent reconstruire une représentation des travailleurs, et non sur la façon dont les identités collectives se transforment. Les études sur le syndicalisme héritent d’un débat sur les mouvements sociaux qui a abouti à scinder les approches théoriques entre celles conceptualisant les identités collectives, mais dans le cadre de théorisations contestables de l’évolution des sociétés, et celles qui sous-théorisent les identités collectives et considèrent que les mouvements sociaux émergent des processus politique et de la mobilisation des ressources. Les travaux sur le renouveau syndical reprennent généralement cette seconde approche et assimilent les mouvements de travailleurs à des organisations en considérant, implicitement, les buts de l’action collective comme donné. Or, un mouvement social est un concept ; il n’est pas réductible à une organisation, au risque sinon de perdre sa valeur heuristique, qui est de chercher à saisir les identités collectives en conflit et les stratégies associées. À partir de l’étude du cas du mouvement de travailleurs dans l’économie solidaire brésilienne, cette thèse questionne donc le « pourquoi de nouvelles identités collectives de travailleurs émergent » et le « comment ou le pourquoi des identités syndicales se transforment ou se reproduisent », lorsqu’elles sont confrontées à l’émergence de nouvelles façons de définir les dominations à combattre et les orientations. Les identités collectives sont opérationnalisées comme des matrices cognitives et normatives, ce qui permet de rendre compte de leur caractère évolutif en fonction des modalités d’interaction. L’étude de cas met en évidence que les mobilisations autonomes des travailleurs minorés sont porteuses de nouvelles définitions des problèmes et de pratiques sociales transformatrices, qui entrent en conflit avec les significations et les pratiques syndicales institutionnalisées. Elle montre que c’est à la suite d’interactions délibératives entre ces travailleurs et les syndicalistes que les identités syndicales se transforment. Cependant, la reconstitution des trajectoires de deux syndicats (de la principale centrale brésilienne) indique que le fait d’entrer dans de telles interactions ne dépend pas d’une décision rationnelle, mais de la perception (de la part des syndicats) des capacités des travailleurs à transformer le rapport au travail et au monde lorsqu’ils agissent collectivement. Un dernier résultat, corollaire, tient dans la falsification de l’hypothèse – défendue par une partie de la littérature sur le renouveau syndical – selon laquelle les syndicats, et en particulier les leaders, peuvent conduire une transformation de la représentation collective en procédant eux-mêmes à une agrégation des multiples identités collectives. Cette hypothèse, qui revient à considérer le but de l’action collective comme donné, est contredite par les données : elles montrent que, dans un tel cas, s’il y a bien des innovations institutionnelles conduites par le syndicat, ces innovations favorisent l’adaptation du syndicalisme aux mutations du capitalisme et non la transformation des rapports sociaux de domination, parce que prédominent alors les liens sociaux avec les groupes dominants, c’est-à-dire les interprétations cognitives dominantes des problèmes.
Resumo:
Dans ce mémoire, nous abordons le problème de l’ensemble dominant connexe de cardinalité minimale. Nous nous penchons, en particulier, sur le développement de méthodes pour sa résolution basées sur la programmation par contraintes et la programmation en nombres entiers. Nous présentons, en l’occurrence, une heuristique et quelques méthodes exactes pouvant être utilisées comme heuristiques si on limite leur temps d’exécution. Nous décrivons notamment un algorithme basé sur l’approche de décomposition de Benders, un autre combinant cette dernière avec une stratégie d’investigation itérative, une variante de celle-ci utilisant la programmation par contraintes, et enfin une méthode utilisant uniquement la programmation par contraintes. Des résultats expérimentaux montrent que ces méthodes sont efficaces puisqu’elles améliorent les méthodes connues dans la littérature. En particulier, la méthode de décomposition de Benders avec une stratégie d’investigation itérative fournit les résultats les plus performants.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
Avec la participation de 38 Montréalais d'origine congolaise, dont 21 femmes et 17 hommes
Resumo:
Ce mémoire étudie la dynamique communicationnelle et interactionnelle entre un joueur et un système de jeu par l’entremise des théories de l’énonciation et de la cognition. Par une analyse des jeux vidéo d’horreur en perspective à la première personne, il s’agit de conceptualiser une spirale heuristique de l’énonciation à partir des principes théoriques du Cycle Magique (Arsenault et Perron, 2009). Le propos se focalise sur la manière dont le joueur expérimente et traite les propositions ludiques et les propositions ludodiégétiques. L’intérêt est d’observer comment la valeur réflexive des marques de jeu et des marques de jouabilité sert à départager des relations d’attribution entre des formulations énonciatives (textuelles, verbales, visuelles, sonores ou procédurales) et des agents énonciatifs. Cette recherche rend compte, d’une part, de la gestion cognitive des faits énonciatifs et, d’autre part, de la modulation de leurs valeurs d’immédiateté-hypermédiateté et de leurs rapports de liaison/déliaison avec les agents énonciatifs. Il est expliqué que cette activité cognitive du joueur dirige la schématisation d’attitudes interactionnelles servant à structurer la signification – ludique ou narrative – des propositions ludiques générées au cours de l’activité de jeu. L’analyse cible des processus de mise en phase performative et de mise en phase méta-systémique ludique permettant la détermination de vecteurs d’immersion. En fonction du caractère d’opacité ou de transparence des vecteurs, il est question d’indiquer comment la posture d’expérience du joueur oscille entre un continuum immersif qui polarise une expérience systémique et une expérience diégétisée.
Resumo:
La division cellulaire asymétrique (DCA) consiste en une division pendant laquelle des déterminants cellulaires sont distribués préférentiellement dans une des deux cellules filles. Par l’action de ces déterminants, la DCA générera donc deux cellules filles différentes. Ainsi, la DCA est importante pour générer la diversité cellulaire et pour maintenir l’homéostasie de certaines cellules souches. Pour induire une répartition asymétrique des déterminants cellulaires, le positionnement du fuseau mitotique doit être très bien contrôlé. Fréquemment ceci génère deux cellules filles de tailles différentes, car le fuseau mitotique n’est pas centré pendant la mitose, ce qui induit un positionnement asymétrique du sillon de clivage. Bien qu’un complexe impliquant des GTPases hétérotrimériques et des protéines liant les microtubules au cortex ait été impliqué directement dans le positionnement du fuseau mitotique, le mécanisme exact induisant le positionnement asymétrique du fuseau durant la DCA n'est pas encore compris. Des études récentes suggèrent qu’une régulation asymétrique du cytosquelette d’actine pourrait être responsable de ce positionnement asymétrique du faisceau mitotique. Donc, nous émettons l'hypothèse que des contractions asymétriques d’actine pendant la division cellulaire pourraient déplacer le fuseau mitotique et le sillon de clivage pour créer une asymétrie cellulaire. Nos résultats préliminaires ont démontré que le blebbing cortical, qui est une indication de tension corticale et de contraction, se produit préférentiellement dans la moitié antérieure de cellule précurseur d’organes sensoriels (SOP) pendant le stage de télophase. Nos données soutiennent l'idée que les petites GTPases de la famille Rho pourraient être impliqués dans la régulation du fuseau mitotique et ainsi contrôler la DCA des SOP. Les paramètres expérimentaux développés pour cette thèse, pour étudier la régulation de l’orientation et le positionnement du fuseau mitotique, ouvrirons de nouvelles avenues pour contrôler ce processus, ce qui pourrait être utile pour freiner la progression de cellules cancéreuses. Les résultats préliminaires de ce projet proposeront une manière dont les petites GTPases de la famille Rho peuvent être impliqués dans le contrôle de la division cellulaire asymétrique in vivo dans les SOP. Les modèles théoriques qui sont expliqués dans cette étude pourront servir à améliorer les méthodes quantitatives de biologie cellulaire de la DCA.
Resumo:
Avec ce mémoire, j’ai souhaité cerner ce qui serait le propre d’une conversion, soit ce que j’ai appelé un processus de trans-formation. Avec ce concept original, j’ai voulu orienter le regard de l’observateur vers les points de basculement de l’intimité à la publicité qui caractérisent les conversions. Pour ce faire, il m’est apparu fertile de mobiliser et de réhabiliter l’étude des valeurs, un thème classique en sociologie. Des valeurs portées par des individus aux valeurs publiques, la notion de « valeur » recèle le potentiel heuristique nécessaire pour étudier les conversions à différentes échelles d’analyse et par-delà des qualifications a priori religieuses, politiques, sexuelles, etc. Avec cette perspective théorique pragmatique inspirée par Dewey et articulée à la sensibilité aux positions sociales des cultural studies, je me suis donné les moyens d’analyser la façon dont change au cours d’une vie ce à quoi les gens tiennent. Cette représentation dynamique de la conversion vient ajouter des éléments de compréhension à un phénomène trop souvent appréhendé à la lumière de « lectures préférées » modernes et coloniales qui demandaient à être subverties pour redonner place à l’exercice de l’imagination sociologique. Les apports du concept de trans-formation sont illustrés à partir de la comparaison de quatre études de cas individuels : Paul Claudel, un écrivain converti au catholicisme ; Michelle Blanc, une transsexuelle québécoise ; Joe Loya, un Mexican American qui modifie ses conceptions du bien et du mal en isolement carcéral ; et Mlle Pigut qui est devenue « vegan ».
Resumo:
Refus global, le recueil, n’est pas « Refus global », le texte rédigé par Paul-Émile Borduas et cosigné par 15 membres du groupe automatiste. Partant de cette distinction entre le recueil automatiste et son texte éponyme et du constat selon lequel la partie éclipse le tout dans le discours critique, cette thèse a pour objectif d’expliquer l’occultation du recueil dans l’histoire sociale et artistique québécoise. À partir de l’étude de la réception de 1948 à 2008, j’interroge la constitution du récit commun entourant l’œuvre, duquel le recueil est exclu. Il s’agit donc de mettre au jour les obstacles qui se sont présentés dans le parcours de réception du recueil, nuisant à la formation d’un discours unifié et cohérent à son sujet et l’empêchant de s’inscrire dans l’histoire. Dégagés de l’étude du corpus composé de 639 objets sémiotiques secondaires (OSS, selon le concept proposé par Brigitte Louichon), les obstacles à la réception du recueil relèvent à la fois de facteurs pragmatiques, telles la composition hétérogène de l’œuvre ou sa disponibilité; de facteurs institutionnels ou historiographiques, comme la disciplinarisation du champ culturel ou l’impact du récit de la Révolution tranquille sur l’histoire littéraire; et de facteurs humains, reposant sur le rôle des auteurs et de certains critiques dans l’accueil réservé à l’œuvre. Les différentes étapes de la réception sont ainsi considérées : de l’horizon d’attente (Jauss) à la réception productive (Link), en passant par la publication, les premières critiques, les rééditions, les lectures savantes, l’historicisation et l’entrée de l’œuvre dans la mémoire à titre de symbole ou d’hypotexte. Or, plutôt qu’à ce parcours de réception exemplaire, c’est son envers qui est interrogé ici, c’est-à-dire les difficultés et les déviations de la réception du recueil Refus global. Cette thèse est divisée en trois parties. La première, théorique et méthodologique, situe mon propos dans les domaines de l’histoire culturelle et des études de réception, et présente diverses considérations concernant la constitution du corpus et le traitement des données. La deuxième aborde l’horizon d’attente et la première réception, moment crucial pour la survie de l’œuvre, comme l’ont montré Hans Robert Jauss et Daniel Chartier. On y observe notamment l’effet de verrou (Cambron) qu’a le renvoi de Borduas sur la constitution du récit de réception, de même que les critères éthiques et esthétiques en fonction desquels s’est opérée la hiérarchisation des composantes du recueil. La troisième partie couvre la réception subséquente (1950-2008). À l’étude des obstacles empêchant l’intégration du recueil dans l’histoire s’ajoute alors l’étude des réceptions parallèles, parcellaires et autonomes dont a bénéficié Refus global pour survivre – ponctuellement et partiellement – en dehors du récit commun formé autour de « Refus global ». Avec les différentes catégories d’OSS (directs, indirects, hypertextuels, métacritiques et parcellaires), ces trois types de réception font partie des outils heuristiques développés dans le but d’expliquer la réception partielle dont a fait l’objet le recueil. Selon l’approche quantitative et environnementaliste de l’histoire culturelle, Refus global est envisagé comme un microcosme de la culture, dans lequel certaines œuvres sont retenues et d’autres négligées. L’analyse d’un corpus critique large et varié permet ainsi de saisir non seulement les phénomènes conduisant à la consécration du texte éponyme ou à l’oubli relatif du recueil, mais aussi les tendances critiques, les parutions marginales, les critiques isolées, etc. qui, enfouies dans les angles morts de la réception, offrent au recueil et à ses composantes des voies de contournement du discours dominant. En somme, l’étude de la réception du recueil Refus global a permis à la fois de déplacer la focalisation critique depuis « Refus global » vers Refus global, de développer des outils pour envisager la réception d’œuvres marginalisées et de mettre en évidence des critères privilégiés dans la constitution de l’histoire et de la mémoire culturelles québécoises depuis 1948.
Resumo:
L’objectif général de cette thèse de doctorat est de mieux comprendre comment le public interprète les nouvelles scientifiques portant sur la génétique humaine, plus précisément les nouvelles portant sur la génétique des comportements et celles portant sur la génétique des groupes raciaux. L’ouvrage prend la forme d’une thèse par article. Le Chapitre 1 introduit le lecteur aux buts et aux pratiques de la vulgarisation scientifique, présente un sommaire de la recherche sur les effets des médias, résume les principaux travaux produits par le champ de la génopolitique, et définit la structure des croyances du public à l’égard de l’influence de la génétique sur les traits humains. Le Chapitre 2 présente les fondements de la méthode expérimentale, il en explique les atouts et il offre des exemples de différents types de devis expérimentaux utilisés en science politique. Toutes les recherches produites dans cette thèse reposent au moins en partie sur cette méthode. Le Chapitre 3 présente les résultats d’une expérience de sondage qui vise à mesurer l’effet de la lecture d’une nouvelle à propos de la recherche en génétique des comportements sur des participants. L’étude démontre que le public interprète la nouvelle avec maladresse et tend à généraliser l’influence de la génétique à d’autres traits humains qui n’y sont pas mentionnés. J’avance l’hypothèse qu’un raccourci psychologique amplement documenté puisse expliquer cette réaction : l’heuristique de l’ancrage et de l’ajustement. Le Chapitre 4 présente lui aussi les résultats d’une expérience de sondage. L’étude consiste à manipuler certaines informations du contenu d’une nouvelle sur la génopolitique de manière à vérifier si certains éléments sont particulièrement susceptibles de mener à la généralisation hâtive mise en évidence dans le Chapitre 3. Les analyses suggèrent que cette généralisation est amplifiée lorsque la nouvelle présente de hauts niveaux d’héritabilité tirés d’études de jumeaux, ainsi que lorsqu’elle présente des travaux de génétique des populations visant à étudier l’origine des différences géographiques. Ce chapitre présente des recommandations à l’égard des journalistes scientifiques. Le Chapitre 5 s’intéresse à un aspect différent de la génétique humaine : celui de la génétique des races. L’objectif de cette recherche est de comprendre comment le public réagit aux travaux qui invalident l’idée selon laquelle les humains sont divisés en différentes races génétiquement distinctes. Les analyses de données transversales ainsi que les résultats d’une expérience de sondage convergent et indiquent que les conservateurs et les libéraux réagissent de manière diamétralement opposée à cette information. D’un côté, les libéraux acceptent le constat scientifique et réduisent leur impression que la génétique explique en partie les inégalités sociales; de l’autre, les conservateurs rejettent l’argument avec une intensité si forte que le rôle qu’ils attribuent aux différences génétiques s’en voit bonifié. Ces résultats sont interprétés à partir de la théorie du raisonnement motivé. Enfin, le Chapitre 6 résume les principaux constats, met en évidence les contributions que ma thèse apporte à la science politique et à la communication scientifique, et présente quelques pistes pour la recherche future.
Resumo:
Full Text / Article complet
Resumo:
Ce projet de recherche a été réalisé avec la collaboration de FPInnovations. Une part des travaux concernant le problème de récolte chilien a été effectuée à l'Instituto Sistemas Complejos de Ingeniería (ISCI) à Santiago (Chili).
Resumo:
The thesis deals with the synthesis, characterization and catalytic activity studies of supported cobalt(ii), nickel(II) and copper(II) complexes of O-phenylenediamine and Schiff bases derived from 3-hydroxyquinoxaline -2-carboxaldehyde. Zeolite encapsulation and polymer anchoring was employed for supporting the complexes. The characterization techniques proved that the encapsulation as well as polymer supporting has been successfully achieved. The catalytic activity studies revealed that the activities of the simple complexes are improved upon encapsulation. Various characterization techniques are used such as, chemical analysis, EPR, magnetic measurements, FTIR studies, thermal analysis, electronic spectra, XRD, SEM, surface area, and GC.The present study indicated that the that the mechanism of oxidation of catechol and DTBC by hydrogen peroxide is not altered by the change in the coordination sphere around the metal ion due to encapsulation. This fact suggests outer sphere mechanism for the reactions. The catalytic activity by zeolite encapsulated complex was found to be slower than that by the neat complex. The slowing down of the reaction in the zeolite case is probably due to the constraint imposed by the zeolite framework. The rate of DTBC ( 3,5-di-tert-butylchatechol)oxidation was found to be greater than the rate of catechol oxidation. This is obviously due to the presence of electron donating tertiary butyl groups.
Resumo:
To ensure quality of machined products at minimum machining costs and maximum machining effectiveness, it is very important to select optimum parameters when metal cutting machine tools are employed. Traditionally, the experience of the operator plays a major role in the selection of optimum metal cutting conditions. However, attaining optimum values each time by even a skilled operator is difficult. The non-linear nature of the machining process has compelled engineers to search for more effective methods to attain optimization. The design objective preceding most engineering design activities is simply to minimize the cost of production or to maximize the production efficiency. The main aim of research work reported here is to build robust optimization algorithms by exploiting ideas that nature has to offer from its backyard and using it to solve real world optimization problems in manufacturing processes.In this thesis, after conducting an exhaustive literature review, several optimization techniques used in various manufacturing processes have been identified. The selection of optimal cutting parameters, like depth of cut, feed and speed is a very important issue for every machining process. Experiments have been designed using Taguchi technique and dry turning of SS420 has been performed on Kirlosker turn master 35 lathe. Analysis using S/N and ANOVA were performed to find the optimum level and percentage of contribution of each parameter. By using S/N analysis the optimum machining parameters from the experimentation is obtained.Optimization algorithms begin with one or more design solutions supplied by the user and then iteratively check new design solutions, relative search spaces in order to achieve the true optimum solution. A mathematical model has been developed using response surface analysis for surface roughness and the model was validated using published results from literature.Methodologies in optimization such as Simulated annealing (SA), Particle Swarm Optimization (PSO), Conventional Genetic Algorithm (CGA) and Improved Genetic Algorithm (IGA) are applied to optimize machining parameters while dry turning of SS420 material. All the above algorithms were tested for their efficiency, robustness and accuracy and observe how they often outperform conventional optimization method applied to difficult real world problems. The SA, PSO, CGA and IGA codes were developed using MATLAB. For each evolutionary algorithmic method, optimum cutting conditions are provided to achieve better surface finish.The computational results using SA clearly demonstrated that the proposed solution procedure is quite capable in solving such complicated problems effectively and efficiently. Particle Swarm Optimization (PSO) is a relatively recent heuristic search method whose mechanics are inspired by the swarming or collaborative behavior of biological populations. From the results it has been observed that PSO provides better results and also more computationally efficient.Based on the results obtained using CGA and IGA for the optimization of machining process, the proposed IGA provides better results than the conventional GA. The improved genetic algorithm incorporating a stochastic crossover technique and an artificial initial population scheme is developed to provide a faster search mechanism. Finally, a comparison among these algorithms were made for the specific example of dry turning of SS 420 material and arriving at optimum machining parameters of feed, cutting speed, depth of cut and tool nose radius for minimum surface roughness as the criterion. To summarize, the research work fills in conspicuous gaps between research prototypes and industry requirements, by simulating evolutionary procedures seen in nature that optimize its own systems.