830 resultados para Gradient-based approaches
Resumo:
This study investigates instructors’ perceptions of reading instruction and difficulties among Language Instruction for Newcomers to Canada (LINC) Level 1-3 learners. Statistics Canada reports that 60% of immigrants possess inadequate literacy skills. Newcomers are placed in classes using the Canadian Language Benchmarks but large, mixed-level classes create little opportunity for individualized instruction, leading some clients to demonstrate little change in their reading benchmarks. Data were collected (via demographic questionnaires, semi-structured interviews, teaching plans, and field study notes) to create a case study of five LINC instructors’ perceptions of why some clients do not progress through the LINC reading levels as expected and how their previous experiences relate to those within the LINC program. Qualitative analyses of the data revealed three primary themes: client/instructor background and classroom needs, reading, strategies, methods and challenges, and assessment expectations and progress, each containing a number of subthemes. A comparison between the themes and literature demonstrated six areas for discussion: (a) some clients, specifically refugees, require more time to progress to higher benchmarks; (b) clients’ level of prior education can be indicative of their literacy skills; (c) clients with literacy needs should be separated and placed into literacy-specific classes; (d) evidence-based approaches to reading instruction were not always evident in participants’ responses, demonstrating a lack of knowledge about these approaches; (e) first language literacy influences second language reading acquisition through a transfer of skills; and (f) collaboration in the classroom supports learning by extending clients’ capabilities. These points form the basis of recommendations about how reading instruction might be improved for such clients.
Resumo:
The fashionable widespreading of Sen’s ideas coincides with a new mood in the shaping of public policies in affluent societies. In Europe indeed, an “opportunity”-based approach to social security has been implemented through the European Employment Strategy. Public action tends to rely on a procedural concern with individual opportunities or potentialities in the labour market. The underlying ethics is that individuals are then responsible to use these background opportunities in order to lead the kind of life they value most. More broadly, the discourse and practice of the so-called “Third Way” shares with the capability approach an appeal for a procedural and enabling depiction of the role of the State. The paper intends to clarify the relation between procedural and opportunity-based approaches to social justice, among them the capability approach, and these new patterns of public action. Our vision goes in the way of a yet renewed, but deeper action of the welfare state, where social agency is envisaged as the very condition of individual agency. Drawing on the various critics of mainstream equality of opportunity, two opposed approaches to responsibility are identified: on the one hand, responsibility is conceived of as i) a “luck vs. choice” fixed starting point, ii) a backward-looking conception and iii) a highly individualistic framework. On the other hand, responsibility is envisaged as i) an outcome of public policies rather than a starting point, ii) a forward-looking conception, and iii) a combined institutional-individual framework. We situate here Sen’s capability approach, as well as critics of the luck egalitarianism path. The Third Way rhetoric is assessed against both these perspectives. The issue eventually boils down to an ethical reflection on the articulation of responsibilities, and to a pragmatic and substantial concern for the content of what providing security should mean in practice.
Resumo:
L’accès aux traitements de base est un enjeu crucial pour la santé, la pauvreté et le développement. La responsabilité en matière d’accès est alors une question essentielle. Le huitième Objectif du Millénaire pour le Développement postule qu’en coopération avec les firmes pharmaceutiques, l’accès aux traitements essentiels doit être assuré. Les principales parties prenantes qui doivent engager leur responsabilité pour l’accès aux médicaments sont (1) l’industrie pharmaceutique, (2) les gouvernements, (3) la société au sens large, et (4) les individus (qu’ils soient ou non malades). Quatre approches permettent d’appréhender la responsabilité: (a) l’approche déontologique; (b) l’utilitarisme; (c) l’égalitarisme; (b) l’approche basée sur les droits de l’homme. Ces quatre arguments peuvent être utilisés pour assigner une responsabilité aux gouvernements dans l’accès aux médicaments. Le papier conclut qu’il est parfois difficile de distinguer entre ces quatre approches et qu’un « glissement-d’échelle » de la responsabilité est une voie utile pour appréhender les rôles des quatre principales parties prenantes dans l’accès aux médicaments, dépendant du pays ou de la région et de son environnement interne.
Resumo:
Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.
Resumo:
Les habitudes de consommation de substances psychoactives, le stress, l’obésité et les traits cardiovasculaires associés seraient en partie reliés aux mêmes facteurs génétiques. Afin d’explorer cette hypothèse, nous avons effectué, chez 119 familles multi-générationnelles québécoises de la région du Saguenay-Lac-St-Jean, des études d’association et de liaison pangénomiques pour les composantes génétiques : de la consommation usuelle d’alcool, de tabac et de café, de la réponse au stress physique et psychologique, des traits anthropométriques reliés à l’obésité, ainsi que des mesures du rythme cardiaque (RC) et de la pression artérielle (PA). 58000 SNPs et 437 marqueurs microsatellites ont été utilisés et l’annotation fonctionnelle des gènes candidats identifiés a ensuite été réalisée. Nous avons détecté des corrélations phénotypiques significatives entre les substances psychoactives, le stress, l’obésité et les traits hémodynamiques. Par exemple, les consommateurs d’alcool et de tabac ont montré un RC significativement diminué en réponse au stress psychologique. De plus, les consommateurs de tabac avaient des PA plus basses que les non-consommateurs. Aussi, les hypertendus présentaient des RC et PA systoliques accrus en réponse au stress psychologique et un indice de masse corporelle (IMC) élevé, comparativement aux normotendus. D’autre part, l’utilisation de tabac augmenterait les taux corporels d’épinéphrine, et des niveaux élevés d’épinéphrine ont été associés à des IMC diminués. Ainsi, en accord avec les corrélations inter-phénotypiques, nous avons identifié plusieurs gènes associés/liés à la consommation de substances psychoactives, à la réponse au stress physique et psychologique, aux traits reliés à l’obésité et aux traits hémodynamiques incluant CAMK4, CNTN4, DLG2, DAG1, FHIT, GRID2, ITPR2, NOVA1, NRG3 et PRKCE. Ces gènes codent pour des protéines constituant un réseau d’interactions, impliquées dans la plasticité synaptique, et hautement exprimées dans le cerveau et ses tissus associés. De plus, l’analyse des sentiers de signalisation pour les gènes identifiés (P = 0,03) a révélé une induction de mécanismes de Potentialisation à Long Terme. Les variations des traits étudiés seraient en grande partie liées au sexe et au statut d’hypertension. Pour la consommation de tabac, nous avons noté que le degré et le sens des corrélations avec l’obésité, les traits hémodynamiques et le stress sont spécifiques au sexe et à la pression artérielle. Par exemple, si des variations ont été détectées entre les hommes fumeurs et non-fumeurs (anciens et jamais), aucune différence n’a été observée chez les femmes. Nous avons aussi identifié de nombreux traits reliés à l’obésité dont la corrélation avec la consommation de tabac apparaît essentiellement plus liée à des facteurs génétiques qu’au fait de fumer en lui-même. Pour le sexe et l’hypertension, des différences dans l’héritabilité de nombreux traits ont également été observées. En effet, des analyses génétiques sur des sous-groupes spécifiques ont révélé des gènes additionnels partageant des fonctions synaptiques : CAMK4, CNTN5, DNM3, KCNAB1 (spécifique à l’hypertension), CNTN4, DNM3, FHIT, ITPR1 and NRXN3 (spécifique au sexe). Ces gènes codent pour des protéines interagissant avec les protéines de gènes détectés dans l’analyse générale. De plus, pour les gènes des sous-groupes, les résultats des analyses des sentiers de signalisation et des profils d’expression des gènes ont montré des caractéristiques similaires à celles de l’analyse générale. La convergence substantielle entre les déterminants génétiques des substances psychoactives, du stress, de l’obésité et des traits hémodynamiques soutiennent la notion selon laquelle les variations génétiques des voies de plasticité synaptique constitueraient une interface commune avec les différences génétiques liées au sexe et à l’hypertension. Nous pensons, également, que la plasticité synaptique interviendrait dans de nombreux phénotypes complexes influencés par le mode de vie. En définitive, ces résultats indiquent que des approches basées sur des sous-groupes et des réseaux amélioreraient la compréhension de la nature polygénique des phénotypes complexes, et des processus moléculaires communs qui les définissent.
Resumo:
L’apoptose endothéliale initie le processus menant au remodelage vasculaire et au développement de la néointima dans la vasculopathie du greffon. La formation de néointima résulte de l’accumulation de leucocytes, de matrice extracellulaire et de cellules positives pour l’actine musculaire lisse alpha (αSMA+) dans l’intima des artères, artérioles et capillaires du greffon. Les cellules αSMA+ dans la néointima sont des cellules musculaires lisses vasculaires (CMLV) dérivées du donneur ainsi que des cellules souches dérivées du receveur, dont des cellules souches mésenchymateuses (CSM). L’acquisition d’un phénotype anti-apoptotique chez ces cellules est déterminante pour le développement de la néointima. Le laboratoire de Dre Hébert a démontré que les cellules endothéliales (CE) apoptotiques libèrent des médiateurs induisant une résistance à l’apoptose chez les CMLV et les fibroblastes. Notamment, les CE apoptotiques relâchent la cathepsine L qui clive le perlécan et ainsi libère un fragment C-terminal correspondant au troisième motif laminine G du domaine V du perlécan (LG3). Le LG3 est anti-apoptotique pour les fibroblastes. Nous avons donc émis l’hypothèse que le LG3 est un des médiateurs clés libéré par les CE apoptotiques favorisant le développement de la néointima via l’induction d’un phénotype anti-apoptotique chez les cellules néointimales αSMA+. Nous avons démontré que les médiateurs libérés par les CE apoptotiques induisent un phénotype anti-apoptotique chez les CSM dépendant de l’activation de la voie ERK1/2. De plus, le LG3 active la voie ERK1/2 via son interaction avec les intégrines beta 1 et induit une réponse anti-apoptotique chez ces cellules. Cependant l’activation de ERK1/2 par le LG3 est plus faible en comparaison de son activation par le milieu conditionné par des CE apoptotiques. Nos résultats suggèrent que les CE apoptotiques libèrent aussi de l’EGF qui agit de façon paracrine sur les CSM en coopération avec le LG3 pour induire un phénotype anti-apoptotique chez les CSM. Nous avons poursuivi l’étude de l’effet du LG3 in vivo sur le remodelage vasculaire en transplantation. Nous avons pour cela développé un modèle murin de rejet vasculaire qui consiste en une transplantation aortique entre des souris alloincompatibles. Nous avons ensuite injecté du LG3 chez les souris receveuses en post-transplantation. Nous avons observé dans ce modèle que des niveaux augmentés de LG3 sérique augmentent la formation de néointima, favorisent l’accumulation de cellules néointimales αSMA+ et diminuent le nombre de cellules CD31+ au niveau du greffon aortique. Parallèlement nous avons vérifié que le LG3 induit aussi un phénotype anti-apoptotique chez les CMLV et nous avons démontré un nouvel effet du LG3, soit une activité pro-migratoire, qui dépend de l’activation de la voie ERK1/2 chez les CMLV. Nous avons complété cette étude par l’analyse des niveaux de LG3 sérique dans une cohorte de patients receveurs d’allogreffe rénale. Nous avons observé chez ces patients, une association entre des niveaux élevés de LG3 sérique et un rejet vasculaire. Le LG3 contribue à la formation de néointima par son activité pro-migratoire et pro-survie chez les cellules néointimales et aussi de par son activité angiostatique. Nos résultats suggèrent que le LG3 est un nouveau médiateur important dans le remodelage vasculaire en transplantation
Resumo:
Ce mémoire est une étude sur le développement local comme stratégie de lutte contre la pauvreté en Haïti. C'est une étude de cas sur une stratégie qui a été implantée par la WVI dans plusieurs communautés pauvres en Haïti, le Programme de Développement de zone (PDZ). Nous avons cherché à savoir comment le PDZ a permis de mettre en place un projet de développement local de lutte contre la pauvreté dans ces communautés. Plus spécifiquement, nous avons analysé, à l'aide de la perspective de Klein et al. (2011), le type de stratégie de développement local auquel le PDZ correspond et vu comment il implique les communautés visées. En effet, plusieurs dimensions, dont la majorité proposée par Klein et al. ont été analysées : le transfert de la stratégie aux leaders locaux ; le processus de leadership local (individuel, organisationnel et socio-territorial) ; la mobilisation des ressources endogènes et exogène ; l'utilisation créative des programmes publics ; la gestion locale des conflits et apprentissage collectif ; et la construction d'une identité positive et d'un sentiment d'appartenance. Ce mémoire fait ressortir une critique souvent adressée à l'endroit des interventions des ONGI, à savoir que la situation de dépendance qu'elles engendrent compte tenu de l'approche assistentialiste sur laquelle elles sont souvent échafaudées. Particulièrement, l'étude du PDZ, nous renseigne que dans un contexte de grande pauvreté, de cumulation de désavantages (en termes de ressources humaines, économiques, politiques), ou d'obstacles objectifs, le développement par initiatives locales soulève des défis et enjeux majeurs. Les données montrent que la stratégie du PDZ __ bien qu'elle soit parvenue à développer un leadership local ; à favoriser une circulation limité de ressources économiques ; à permettre la construction d'une identité positive chez certaines personnes ; __ ne permet pas une mobilisation locale co-construite qui viendrait maintenir les actions mises de l'avant en faveur des priorités dégagées par les communautés elles-mêmes. Enfin, à travers l'analyse nous avons pu conclure qu'elle correspond à un modèle top-down.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Les histones sont des protéines nucléaires hautement conservées chez les cellules des eucaryotes. Elles permettent d’organiser et de compacter l’ADN sous la forme de nucléosomes, ceux-ci representant les sous unités de base de la chromatine. Les histones peuvent être modifiées par de nombreuses modifications post-traductionnelles (PTMs) telles que l’acétylation, la méthylation et la phosphorylation. Ces modifications jouent un rôle essentiel dans la réplication de l’ADN, la transcription et l’assemblage de la chromatine. L’abondance de ces modifications peut varier de facon significative lors du developpement des maladies incluant plusieurs types de cancer. Par exemple, la perte totale de la triméthylation sur H4K20 ainsi que l’acétylation sur H4K16 sont des marqueurs tumoraux spécifiques a certains types de cancer chez l’humain. Par conséquent, l’étude de ces modifications et des événements determinant la dynamique des leurs changements d’abondance sont des atouts importants pour mieux comprendre les fonctions cellulaires et moléculaires lors du développement de la maladie. De manière générale, les modifications des histones sont étudiées par des approches biochimiques telles que les immuno-buvardage de type Western ou les méthodes d’immunoprécipitation de la chromatine (ChIP). Cependant, ces approches présentent plusieurs inconvénients telles que le manque de spécificité ou la disponibilité des anticorps, leur coût ou encore la difficulté de les produire et de les valider. Au cours des dernières décennies, la spectrométrie de masse (MS) s’est avérée être une méthode performante pour la caractérisation et la quantification des modifications d’histones. La MS offre de nombreux avantages par rapport aux techniques traditionnelles. Entre autre, elle permet d’effectuer des analyses reproductibles, spécifiques et facilite l’etude d’un large spectre de PTMs en une seule analyse. Dans cette thèse, nous présenterons le développement et l’application de nouveaux outils analytiques pour l’identification et à la quantification des PTMs modifiant les histones. Dans un premier temps, une méthode a été développée pour mesurer les changements d’acétylation spécifiques à certains sites des histones. Cette méthode combine l’analyse des histones intactes et les méthodes de séquençage peptidique afin de déterminer les changements d’acétylation suite à la réaction in vitro par l’histone acétyltransférase (HAT) de levure Rtt109 en présence de ses chaperonnes (Asf1 ou Vps75). Dans un second temps, nous avons développé une méthode d’analyse des peptides isomériques des histones. Cette méthode combine la LC-MS/MS à haute résolution et un nouvel outil informatique appelé Iso-PeptidAce qui permet de déconvoluer les spectres mixtes de peptides isomériques. Nous avons évalué Iso-PeptidAce avec un mélange de peptides synthétiques isomériques. Nous avons également validé les performances de cette approche avec des histones isolées de cellules humaines érythroleucémiques (K562) traitées avec des inhibiteurs d’histones désacétylases (HDACi) utilisés en clinique, et des histones de Saccharomyces cerevisiae liées au facteur d’assemblage de la chromatine (CAF-1) purifiées par chromatographie d’affinité. Enfin, en utilisant la méthode présentée précédemment, nous avons fait une analyse approfondie de la spécificité de plusieurs HATs et HDACs chez Schizosaccharomyces pombe. Nous avons donc déterminé les niveaux d’acétylation d’histones purifiées à partir de cellules contrôles ou de souches mutantes auxquelles il manque une HAT ou HDAC. Notre analyse nous a permis de valider plusieurs cibles connues des HATs et HDACs et d’en identifier de nouvelles. Nos données ont également permis de définir le rôle des différentes HATs et HDACs dans le maintien de l’équilibre d’acétylation des histones. Dans l’ensemble, nous anticipons que les méthodes décrites dans cette thèse permettront de résoudre certains défis rencontrés dans l’étude de la chromatine. De plus, ces données apportent de nouvelles connaissances pour l’élaboration d’études génétiques et biochimiques utilisant S. pombe.
Resumo:
Même si de plus en plus de psychoéducateurs utilisent des approches appuyées sur des données probantes, ils sont également confrontés dans leur pratique quotidienne à des approches dites alternatives dont la validité, dans la majorité des cas, reste à démontrer. Parmi celles-ci, l’homéopathie prétend traiter un ensemble de problèmes psychosociaux dont le TDAH, les troubles d’apprentissage, l’anxiété, la peur, etc. L’objectif de cet article est de considérer la pertinence de cette approche non seulement pour traiter les problèmes psychosociaux mais également l’ensemble des troubles qu’elle prétend soigner. Cet article comprend cinq parties. Dans la première, nous situons l’histoire de l’homéopathie dans le cadre de la chimie et de la pharmacologie modernes. La deuxième est consacrée à ce qu’il est convenu maintenant d’appeler « l’affaire de la mémoire de l’eau » que des homéopathes ont tenté de récupérer à leur profit pour justifier l’activité de leurs produits même lorsque la dilution de ceux-ci est telle qu’ils ne contiennent plus de molécule active. Au cours de la troisième partie, nous faisons état de la recherche concernant l’efficacité des traitements homéopathiques. Dans la quatrième partie, nous montrons brièvement que l’homéopathie vétérinaire n’est pas plus efficace que l’homéopathie appliquée aux humains. Dans la cinquième partie, nous soulevons quelques aspects éthiques en soulignant entre autres éléments que la prescription des produits homéopathiques et l’utilisation des « vaccins » de même nature ne sont pas sans conséquences.
Resumo:
In this thesis, the applications of the recurrence quantification analysis in metal cutting operation in a lathe, with specific objective to detect tool wear and chatter, are presented.This study is based on the discovery that process dynamics in a lathe is low dimensional chaotic. It implies that the machine dynamics is controllable using principles of chaos theory. This understanding is to revolutionize the feature extraction methodologies used in condition monitoring systems as conventional linear methods or models are incapable of capturing the critical and strange behaviors associated with the metal cutting process.As sensor based approaches provide an automated and cost effective way to monitor and control, an efficient feature extraction methodology based on nonlinear time series analysis is much more demanding. The task here is more complex when the information has to be deduced solely from sensor signals since traditional methods do not address the issue of how to treat noise present in real-world processes and its non-stationarity. In an effort to get over these two issues to the maximum possible, this thesis adopts the recurrence quantification analysis methodology in the study since this feature extraction technique is found to be robust against noise and stationarity in the signals.The work consists of two different sets of experiments in a lathe; set-I and set-2. The experiment, set-I, study the influence of tool wear on the RQA variables whereas the set-2 is carried out to identify the sensitive RQA variables to machine tool chatter followed by its validation in actual cutting. To obtain the bounds of the spectrum of the significant RQA variable values, in set-i, a fresh tool and a worn tool are used for cutting. The first part of the set-2 experiments uses a stepped shaft in order to create chatter at a known location. And the second part uses a conical section having a uniform taper along the axis for creating chatter to onset at some distance from the smaller end by gradually increasing the depth of cut while keeping the spindle speed and feed rate constant.The study concludes by revealing the dependence of certain RQA variables; percent determinism, percent recurrence and entropy, to tool wear and chatter unambiguously. The performances of the results establish this methodology to be viable for detection of tool wear and chatter in metal cutting operation in a lathe. The key reason is that the dynamics of the system under study have been nonlinear and the recurrence quantification analysis can characterize them adequately.This work establishes that principles and practice of machining can be considerably benefited and advanced from using nonlinear dynamics and chaos theory.
Resumo:
Optimal control theory is a powerful tool for solving control problems in quantum mechanics, ranging from the control of chemical reactions to the implementation of gates in a quantum computer. Gradient-based optimization methods are able to find high fidelity controls, but require considerable numerical effort and often yield highly complex solutions. We propose here to employ a two-stage optimization scheme to significantly speed up convergence and achieve simpler controls. The control is initially parametrized using only a few free parameters, such that optimization in this pruned search space can be performed with a simplex method. The result, considered now simply as an arbitrary function on a time grid, is the starting point for further optimization with a gradient-based method that can quickly converge to high fidelities. We illustrate the success of this hybrid technique by optimizing a geometric phase gate for two superconducting transmon qubits coupled with a shared transmission line resonator, showing that a combination of Nelder-Mead simplex and Krotov’s method yields considerably better results than either one of the two methods alone.
Resumo:
As exploration of our solar system and outerspace move into the future, spacecraft are being developed to venture on increasingly challenging missions with bold objectives. The spacecraft tasked with completing these missions are becoming progressively more complex. This increases the potential for mission failure due to hardware malfunctions and unexpected spacecraft behavior. A solution to this problem lies in the development of an advanced fault management system. Fault management enables spacecraft to respond to failures and take repair actions so that it may continue its mission. The two main approaches developed for spacecraft fault management have been rule-based and model-based systems. Rules map sensor information to system behaviors, thus achieving fast response times, and making the actions of the fault management system explicit. These rules are developed by having a human reason through the interactions between spacecraft components. This process is limited by the number of interactions a human can reason about correctly. In the model-based approach, the human provides component models, and the fault management system reasons automatically about system wide interactions and complex fault combinations. This approach improves correctness, and makes explicit the underlying system models, whereas these are implicit in the rule-based approach. We propose a fault detection engine, Compiled Mode Estimation (CME) that unifies the strengths of the rule-based and model-based approaches. CME uses a compiled model to determine spacecraft behavior more accurately. Reasoning related to fault detection is compiled in an off-line process into a set of concurrent, localized diagnostic rules. These are then combined on-line along with sensor information to reconstruct the diagnosis of the system. These rules enable a human to inspect the diagnostic consequences of CME. Additionally, CME is capable of reasoning through component interactions automatically and still provide fast and correct responses. The implementation of this engine has been tested against the NEAR spacecraft advanced rule-based system, resulting in detection of failures beyond that of the rules. This evolution in fault detection will enable future missions to explore the furthest reaches of the solar system without the burden of human intervention to repair failed components.
Resumo:
Introducción: La melatonina, una sustancia cronobiótica endógena, es cada vez más empleada para el manejo de los problemas del sueño en adultos mayores por su aparente eficacia y buen perfil de eventos adversos. En este sentido, se intentó evaluar la eficacia de la melatonina en el tratamiento del insomnio primario en el adulto mayor (≥55 años) comparado con benzodiacepinas, zopiclona y placebo a la luz de la evidencia disponible en los últimos cinco años. Métodos: Revisión sistemática de la literatura. Resultados: En comparación con placebo, al parecer la melatonina mejora la calidad y los hábitos de sueño, no así la latencia de inicio de sueño en mediciones subjetivas ni objetivas (polisomnografía); a diferencia de otros medicamentos hipnóticos, no altera la arquitectura del sueño ni genera síntomas diurnos. Conclusiones: No se encontró evidencia que soporte el uso de melatonina en adultos mayores de 55 años para la reducción de la latencia de sueño, aumento del tiempo total de sueño, mejoría de la eficiencia del sueño, disminución de despertares nocturnos o mejoría de la calidad de sueño. Es necesario adelantar más estudios en comparación con placebo y otros medicamentos.
Resumo:
Esta tesis doctoral presenta los resultados de la investigación realizada por la autora sobre desarrollo sostenible, grandes proyectos de minería de oro y derechos humanos en países en desarrollo como Brasil y Colombia. En este trabajo doctoral fueron seleccionados dos grandes proyectos de minería aurífera, uno en Brasil y el otro en Colombia, ambos ejecutados por la misma empresa minera en contextos geográficos y condiciones ambientales similares. El objetivo fue realizar un estudio comparativo de las diferentes legislaciones ambientales y mineras, las instituciones, las políticas nacionales y la protección de los derechos humanos de las comunidades impactadas por los proyectos mineros en cada país. La metodología utilizada para esta investigación doctoral, en primer lugar, consistió en la revisión de fuentes primarias y secundarias, a través de la literatura disponible en español, portugués e inglés sobre los grandes ejes temáticos del estudio. En segundo lugar, se utilizó la metodología de derecho comparado para el análisis de las legislaciones de Brasil y Colombia y finalmente, se realizaron visitas de campo a cada uno de los proyectos seleccionados y se trabajó con autoridades ambientales nacionales. Algunas conclusiones de la investigación señalaron que para garantizar la efectividad del derecho ambiental, el desarrollo sostenible y los derechos humanos en grandes proyectos mineros se requiere: •Fortalecer las legislaciones y las instituciones mineras y ambientales y en particular el proceso de licenciamiento ambiental. •Fortalecer la capacidad del Ministerio Público y de los jueces involucrados que deciden casos ambientales. •Reconocer el rol fundamental de los derechos procedimentales ambientales para resolver conflictos socioambientales, esto es, el empoderamiento de las comunidades con información de calidad y mecanismos de participación y justicia ambiental efectiva para la adecuada protección de derechos colectivos. •Incorporar el enfoque de derechos humanos en la gestión ambiental.