997 resultados para Méthode hybride
Resumo:
Les neurones dopaminergiques (DA) de la substance noire compacte (SNc) et de l’aire tegmentaire ventrale (ATV) développent des contacts de type synaptique et non synaptique. Malgré de nombreux travaux sur la synaptogénèse en général, aucune méthode autre que la microscopie électronique, n’a été développée pour quantifier les varicosités synaptiques et asynaptiques issues des neurones DA. L’objectif principal de ce projet était de développer une méthode d’analyse et de quantification des varicosités synaptiques et asynaptiques des neurones DA. L’hypothèse proposée est qu’il devait être possible de détecter la présence de synapses en visualisant la colocalisation d’une protéine présynaptique telle que synaptotagmine 1 (SYT1) avec un marqueur post-synaptique tel que la postsynaptic density protein 95 (PSD95). Pour ce faire, nous avons préparé des cultures primaires de neurones DA à l’aide d’une lignée de souris transgéniques exprimant la protéine fluorescente verte (GFP) sous le contrôle du promoteur de la tyrosine hydroxyalse (TH). Nous avons ensuite visualisé les terminaisons axonales à l'aide de marquages immunocytochimiques de protéines pré et post-synaptiques. L’analyse quantitative des images a été effectuée avec le logiciel de traitement d’image Image-J. Nos résultats montrent que, via l’association d’un marqueur présynaptique tel que SYT1 avec un marqueur postsynaptique tel que PSD95, seule une minorité des terminaisons établies par les neurones DA sont de type synaptique. En contraste, des neurones glutamatergiques du cortex, établissent une majorité de terminaisons associées à un marqueur postsynaptique. Nos résultats valident donc la mise en place d'une technique d'analyse permettant de quantifier la proportion de terminaisons synaptiques et asynaptiques établies par les neurones DA.
Resumo:
L’objectif de ce projet était de faire le lien entre gènes et métabolites afin d’éventuellement proposer des métabolites à mesurer en lien avec la fonction de gènes. Plus particulièrement, nous nous sommes intéressés aux gènes codant pour des protéines ayant un impact sur le métabolisme, soit les enzymes qui catalysent les réactions faisant partie intégrante des voies métaboliques. Afin de quantifier ce lien, nous avons développé une méthode bio-informatique permettant de calculer la distance qui est définie comme le nombre de réactions entre l’enzyme encodée par le gène et le métabolite dans la carte globale du métabolisme de la base de données Kyoto Encyclopedia of Genes and Genomes (KEGG). Notre hypothèse était que les métabolites d’intérêt sont des substrats/produits se trouvant à proximité des réactions catalysées par l’enzyme encodée par le gène. Afin de tester cette hypothèse et de valider la méthode, nous avons utilisé les études d’association pangénomique combinées à la métabolomique (mGWAS) car elles rapportent des associations entre variants génétiques, annotés en gènes, et métabolites mesurés. Plus précisément, la méthode a été appliquée à l’étude mGWAS par Shin et al. Bien que la couverture des associations de Shin et al. était limitée (24/299), nous avons pu valider de façon significative la proximité entre gènes et métabolites associés (P<0,01). En somme, cette méthode et ses développements futurs permettront d’interpréter de façon quantitative les associations mGWAS, de prédire quels métabolites mesurer en lien avec la fonction d’un gène et, plus généralement, de permettre une meilleure compréhension du contrôle génétique sur le métabolisme.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tridimensionnelle (3D) de la colonne vertébrale. Pour la plupart des patients atteints de SIA, aucun traitement chirurgical n’est nécessaire. Lorsque la déformation devient sévère, un traitement chirurgical visant à réduire la déformation est recommandé. Pour déterminer la sévérité de la SIA, l’imagerie la plus utilisée est une radiographie postéroantérieure (PA) ou antéro-postérieure (AP) du rachis. Plusieurs indices sont disponibles à partir de cette modalité d’imagerie afin de quantifier la déformation de la SIA, dont l’angle de Cobb. La conduite thérapeutique est généralement basée sur cet indice. Cependant, les indices disponibles à cette modalité d’imagerie sont de nature bidimensionnelle (2D). Celles-ci ne décrivent donc pas entièrement la déformation dans la SIA dû à sa nature tridimensionnelle (3D). Conséquemment, les classifications basées sur les indices 2D souffrent des mêmes limitations. Dans le but décrire la SIA en 3D, la torsion géométrique a été étudiée et proposée par Poncet et al. Celle-ci mesure la tendance d’une courbe tridimensionnelle à changer de direction. Cependant, la méthode proposée est susceptible aux erreurs de reconstructions 3D et elle est calculée localement au niveau vertébral. L’objectif de cette étude est d’évaluer une nouvelle méthode d’estimation de la torsion géométrique par l’approximation de longueurs d’arcs locaux et par paramétrisation de courbes dans la SIA. Une première étude visera à étudier la sensibilité de la nouvelle méthode présentée face aux erreurs de reconstructions 3D du rachis. Par la suite, deux études cliniques vont présenter la iv torsion géométrique comme indice global et viseront à démontrer l’existence de sous-groupes non-identifiés dans les classifications actuelles et que ceux-ci ont une pertinence clinique. La première étude a évalué la robustesse de la nouvelle méthode d’estimation de la torsion géométrique chez un groupe de patient atteint de la SIA. Elle a démontré que la nouvelle technique est robuste face aux erreurs de reconstructions 3D du rachis. La deuxième étude a évalué la torsion géométrique utilisant cette nouvelle méthode dans une cohorte de patient avec des déformations de type Lenke 1. Elle a démontré qu’il existe deux sous-groupes, une avec des valeurs de torsion élevées et l’autre avec des valeurs basses. Ces deux sous-groupes possèdent des différences statistiquement significatives, notamment au niveau du rachis lombaire avec le groupe de torsion élevée ayant des valeurs d’orientation des plans de déformation maximales (PMC) en thoraco-lombaire (TLL) plus élevées. La dernière étude a évalué les résultats chirurgicaux de patients ayant une déformation Lenke 1 sous-classifiées selon les valeurs de torsion préalablement. Cette étude a pu démontrer des différences au niveau du PMC au niveau thoraco-lombaire avec des valeurs plus élevées en postopératoire chez les patients ayant une haute torsion. Ces études présentent une nouvelle méthode d’estimation de la torsion géométrique et présentent cet indice quantitativement. Elles ont démontré l’existence de sous-groupes 3D basés sur cet indice ayant une pertinence clinique dans la SIA, qui n’étaient pas identifiés auparavant. Ce projet contribue dans la tendance actuelle vers le développement d’indices 3D et de classifications 3D pour la scoliose idiopathique de l’adolescent.
Resumo:
L’herméneutique de Gadamer s’inscrit-elle dans la foulée de la critique heideggérienne de la métaphysique ? Devrait-on, par surcroit, la considérer comme une forme de nihilisme, où l’être serait réduit au langage et partant, à la pluralité des interprétations ? La présente étude vise plutôt à montrer, sous la conduite des indications de Gadamer lui-même, qu’il est impératif de reconnaître à son maître-ouvrage une dimension métaphysique certaine et cruciale et dont la portée consiste précisément à s’opposer aux interprétations nihiliste et nominaliste de notre rapport à l’être. Pour ce faire il sera d’abord établi que le concept d’appartenance (Zugehörigkeit) est le maître-concept de Vérité et méthode, comme l’avait vu Ricoeur, puis comment Gadamer rattache explicitement celui-ci à la métaphysique médiévale des transcendantaux, métaphysique qui demeure visible jusque dans les dernières conclusions de l’ouvrage qui traitent de la métaphysique de la lumière (Lichtmetaphysik). Nous verrons que c’est précisément à la lumière de cette proximité constante avec la métaphysique des transcendantaux qu’il faut comprendre la thèse de Gadamer à l’effet que l’être susceptible d’être compris est langage, de manière à y voir une affirmation soutenue de l’intelligibilité de l’être, comme l’avait d’ailleurs saisi Heidegger lui-même. Notre intention est ainsi de rendre perceptibles les sources et le cadre de cette métaphysique des transcendantaux, qui ont été négligés dans la réception de Gadamer. Nous porterons donc notre regard sur les sources médiévales de sa pensée que Gadamer connaît et commente, soit Thomas d’Aquin et Nicolas de Cues, mais aussi sur des auteurs moins connus de la tradition herméneutique, dont Philippe le Chancelier, auteur indispensable lorsqu’il s’agit de traiter de la métaphysique des transcendantaux à laquelle Gadamer se réfère. Cette enquête nous amènera à démontrer comment l’herméneutique de Gadamer s’inscrit dans la conception traditionnelle de la vérité comme adaequatio rei et intellectus, définition dont nous devons surtout à Thomas de l’avoir léguée à la postérité mais qu’ont aussi reprise les modernes, incluant Kant et Heidegger. C’est ainsi une nouvelle lecture du rapport de Gadamer à son maître Heidegger et à sa critique de la métaphysique qui résultera de cette archéologie des sources métaphysiques du concept d’appartenance ; il sera en effet démontré que l’héritage de Gadamer est à comprendre, de son propre aveu, en continuité et non en rupture avec la métaphysique. Enfin, fidèle à l’esprit herméneutique de l’application, nous éprouverons cette compréhension renouvelée du concept d’appartenance à l’aune d’une discussion de nature plus théologique, de manière à jeter un éclairage nouveau sur la fécondité de l’herméneutique gadamérienne dans le contexte de la théologie moderne. C’est ainsi que le concept de foi, compris habituellement dans le cadre imposé par la métaphysique moderne de la subjectivité qui le réduit à une « croyance » ou à un « choix personnel », sera mis à l’épreuve du tournant ontologique pris par l’herméneutique avec Gadamer et qui incite à dépasser la dichotomie entre le sujet et son objet en pensant le sujet à partir de l’être. C’est une compréhension de la foi comme appartenance, au sens précis que Gadamer donne à ce concept, qui sera ici mise au jour.
Resumo:
Cet article est avant tout une présentation générale du standpoint theory mais vise tout particulièrement à souligner la relation épistémologique qui unit cette théorie féministe à la théorie marxiste. Ainsi il y sera démontré que l’expérience de l’oppression, et donc de la souffrance qui l’accompagne, est en mesure de représenter un avantage épistémique que les groupes subissant l’oppression peuvent tourner à leur avantage. Il sera donc question d’un nouveau type d’objectivité délaissant le concept de neutralité en faveur d’une subjectivité pleinement assumée.
Resumo:
Ce texte examine la méthode axiomatique durant la période de l’histoire des mathématiques correspondant à la crise des fondements. Il a pour objectif de montrer que la méthode axiomatique changea, mais aussi de comprendre la nature de ces changements. À cette fin, les conceptions de Frege, Hilbert et Noether sont analysées.
Resumo:
Esta tesis presenta un estudio computacional de los sistemas con hidruros puente. En la primera parte se estudia la química de complejos de dirutenio con cuatro hidruros puente. Esto incluye las siguientes reacciones: el intercambio del hidruro con hidrógeno molecular; la activación del enlace C-H del etileno para formar el complejo de bis(vinilo)-etileno; el acoplamiento C-C entre el etileno coordinado y dos ligandos vinilo para producir el complejo rutenaciclopentadieno. Al final de esta parte, se discuten a detalle los mecanismos de estas reacciones. Además, se demostró la importancia de la flexibilidad de los ligandos hidruro y la cooperación entre los dos centros metálicos. En la segunda parte, se estudió el comportamiento fluxional de dos complejos μ-silileno y de un catión sililio. Con esto, se estableció la ruta más favorable en donde se realiza el intercambio de los ligandos hidruro y de los grupos metilo en los complejos μ-silileno. Finalmente, se encontró que hay dos posibles rutas relativas al cambio en la posición del puente Si-H-Si en el cation sililio poliagóstico, asociadas con la rotación interna de los grupos sililo.
Resumo:
We present here the results of a study of 21 work-related accidents that occurred in a Brazilian manufacturing company. The aim was to assess the safety level of the company to improve its work accident prevention policy. In the last 6 months of 1992 and 1993, all accidents resulting in 15 days' absence from work, reported for social security purposes, were analyzed using the INRS causal tree method (ADC) and a questionnaire completed on site. Potential risk factors for accidents were identified based on the specific factors highlighted by the ADC. More universal trees were also compiled for the safety assessment. Three hundred and thirty specific accident factors were recorded (mean of 15.71 per accident). This is consistent with there being multiple causes of accidents rather than the assertion of Brazilian business safety departments that accidents are due to dangerous or unsafe behavior. Introducing the idea of culpability into accidents prevents the implementation of an appropriate information feedback process, essential for effective prevention. However, the large number of accidents related to material (78%) and environment (70%) indicates that working conditions are poor. This shows that the technical risks, mostly due to unsafe machinery and equipment are not being dealt with. Seventy-five potential accident factors were identified. Of these, 35% were organizational, a high proportion for the company studied. Improvisation occurs at all levels, particularly at the organizational level. This is thus a major determinant for entire series of, if not most, accident situations. The poor condition of equipment also plays a major role in accidents. The effects of poor equipment on safety exacerbate the organizational shortcomings. The company's safety intervention policy should improve the management of human resources (rules designating particular workers for particular workstations; instructions for the safe operation of machines and equipment; training of operators, etc.) and introduce programs to detect risks and to improve the safety of machines and equipment. We also recommend the establishment of a program to follow the results of any preventive measures adopted.
Resumo:
Die DNA hat sich durch die herausstechende Eigenschaft zur Selbstorganisation in den Naturwissenschaften zu einem beliebten Werkzeug entwickelt. In dieser Arbeit wurde die Oligonukleotidselbsterkennung zum Aufbau komplexer Multiblockcopolymere genutzt. Dabei dienten komplementäre einzelsträngige Oligonukleotidsequenzen (ssDNA) als adressierbare Verbindungsstücke zwischen synthetischen Blöcken. Als Bausteine wurden asymmetrische Dreiblockcopolymere der Form DNA1-Polymer-DNA2 aus einer flexiblen Polymereinheit (PEO bzw. PPO) die an beiden Enden mit unterschiedlichen Oligonukleotidsequenzen „funktionalisiert“ ist, verwendet. Diese Bausteine konnten durch die Kombination von Festphasensynthese der Oligonukleotide und Blockkopplung dargestellt werden. Die Oligonukleotidsequenzen wurden so gewählt, dass deren Hybridisierung zu einer bei Raumtemperatur stabilen Verbindung führt. Durch die Verwendung dieser Bausteine erhält man ein modulares System, dass sich durch seine hohe Flexibilität auszeichnet. Aus den dargestellten Dreiblockcopolymeren konnten verschiedene alternierende Multiblockcopolymere aufgebaut werden, wobei die Anzahl der Blöcke (von 11 bis 15) und das PEO / PPO- Verhältnis variiert wurden. Derartige Strukturen sind auf der Grundlage chemischer Synthesen unerreichbar. Die Flexibilität dieses modularen Systems konnte gezeigt werden, indem einzelne Blockbausteine zur Strukturaufklärung einfach ausgetauscht oder weggelassen werden konnten. Durch geeignete Wahl der DNA-Sequenzen konnte zusätzlich das Polymerisationsverhalten dieser Bauelemente untersucht werden. Die Integration längerer kettensteifer DNA-Abschnitte in die Multiblockstrukturen erfolgte durch die Verwendung teilkomplementärer Oligonukleotide. Diese bieten den Vorteil, dass bis zu einer Größe von etwa 150 bp sowohl die Länge als auch die Sequenz der Doppelstrangabschnitte und sticky-ends frei variiert werden können. Die biosynthetischen Dreiblockcopolymere dienten hier als Linkermoleküle zwischen den einzelnen dsDNA-Blöcken. Nach diesem Konzept wurde ein Nonamer als Modellsystem eines mehrfach gebrochenen Stäbchens synthetisiert. Außerdem wurden mit Hilfe der Polymerase Kettenreaktion (PCR) semiflexible DNA Abschnitte erzeugt. Durch die Wahl des Synthesewegs konnte sowohl die Länge der semiflexiblen Einheit als auch die Länge und die Sequenz des sticky-ends variiert werden. Anhand dieser Modellverbindungen wurde dann das Hybridisierungsverhalten in Abhängigkeit der Linker- und Segmentlängen untersucht.
Resumo:
Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.
Resumo:
Il presente lavoro mette in evidenza le principali difficoltà che il traduttore di testi specialistici è chiamato ad affrontare durante la pratica della traduzione. In particolar modo, il nostro studio si concentra sulla figura del traduttore che lavora in ambito artistico : oggigiorno la facilità degli spostamenti e il conseguente aumento del turismo culturale hanno reso la traduzione di dépliant, guide turistiche e cataloghi una pratica necessaria e in continua crescita. L’obiettivo prefissato è quello di verificare l’apporto che le risorse lessicografiche e terminologiche attualmente disponibili danno al traduttore di testi a contenuto artistico. Il nostro lavoro si articola in quattro capitoli. Il primo, di stampo teorico, pone l’accento sulla natura polisemica della parola terminologia (disciplina, metodologia e insieme di termini appartenenti ad un ambito specialistico) e sulla distinzione tra pratica terminologica e traduttiva gettando le basi del secondo capitolo che, partendo dall'esposizione degli ostacoli terminologici incontrati dal traduttore, descrive le lacune dei principali dizionari bilingui italiano-francese e delle basi di dati terminologiche oggi a disposizione. Il terzo capitolo, dedicato alla presentazione del progetto Lessico multilingue dei beni culturali (LBC), ne evidenzia i punti di forza e sottolinea la necessità di creare degli strumenti “ibridi”, concepiti per aiutare il traduttore in ambito artistico. Questa conclusione sarà ulteriormente ribadita nel quarto capitolo, di stampo pratico : l’analisi di una quindicina di termini dell’ambito della scultura (estratti dal corpus de La Vita di Michelangelo, appositamente creato nell'ambito del progetto LBC) mostra l’eccessivo numero di strumenti che il traduttore è costretto a consultare per risolvere adeguatamente le difficoltà incontrate, pratica che non rispecchia più il mestiere della traduzione, all'interno della società dell’informazione, sempre più influenzato dalle scadenze imposte.
Resumo:
Zeit ist in der öffentlichen Diskussion über Erziehung eine konstitu tive Bestimmung. Dabei wird sie sehr unterschiedlich gefasst: Erziehung wird verstanden als ein Prozess, der zeitlich konsekutiv geordnet werden muss. Es wird aber auch von einer Erziehungszeit der Eltern gesprochen und von der Schulzeit im Lebenslauf. Unterricht und Didaktik verlangen von den Lehrpersonen ein Zeitmanagement. Über Schulanfang, Schul ende und Dauer der Schulzeit wird politisch debattiert. Aber weit dar über hinaus werden Erziehung und Bildung selbst zum Instrument, mit dem in der Gegenwart die Zukunft, die Zeit des einzelnen Menschen und sogar der ganzen Gesellschaft berechenbar werden sollen. Trotz dieser Zentralität der Dimension «Zeit» ist die theoretische Diskussion darüber wenig entwickelt. Der vorliegende Band diskutiert aus soziologischen, pädagogisch-psychologischen und historischen Perspektiven die Zeit dimensionen von Erziehung.