894 resultados para Learning. English as an additional language. Electronic games
Resumo:
L’apport disproportionné aux taux de criminalité des membres des gangs de rue est, nul doute, une proposition empirique robuste. De nombreuses études ont conclu que l’association aux gangs de rue est un facteur de risque supplémentaire à celui que constitue déjà la fréquentation de pairs délinquants au nombre des meilleurs prédicteurs de la délinquance avec les antécédents criminels et les traits antisociaux de la personnalité. Pourtant, la contribution spécifique de l’association aux gangs de rue à l’explication de la délinquance est largement méconnue. Au nombre des variables les plus souvent citées pour l’expliquer figure néanmoins le concept de l’adhésion à la culture de gang qui n’a toutefois jamais été spécifiquement opérationnalisé. Le but de la thèse est d’étudier la contribution spécifique de l’adhésion d’un contrevenant à la culture des gangs de rue à l’explication de la délinquance. Plus précisément, elle a comme objectifs de définir la culture des gangs de rue, d’opérationnaliser l’adhésion à la culture des gangs de rue, d’examiner la fidélité de la mesure de l’adhésion à la culture de gang et d’étudier sa relation avec la nature, la variété et la fréquence des conduites délinquantes de contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Trois articles scientifiques, auxquels un chapitre régulier est joint, ont servi la démonstration de la thèse. D’abord, le premier article présente les démarches relatives au développement de la première Mesure de l’adhésion à la culture de gang, la MACg. Plus précisément, l’article présente la recension des écrits qui a permis de proposer une première définition de la culture de gang et d’opérationnaliser le concept. Il fait aussi état de la démarche de la validation de la pertinence de son contenu et des données préliminaires qui révèlent la très bonne cohérence interne de la MACg. Cette première étude est suivie de la présentation, dans le cadre d’un chapitre régulier, des résultats de l’examen de la cotation des principaux indicateurs de la culture de gang. Cette démarche constitue un complément nécessaire à l’examen de la validité apparente de la MACg. Les résultats révèlent des degrés de concordance très satisfaisants entre les observations de divers professionnels des centres jeunesse et des services correctionnels du Québec qui ont été invités à coter les indicateurs de la culture de gang à partir de deux histoires fictives d’un contrevenant mineur et d’un second d’âge adulte. Puis, le deuxième article présente les résultats d’un premier examen de la fidélité de la MACg à l’aide du modèle de Rasch de la Théorie de la réponse aux items. Ses résultats soutiennent l’unidimensionnalité de la MACg et sa capacité à distinguer des groupes d’items et de personnes le long d’un continuum de gravité d’adhésion à la culture de gang. Par contre, le fonctionnement différentiel et le mauvais ajustement de certains items sont observés, ainsi que l’inadéquation de la structure de réponses aux items (de type Likert) privilégiée lors de l’élaboration de la MACg. Une version réaménagée de cette dernière est donc proposée. Enfin, le troisième et dernier article présente les résultats de l’examen de la relation entre la délinquance et l’adhésion d’un contrevenant à la culture de gang telle que mesurée par la MACg. Les résultats soutiennent l’apport unique de l’adhésion d’un contrevenant à la culture de gang à la diversité et à la fréquence des conduites délinquantes auto-rapportées par des contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Le score à l’échelle originale et réaménagée de la MACg s’avère, d’ailleurs, un facteur explicatif plus puissant que l’âge, la précocité criminelle, les pairs délinquants et la psychopathie au nombre des meilleurs prédicteurs de la délinquance. L’étude met aussi en lumière l’étroite relation entre une forte adhésion à la culture de gang et la présence marquée de traits psychopathiques annonciatrice de problèmes particulièrement sérieux. Malgré ses limites, la thèse contribuera significativement aux développements des bases d’un nouveau modèle explicatif de l’influence de l’association aux gangs de rue sur les conduites des personnes. La MACg pourra aussi servir à l’évaluation des risques des hommes contrevenants placés sous la responsabilité du système de justice pénale et à l’amélioration de la qualité des interventions qui leur sont dédiées.
Resumo:
L’association démontrée récemment entre les commotions cérébrales dans le sport et le développement possible de maladies neurodégénératives a suggéré la possibilité que des altérations persistantes soient présentes dans le cerveau de l’athlète commotionné. En fait, des altérations neurophysiologiques ont récemment été révélées au sein du cortex moteur primaire (M1) d’athlètes ayant un historique de commotions via la stimulation magnétique transcrânienne (SMT). Plus précisément, la période silencieuse corticale (PSC), une mesure d’inhibition liée aux récepteurs GABAB, était anormalement élevée, et cette hyper-inhibition était présente jusqu’à 30 ans post-commotion. La PSC, et possiblement le GABA, pourraient donc s’avérer des marqueurs objectifs des effets persistants de la commotion cérébrale. Toutefois, aucune étude à ce jour n’a directement évalué les niveaux de GABA chez l’athlète commotionné. Ainsi, les études cliniques et méthodologiques composant le présent ouvrage comportent deux objectifs principaux: (1) déterminer si l’inhibition excessive (GABA et PSC) est un marqueur des effets persistants de la commotion cérébrale; (2) déterminer s’il est possible de moduler l’inhibition intracorticale de façon non-invasive dans l’optique de développer de futurs avenues de traitements. L’article 1 révèle une préservation des systèmes sensorimoteurs, somatosensoriels et de l’inhibition liée au GABAA chez un groupe d’athlètes universitaires asymptomatiques ayant subi de multiples commotions cérébrales en comparaison avec des athlètes sans historique connu de commotion cérébrale. Cependant, une atteinte spécifique des mesures liées au système inhibiteur associé aux récepteurs GABAB est révélée chez les athlètes commotionnés en moyenne 24 mois post-commotion. Dans l’article 2, aucune atteinte des mesures SMT liées au système inhibiteur n’est révélée en moyenne 41 mois après la dernière commotion cérébrale chez un groupe d’athlètes asymptomatiques ayant subi 1 à 5 commotions cérébrales. Bien qu’aucune différence entre les groupes n’est obtenue quant aux concentrations de GABA et de glutamate dans M1 via la spectroscopie par résonance magnétique (SRM), des corrélations différentielles suggèrent la présence d’un déséquilibre métabolique entre le GABA et le glutamate chez les athlètes commotionnés. L’article 3 a démontré, chez des individus en bonne santé, un lien entre la PSC et la transmission glutamatergique, ainsi que le GABA et le glutamate. Ces résultats suggèrent que la PSC ne reflète pas directement les concentrations du GABA mesurées par la SRM, mais qu’un lien étroit entre la GABA et le glutamate est présent. L’article 4 a démontré la possibilité de moduler la PSC avec la stimulation électrique transcrânienne à courant direct (SÉTcd) anodale chez des individus en santé, suggérant l’existence d’un potentiel thérapeutique lié à l’utilisation de cette technique. L’article 5 a illustré un protocole d’évaluation des effets métaboliques de la SÉTcd bilatérale. Dans l’article 6, aucune modulation des systèmes GABAergiques révélées par la SMT et la SRM n’est obtenue suite à l’utilisation de ce protocole auprès d’individus en santé. Cet article révèle également que la SÉTcd anodale n’engendre pas de modulation significative du GABA et du glutamate. En somme, les études incluent dans le présent ouvrage ont permis d’approfondir les connaissances sur les effets neurophysiologiques et métaboliques des commotions cérébrales, mais également sur le mécanisme d’action des diverses méthodologies utilisées.
Resumo:
Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.
Resumo:
Contrairement à la plupart des eucaryotes non-photosynthétiques, les végétaux doivent assurer la stabilité d’un génome additionnel contenu dans le plastide, un organite d’origine endosymbiotique. Malgré la taille modeste de ce génome et le faible nombre de gènes qu’il encode, celui-ci est absolument essentiel au processus de photosynthèse. Pourtant, même si ce génome est d’une importance cruciale pour le développement de la plante, les principales menaces à son intégrité, ainsi que les conséquences d’une déstabilisation généralisée de sa séquence d’ADN, demeurent largement inconnues. Dans l’objectif d’élucider les conséquences de l’instabilité génomique chloroplastique, nous avons utilisé le mutant why1why3polIb d’Arabidopsis thaliana, qui présente d’importants niveaux de réarrangements génomiques chloroplastiques, ainsi que la ciprofloxacine, un composé induisant des brisures double-brins dans l’ADN des organites. Ceci nous a permis d’établir qu’une quantité importante de réarrangements génomiques provoque une déstabilisation de la chaîne de transport des électrons photosynthétique et un grave stress oxydatif associé au processus de photosynthèse. Étonnamment, chez why1why3polIb, ces hautes concentrations d’espèces oxygénées réactives ne mènent ni à la perte de fonction des chloroplastes affectés, ni à la mort cellulaire des tissus. Bien au contraire, ce déséquilibre rédox semble être à l’origine d’une reprogrammation génique nucléaire permettant de faire face à ce stress photosynthétique et conférant une tolérance aux stress oxydatifs subséquents. Grâce à une nouvelle méthode d’analyse des données de séquençage de nouvelle génération, nous montrons également qu’un type particulier d’instabilité génomique, demeuré peu caractérisé jusqu’à maintenant, constitue une des principales menaces au maintien de l’intégrité génomique des organites, et ce, tant chez Arabidopsis que chez l’humain. Ce type d’instabilité génomique est dénommé réarrangement de type U-turn et est vraisemblablement associé au processus de réplication. Par une approche génétique, nous démontrons que les protéines chloroplastiques WHY1, WHY3 et RECA1 empêchent la formation de ce type d’instabilité génomique, probablement en favorisant la stabilisation et le redémarrage des fourches de réplication bloquées. Une forte accumulation de réarrangements de type U-turn semble d’ailleurs être à l’origine d’un sévère trouble développemental chez le mutant why1why3reca1. Ceci soulève de nombreuses questions quant à l’implication de ce type d’instabilité génomique dans de nombreux troubles et pathologies possédant une composante mitochondriale.
Resumo:
Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.
Resumo:
L’hypertrophie cardiaque représente la réponse primaire du cœur dans le but d’améliorer la fonction cardiaque qui est compromise suite à un accident ischémique ou une surcharge hémodynamique. Cependant, l’hypertrophie cardiaque a pour conséquence pathologique la fibrose réactive, qui est caractérisée par la synthèse incontrôlée et le dépôt du collagène par les myofibroblastes. Ainsi, l’accumulation accrue du collagène dans le cœur hypertrophié mène à l’augmentation de la rigidité cardiaque et la détérioration progressive de la fonction contractile du cœur. Plusieurs études ont démontré que la protéine nestine, appartenant à la famille des filaments intermédiaires, est ré-exprimée dans les myofibroblastes durant la fibrose réparative et est impliquée dans la prolifération cellulaire. Basée sur ces observations, cette étude teste l’hypothèse selon laquelle nestine est induite dans les myofibroblastes suivant le développement de la fibrose réactive dans le cœur des rats ayant subi une constriction aortique supra-rénale. Deux semaines suivant une constriction aortique supra-rénale chez le rat, un patron d’hypertrophie concentrique cardiaque a été observé et associé avec une réponse de fibrose réactive caractérisée par le dépôt accru de collagène dans le tissu interstitiel et la région péri-vasculaire de nombreux vaisseaux sanguins cardiaques. De plus, les niveaux de la protéine nestine sont augmentés significativement dans les cœurs des rats hypertrophiés, et ce, de façon corrélative avec la pression artérielle moyenne et la pression systolique du ventricule gauche. Les techniques d’immunofluorescences ont révélé une apparition accrue des cellules immunoréactives à nestine, qui présentent un phénotype mésenchymateux caractérisé par la co-expression de collagène dans le tissu interstitiel et la région péri-vasculaire des cœurs hypertrophiés. Ces données suggèrent que les fibroblastes résidents peuvent exprimer la protéine nestine ou que l’expression de nestine est induite en réponse aux facteurs pro-fibrotiques impliqués dans la fibrose réactive. En effet, l’exposition des myofibroblastes normaux et des myofibroblastes isolés des cœurs hypertrophiés à l’AII, TGF-B1 et EGF augmente significativement l’expression de la protéine nestine, tandis que l’expression de l’α-SMA demeure inchangée. De plus, de manière prédominante dans le cœur hypertrophié, des cellules non-vasculaires CD31(+) ont été détectées dans le tissu interstitiel et la région péri-vasculaire. Ces cellules co-expriment nestine et collagène suggérant une transition des cellules endothéliales vers un phénotype mésenchymateux. Finalement, la protéine nestine, sous sa forme filamenteuse, a été détectée dans les cellules endothéliales de l’artère coronaire humaine et leur exposition au TGF-B1, induit l’expression de collagène. En revanche, l’expression de collagène a été détectée dans les cellules microvasculaires de rats CD31(+), alors que l’expression de nestine est absente. En réponse aux traitements de TGF-B1 et EGF, l’expression de nestine, sous sa forme non-filamenteuse, est détectée dans les cellules microvasculaires de rats. Collectivement, ces données supportent la prémisse selon laquelle la réponse de fibrose réactive dans les cœurs hypertrophiés, suite à une constriction aortique supra-rénale, est attribuée en partie à l’augmentation de l’apparition des cellules mésenchymateuses positives à l’expression de nestine qui proviennent des fibroblastes résidents du ventricule. De plus, les données in vivo et in vitro suggèrent que les cellules endothéliales déplacées représentent une source additionnelle des cellules mésenchymateuses nestine(+) dans le cœur hypertrophié et contribuent au développement de la fibrose réactive. Cibler la protéine nestine peut représenter une approche thérapeutique afin d’atténuer la réponse de fibrose réactive indépendamment de l’origine des cellules mésenchymateuses.
Resumo:
Cette thèse décrit deux thèmes principaux: 1) la conception, la synthèse, et l'évaluation biophysique des nucléosides tricycliques, et 2) la synthèse de nagilactone B, un produit naturel norditerpenoïde dilactone de la famille de produits naturels “podolactone”. Le premier chapitre décrit la stratégie de design rationnel des nucléosides nommé “restriction conformationnelle double” basée sur les études de modélisation structurales des duplex ADN–ARN modifiés. Cette stratégie implique un blocage du cycle furanose dans une configuration de type N- ou S, et une restriction de la rotation torsionelle autour de l’angle γ. La première contrainte a été incorporée avec un pont méthylène entre l’oxygène en position 2′ et le carbone 4′ du nucléoside. Cette stratégie a été inspirée par les acides nucléiques bloqués (ou “locked nucleic acid”, LNA). La deuxième contrainte a été réalisée en ajoutant un carbocycle supplémentaire dans l'échafaud de l’acide nucléique bloqué. Les défis synthétiques de la formation des nucléotides modifiés à partir des carbohydrates sont décrits ainsi que les améliorations aux stabilités thermiques qu’ils apportent aux duplex oligonucléïques dont ils font partie. Chapitres deux et trois décrivent le développement de deux voies synthétiques complémentaires pour la formation du noyau de nagilactone B. Ce produit naturel a des implications pour le syndrome de Hutchinson–Gilford, à cause de son habilité de jouer le rôle de modulateur de l’épissage d’ARN pré-messager de lamine A. Ce produit naturel contient sept stereocentres différents, dont deux quaternaires et deux comprenant un syn-1,2-diol, ainsi que des lactones à cinq ou six membres, où le cycle à six ressemble à un groupement α-pyrone. La synthèse a débuté avec la cétone de Wieland-Miescher qui a permis d’adresser les défis structurels ainsi qu’explorer les fonctionnalisations des cycles A, B et D du noyau de nagilactone B.
Resumo:
La relocalisation et la dégradation médiée par ubiquitination sont utilisées par la cellule pour contrôler la localisation et l’expression de ses protéines. L’E3 ubiquitine ligase MARCH1 est impliqué dans la régulation post-traductionnelle de CMH-II et de CD86. Dans ce mémoire, on propose un rôle additionnel à MARCH1. Nos résultats expérimentaux nous portent à croire que MARCH1 pourrait moduler le métabolisme cellulaire en favorisant la relocalisation et la dégradation d’enzymes impliquées dans la glycolyse. La grande majorité des cellules utilise la phosphorylation oxydative pour générer de l’ATP en présence d’oxygène. Dans un environnement hypoxique, cette dernière est non fonctionnelle et la cellule doit utiliser la glycolyse anaérobique pour produire son ATP. Une cellule cancéreuse à des besoins énergétiques supérieurs en raison de l’augmentation de sa biomasse et de sa prolifération incontrôlée. Pour subvenir à ces besoins, elle maximise sa production d’énergie en modifiant son métabolisme; c’est l’effet Warburg. On retrouve dans les cellules immunitaires des modifications similaires au métabolisme cellulaire suite à un signal d’activation. Ici, nous montrons que la respiration mitochondriale maximale, la réserve respiratoire et la glycolyse maximale sont diminuées dans les cellules présentatrice d’antigènes qui expriment MARCH1. Nous avons montré que MARCH1 était localisable au niveau de la mitochondrie, ce qui lui permet d’interagir avec les enzymes de la glycolyse. Finalement, nous avons quantifié l’expression de Eno1 et de LDHB par Western Blot, pour montrer une augmentation de l’expression de ces enzymes en absence de MARCH1. À la lumière de ces résultats, nous discutons des avantages que procure la diminution de l’expression de MARCH1 dans un contexte inflammatoire, suite à l’activation des cellules présentatrices d’antigènes. Ce phénomène permettrait une présentation antigénique plus efficace, une augmentation de la production d’énergie et une meilleure résistance aux ROS produits lors de la réponse inflammatoire.
Resumo:
Connue pour augmenter les temps de réponse et les erreurs, l’alternance des tâches est considérée par les industriels comme un point de friction humain depuis plusieurs décennies. Pourtant malgré l’important nombre d’études sur l’alternance des tâches, peu s'intéressent à l'électrophysiologie humaine et au déploiement de l’attention visuospatiale. Le travail qui suit décrit notre incursion destinée à approfondir les connaissances autant sur les paradigmes d’alternance de tâche que les composantes électrophysiologiques typiquement reliées au déploiement de l’attention visuospatiale telles la N2pc ou la Ppc récemment décrite par Corriveau et al. (2012). Afin d’examiner les modulations des composantes électrophysiologiques sus nommées en fonction des coûts d’alternance, un paradigme d’alternance des tâches regroupant des blocs mixtes (avec alternance) et des blocs purs (sans alternance) a été utilisé. Les résultats démontrent un impact du coût d’alternance sur la latence de la N2pc, ce qui reflète comme attendu d’un processus de contrôle cognitif descendant sur la sélection attentionnelle visospatiale. De manière plus surprenante, des modulations de Ppc ont été observées, tandis que cette composante était jusqu’alors comprise comme une composante principalement reliée à une activité ascendante de bas niveau de traitement. Cette modulation de Ppc suggère l'existence d’un autre mécanisme de modulation attentionnelle antérieur à la N2pc.
Resumo:
This paper underlines a methodology for translating text from English into the Dravidian language, Malayalam using statistical models. By using a monolingual Malayalam corpus and a bilingual English/Malayalam corpus in the training phase, the machine automatically generates Malayalam translations of English sentences. This paper also discusses a technique to improve the alignment model by incorporating the parts of speech information into the bilingual corpus. Removing the insignificant alignments from the sentence pairs by this approach has ensured better training results. Pre-processing techniques like suffix separation from the Malayalam corpus and stop word elimination from the bilingual corpus also proved to be effective in training. Various handcrafted rules designed for the suffix separation process which can be used as a guideline in implementing suffix separation in Malayalam language are also presented in this paper. The structural difference between the English Malayalam pair is resolved in the decoder by applying the order conversion rules. Experiments conducted on a sample corpus have generated reasonably good Malayalam translations and the results are verified with F measure, BLEU and WER evaluation metrics
Resumo:
Salient pole brushless alternators coupled to IC engines are extensively used as stand-by power supply units for meeting in- dustrial power demands. Design of such generators demands high power to weight ratio, high e ciency and low cost per KVA out- put. Moreover, the performance characteristics of such machines like voltage regulation and short circuit ratio (SCR) are critical when these machines are put into parallel operation and alterna- tors for critical applications like defence and aerospace demand very low harmonic content in the output voltage. While designing such alternators, accurate prediction of machine characteristics, including total harmonic distortion (THD) is essential to mini- mize development cost and time. Total harmonic distortion in the output voltage of alternators should be as low as possible especially when powering very sophis- ticated and critical applications. The output voltage waveform of a practical AC generator is replica of the space distribution of the ux density in the air gap and several factors such as shape of the rotor pole face, core saturation, slotting and style of coil disposition make the realization of a sinusoidal air gap ux wave impossible. These ux harmonics introduce undesirable e ects on the alternator performance like high neutral current due to triplen harmonics, voltage distortion, noise, vibration, excessive heating and also extra losses resulting in poor e ciency, which in turn necessitate de-rating of the machine especially when connected to non-linear loads. As an important control unit of brushless alternator, the excitation system and its dynamic performance has a direct impact on alternator's stability and reliability. The thesis explores design and implementation of an excitation i system utilizing third harmonic ux in the air gap of brushless al- ternators, using an additional auxiliary winding, wound for 1=3rd pole pitch, embedded into the stator slots and electrically iso- lated from the main winding. In the third harmonic excitation system, the combined e ect of two auxiliary windings, one with 2=3rd pitch and another third harmonic winding with 1=3rd pitch, are used to ensure good voltage regulation without an electronic automatic voltage regulator (AVR) and also reduces the total harmonic content in the output voltage, cost e ectively. The design of the third harmonic winding by analytic methods demands accurate calculation of third harmonic ux density in the air gap of the machine. However, precise estimation of the amplitude of third harmonic ux in the air gap of a machine by conventional design procedures is di cult due to complex geome- try of the machine and non-linear characteristics of the magnetic materials. As such, prediction of the eld parameters by conven- tional design methods is unreliable and hence virtual prototyping of the machine is done to enable accurate design of the third har- monic excitation system. In the design and development cycle of electrical machines, it is recognized that the use of analytical and experimental methods followed by expensive and in exible prototyping is time consum- ing and no longer cost e ective. Due to advancements in com- putational capabilities over recent years, nite element method (FEM) based virtual prototyping has become an attractive al- ternative to well established semi-analytical and empirical design methods as well as to the still popular trial and error approach followed by the costly and time consuming prototyping. Hence, by virtually prototyping the alternator using FEM, the important performance characteristics of the machine are predicted. Design of third harmonic excitation system is done with the help of results obtained from virtual prototype of the machine. Third harmonic excitation (THE) system is implemented in a 45 KVA ii experimental machine and experiments are conducted to validate the simulation results. Simulation and experimental results show that by utilizing third harmonic ux in the air gap of the ma- chine for excitation purposes during loaded conditions, triplen harmonic content in the output phase voltage is signi cantly re- duced. The prototype machine with third harmonic excitation system designed and developed based on FEM analysis proved to be economical due to its simplicity and has the added advan- tage of reduced harmonics in the output phase voltage.
Resumo:
Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.
Resumo:
For the theoretical investigation of local phenomena (adsorption at surfaces, defects or impurities within a crystal, etc.) one can assume that the effects caused by the local disturbance are only limited to the neighbouring particles. With this model, that is well-known as cluster-approximation, an infinite system can be simulated by a much smaller segment of the surface (Cluster). The size of this segment varies strongly for different systems. Calculations to the convergence of bond distance and binding energy of an adsorbed aluminum atom on an Al(100)-surface showed that more than 100 atoms are necessary to get a sufficient description of surface properties. However with a full-quantummechanical approach these system sizes cannot be calculated because of the effort in computer memory and processor speed. Therefore we developed an embedding procedure for the simulation of surfaces and solids, where the whole system is partitioned in several parts which itsself are treated differently: the internal part (cluster), which is located near the place of the adsorbate, is calculated completely self-consistently and is embedded into an environment, whereas the influence of the environment on the cluster enters as an additional, external potential to the relativistic Kohn-Sham-equations. The basis of the procedure represents the density functional theory. However this means that the choice of the electronic density of the environment constitutes the quality of the embedding procedure. The environment density was modelled in three different ways: atomic densities; of a large prepended calculation without embedding transferred densities; bulk-densities (copied). The embedding procedure was tested on the atomic adsorptions of 'Al on Al(100) and Cu on Cu(100). The result was that if the environment is choices appropriately for the Al-system one needs only 9 embedded atoms to reproduce the results of exact slab-calculations. For the Cu-system first calculations without embedding procedures were accomplished, with the result that already 60 atoms are sufficient as a surface-cluster. Using the embedding procedure the same values with only 25 atoms were obtained. This means a substantial improvement if one takes into consideration that the calculation time increased cubically with the number of atoms. With the embedding method Infinite systems can be treated by molecular methods. Additionally the program code was extended by the possibility to make molecular-dynamic simulations. Now it is possible apart from the past calculations of fixed cores to investigate also structures of small clusters and surfaces. A first application we made with the adsorption of Cu on Cu(100). We calculated the relaxed positions of the atoms that were located close to the adsorption site and afterwards made the full-quantummechanical calculation of this system. We did that procedure for different distances to the surface. Thus a realistic adsorption process could be examined for the first time. It should be remarked that when doing the Cu reference-calculations (without embedding) we begun to parallelize the entire program code. Only because of this aspect the investigations for the 100 atomic Cu surface-clusters were possible. Due to the good efficiency of both the parallelization and the developed embedding procedure we will be able to apply the combination in future. This will help to work on more these areas it will be possible to bring in results of full-relativistic molecular calculations, what will be very interesting especially for the regime of heavy systems.
Resumo:
English: The present thesis describes the synthesis of 1,1’-ferrocendiyl-based pyridylphosphine ligands, the exploration of their fundamental coordination chemistry and preliminary experiments with selected complexes aimed at potential applications. One main aspect is the synthesis of the bidentate ferrocene-based pyridylphosphine ligands 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene, 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene and 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. A specific feature of these ligands is the ball-bearing like flexibility of the ferrocenebased backbone. An additional flexibility element is the rotation around the C–C single bonds. Consequently, the donor atoms can realise a wide range of positions with respect to each other and are therefore able to adapt to the coordination requirements of different metal centres. The flexibility of the ligand also plays a role in another key aspect of this work, which concerns the coordination mode, i. e. bridging vs. chelating. In addition to the flexibility, also the position of the donor atoms to each other is important. This is largely affected by the position of the pyridyl nitrogen (pyrid-2-yl vs. pyrid-3-yl) and the methylen group in 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. Another interesting point is the combination of a soft phosphorus donor atom with a harder nitrogen donor atom, according to the HSAB principle. This combination generates a unique binding profile, since the pi-acceptor character of the P site is able to stabilise a metal centre in a low oxidation state, while the nitrogen sigma-donor ability can make the metal more susceptible to oxidative addition reactions. A P,N-donor combination can afford hemilabile binding profiles, which would be ideal for catalysis. Beyond 1,2-substituted ferrocene derivatives, which are quite successful in catalytic applications, 1,1’-derivatives are rather underrepresented. While a low-yield synthetic pathway to 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene was already described in the literature [I. R. Butler, Organometallics 1992, 11, 74.], it was possible to find a new, improved and simplified synthetic pathway. Both other ligands were unknown prior to this work. Satisfactory results in the synthesis of 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene could be achieved by working in analogy to the new synthetic procedure for 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene. The synthesis of 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene has been handled by the group of Prof. Petr Stepnicka from Charles University, Prague, Czech Republic. The synthesis of tridentate ligands with an analogous heterodentate arrangement, was investigated briefly as a sideline of this study. The major part of this thesis deals with the fundamental coordination chemistry towards transition metals of the groups 10, 11 and 12. Due to the well-established catalytic properties of analogous palladium complexes, the coordination chemistry towards palladium (group 10) is of particular interest. The metals zinc and cadmium (group 12) are also of substantial importance because they are redox-inert in their divalent state. This is relevant in view of electrochemical investigations concerning the utilisation of the ligands as molecular redox sensors. Also mercury and the monovalent metals silver and gold (group 11) are included because of their rich coordination chemistry. It is essential to answer questions concerning aspects of the ligands’ coordination mode bearing in mind the HSAB principle.
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.