952 resultados para Two-visual systems
Resumo:
La présente recherche vise à explorer et à décrire l’accommodation des valeurs professionnelles au sein du système de valeurs culturelles par les bibliothécaires universitaires sénégalais. Elle répond aux questions de recherche suivantes : (1) Quel est le système de valeurs culturelles dominant chez les bibliothécaires universitaires sénégalais ? (2) Comment les bibliothécaires universitaires sénégalais priorisent-ils leurs valeurs professionnelles ? (3) Comment les bibliothécaires universitaires sénégalais accommodent-ils leurs valeurs professionnelles à leurs valeurs culturelles ?cette recherche confirme la théorie de la prédominance dans les sociétés africaines en général d’un système de valeurs s’inscrivant dans l’axe « Continuité – Dépassement de soi » du modèle théorique de Schwartz (2006, 1992). Dans ce système, les valeurs dominantes sont des valeurs de types universalisme, bienveillance, tradition, conformité et sécurité. Ces valeurs favorisent l’intégration de l’individu au groupe, la solidarité et la sécurité familiale et le refus des actions de nature à porter atteinte à l’harmonie du groupe. Au plan pratique, la recherche démontre la nécessité de renforcer la socialisation professionnelle en intégrant l’éthique et les valeurs dans la formation des bibliothécaires universitaires sénégalais.
Resumo:
La réplication et l’assemblage du virus de l’hépatite C (VHC) sont régulés finement dans le temps et l’espace par les interactions protéiques entre le virus avec l’hôte. La compréhension de la biologie du virus ainsi que sa pathogénicité passe par les connaissances relatives aux interactions virus/hôte. Afin d’identifier ces interactions, nous avons exploité une approche d’immunoprécipitation (IP) couplée à une détection par spectrométrie de masse (MS), pour ensuite évaluer le rôle des protéines identifiées dans le cycle viral par une technique de silençage génique. Les protéines virales Core, NS2, NS3/4A, NS4B, NS5A et NS5B ont été exprimées individuellement dans les cellules humaines 293T et immunoprécipitées afin d’isoler des complexes protéiques qui ont été soumis à l’analyse MS. Ainsi, 98 protéines de l’hôte ont été identifiées avec un enrichissement significatif et illustrant une spécificité d’interaction. L’enrichissement de protéines connues dans la littérature a démontré la force de l’approche, ainsi que la validation de 6 nouvelles interactions virus/hôte. Enfin, le rôle de ces interactants sur la réplication virale a été évalué dans un criblage génomique par ARN interférant (ARNi). Deux systèmes rapporteurs de la réplication virale ont été utilisés : le système de réplicon sous-génomique (Huh7-Con1-Fluc) et le système infectieux (J6/JFH-1/p7Rluc2a), ainsi qu’un essai de toxicité cellulaire (Alamar Blue). Parmi les protéines de l’hôte interagissant avec le VHC, 28 protéines ont démontré un effet significatif sans effet de toxicité cellulaire, suggérant fortement un rôle dans la réplication du VHC. Globalement, l’étude a mené à l’identification de nouvelles interactions virus/hôte et l’identification de nouvelles cibles thérapeutiques potentielles.
Resumo:
À l’ère du web 2.0, l’usage des sites web se multiplie et génère de nouveaux enjeux. La satisfaction en rapport à l’interactivité, facteur d’efficacité des sites, détermine la popularité, et donc la visibilité de ceux-ci sur la Toile. Par conséquent, dans cette étude, nous considérons que les utilisateurs ont un rôle à jouer lors du processus de conception de ces derniers. Certes, autant en théorie que dans la pratique, les concepteurs semblent bel et bien tenir compte des utilisateurs; toutefois, ils ne les intègrent pas comme participants actifs dans leurs démarches. Cette étude vise au moyen d’une recherche documentaire et d’observations sur le terrain à comprendre les principales catégories et morphologies des sites web ainsi que les usages qui en découlent. Une analyse des diverses démarches de conception et des perceptions et attentes des internautes est réalisée sur la base de ces résultats. Pour répondre à ces objectifs, cette analyse cible deux catégories de sites réalisés par des professionnels et par des amateurs. Celle-ci nous permet de démontrer que les résultats de chacune de ces démarches, exprimés à travers les interfaces graphiques des sites, diffèrent au niveau de la qualité perceptible. Cette étude souligne également l’importance d’un traitement efficace de la communication graphique des éléments des sites web, afin de structurer la lecture et transmettre au final un message clair et compréhensible aux internautes. Dans le but consolider nos propositions, nous faisons référence à deux théories de communication graphique, la Gestalt et la sémiotique, l’une s’intéressant à la perception visuelle, l’autre à l’interprétation des signes. Celles-ci se sont révélées pertinentes pour analyser la qualité et l’efficacité des éléments de contenus. Notre étude révèle que les participants ne sont pas satisfaits des deux sites testés car l’utilisabilité du site conçu par des professionnels est trop complexe et l’interface du site conçu par un amateur manque de professionnalisme et de cohérence. Ces résultats soulignent la pertinence d’une approche centrée sur l’utilisateur pour la conception de sites web, car elle permet d’identifier et de résoudre des erreurs de conception. Nos résultats permettent également de souligner que les professionnels ayant un savoir technique et théorique se démarquent des amateurs au niveau des intervenants, des outils et des limites. Des pistes de solution, via des critères de design centré sur l’utilisateur, sont proposées à la fin de cette étude dans le but d’optimiser la qualité et l’efficacité des interfaces graphiques web.
Resumo:
L'être humain utilise trois systèmes sensoriels distincts pour réguler le maintien de la station debout: la somesthésie, le système vestibulaire, et le système visuel. Le rôle de la vision dans la régulation posturale demeure peu connu, notamment sa variabilité en fonction de l'âge, du type développemental, et des atteintes neurologiques. Dans notre travail, la régulation posturale induite visuellement a été évaluée chez des participants au développement et vieillissement normaux âgés de 5-85 ans, chez des individus autistes (développement atypique) âgés de 12-33 ans, ainsi que chez des enfants entre 9-18 ans ayant subi un TCC léger. À cet effet, la réactivité posturale des participants en réponse à un tunnel virtuel entièrement immersif, se mouvant à trois niveaux de vélocité, a été mesurée; des conditions contrôles, où le tunnel était statique ou absent, ont été incluses. Les résultats montrent que la réactivité (i.e. instabilité) posturale induite visuellement est plus élevée chez les jeunes enfants; ensuite, elle s'atténue pour rejoindre des valeurs adultes vers 16-19 ans et augmente de façon linéaire en fonction de l'âge après 45 ans jusqu'à redevenir élevée vers 60 ans. De plus, à la plus haute vélocité du tunnel, les plus jeunes participants autistes ont manifesté significativement moins de réactivité posturale comparativement à leurs contrôles; cette différence n'était pas présente chez des participants plus âgés (16-33 ans). Enfin, les enfants ayant subi un TCC léger, et qui étaient initialement modérément symptomatiques, ont montré un niveau plus élevé d'instabilité posturale induite visuellement que les contrôles, et ce jusqu'à 12 semaines post-trauma malgré le fait que la majorité d'entre eux (89%) n'étaient plus symptomatiques à ce stade. En somme, cela suggère la présence d'une importante période de transition dans la maturation des systèmes sous-tendant l'intégration sensorimotrice impliquée dans le contrôle postural vers l'âge de 16 ans, et d'autres changements sensorimoteurs vers l'âge de 60 ans; cette sur-dépendance visuelle pour la régulation posturale chez les enfants et les aînés pourrait guider l'aménagement d'espaces et l'élaboration d'activités ajustés à l'âge des individus. De plus, le fait que l'hypo-réactivité posturale aux informations visuelles chez les autistes dépende des caractéristiques de l'environnement visuel et de l'âge chronologique, affine notre compréhension des anomalies sensorielles propres à l'autisme. Par ailleurs, le fait que les enfants ayant subi un TCC léger montrent des anomalies posturales jusqu'à 3 mois post-trauma, malgré une diminution significative des symptômes rapportés, pourrait être relié à une altération du traitement de l'information visuelle dynamique et pourrait avoir des implications quant à la gestion clinique des patients aux prises avec un TCC léger, puisque la résolution des symptômes est actuellement le principal critère utilisé pour la prise de décision quant au retour aux activités. Enfin, les résultats obtenus chez une population à développement atypique (autisme) et une population avec atteinte neurologique dite transitoire (TCC léger), contribuent non seulement à une meilleure compréhension des mécanismes d'intégration sensorimotrice sous-tendant le contrôle postural mais pourraient aussi servir comme marqueurs sensibles et spécifiques de dysfonction chez ces populations. Mots-clés : posture, équilibre, vision, développement/vieillissement sensorimoteur, autisme, TCC léger symptomatique, réalité virtuelle.
Resumo:
L’intégration de stimulations provenant de modalités sensorielles différentes nous offre des avantages perceptifs tels qu’une meilleure discrimination et une accélération des temps de réponse (TR) face aux évènements environnementaux. Cette thèse a investigué les effets de la position spatiale de stimulations visuelles et tactiles sur le gain de redondance (GR), qui correspond à une réduction du temps de réaction lorsque deux stimulations sont présentées simultanément plutôt qu’isolément. La première étude a comparé le GR lorsque les mêmes stimulations visuotactiles sont présentées dans une tâche de détection et une tâche de discrimination spatiale. Les stimulations étaient présentées unilatéralement dans le même hémichamp ou bilatéralement dans les hémichamps opposés. Dans la tâche de détection, les participants devaient répondre à toutes les stimulations, peu importe leur localisation. Les résultats de cette tâche démontrent que les stimulations unilatérales et bilatérales produisent un GR et une violation du modèle de course indissociables. Dans la tâche de discrimination spatiale où les participants devaient répondre seulement aux stimulations présentées dans l’hémichamp droit, les TR aux stimulations bilatérales étaient moins rapides. Nous n’avons pas observé de différence entre le GR maximal obtenu dans l’une ou l’autre des tâches de cette étude. Nous concluons que lorsque l’information spatiale n’est pas pertinente pour accomplir la tâche, les stimulations unilatérales et bilatérales sont équivalentes. La manipulation de la pertinence de l’information spatiale permet donc d’induire une altération du GR en fonction de la localisation des stimulations. Lors d’une seconde étude, nous avons investigué si la différence entre les gains comportementaux résultants de l’intégration multimodale et intramodale dépend de la configuration spatiale des stimulations. Les résultats montrent que le GR obtenu pour les conditions multimodales surpasse celui obtenu pour les stimulations intramodales. De plus, le GR des conditions multimodales n’est pas influencé par la configuration spatiale des stimulations. À l’opposé, les stimulations intramodales produisent un GR plus important iii lorsque les stimulations sont présentées bilatéralement. Nos résultats suggèrent que l’intégration multimodale et intramodale se distinguent quant au GR qu’ils produisent et quant aux conditions nécessaires à cette amélioration. La troisième étude examine le rôle du corps calleux (CC) dans l’observation du GR obtenu pour les stimulations multimodales et intramodales lorsque celles-ci sont présentées unilatéralement et bilatéralement. Quatre patients ayant une agénésie congénitale du corps calleux (AgCC) et un patient callosotomisé ont été comparés à des individus normaux dans une tâche de détection. Dans l’ensemble, les résultats suggèrent que le CC n’est pas nécessaire pour l’intégration interhémisphérique de stimulations multimodales. Sur la base d’études précédentes démontrant le rôle des collicules supérieurs (CS) dans l’intégration multimodale, nous concluons qu’en l’absence du CC, les bénéfices comportementaux résultants d’un traitement sous-cortical par les CS ne reflètent pas les règles d’intégration observées dans les études neurophysiologiques chez l’animal.
Resumo:
La perception visuelle ne se résume pas à la simple perception des variations de la quantité de lumière qui atteint la rétine. L’image naturelle est en effet composée de variation de contraste et de texture que l’on qualifie d’information de deuxième ordre (en opposition à l’information de premier ordre : luminance). Il a été démontré chez plusieurs espèces qu’un mouvement de deuxième ordre (variation spatiotemporelle du contraste ou de la texture) est aisément détecté. Les modèles de détection du mouvement tel le modèle d’énergie d’Adelson et Bergen ne permettent pas d’expliquer ces résultats, car le mouvement de deuxième ordre n’implique aucune variation de la luminance. Il existe trois modèles expliquant la détection du mouvement de deuxième ordre : la présence d’une circuiterie de type filter-rectify-filter, un mécanisme de feature-tracking ou simplement l’existence de non-linéarités précoces dans le traitement visuel. Par ailleurs, il a été proposé que l’information visuelle de deuxième ordre soit traitée par une circuiterie neuronale distincte de celle qui traite du premier ordre. Bon nombre d’études réfutent cependant cette théorie et s’entendent sur le fait qu’il n’y aurait qu’une séparation partielle à bas niveau. Les études électrophysiologiques sur la perception du mouvement de deuxième ordre ont principalement été effectuées chez le singe et le chat. Chez le chat, toutefois, seules les aires visuelles primaires (17 et 18) ont été extensivement étudiées. L’implication dans le traitement du deuxième ordre de l’aire dédiée à la perception du mouvement, le Sulcus syprasylvien postéro-médian latéral (PMLS), n’est pas encore connue. Pour ce faire, nous avons étudié les profils de réponse des neurones du PMLS évoqués par des stimuli dont la composante dynamique était de deuxième ordre. Les profils de réponses au mouvement de deuxième ordre sont très similaires au premier ordre, bien que moins sensibles. Nos données suggèrent que la perception du mouvement par le PMLS serait de type form-cue invariant. En somme, les résultats démontrent que le PMLS permet un traitement plus complexe du mouvement du deuxième ordre et sont en accord avec son rôle privilégié dans la perception du mouvement.
Resumo:
Cette étude a pour but de présenter le dialogue entre les juges de la Cour européenne des droits de l’homme (CEDH) et de la Cour interaméricaine des droits de l’homme (CIADH), deux Cours régionales supranationales, visant toutes deux à garantir le respect des droits fondamentaux. Le dialogue est étudié à travers l’analyse du contentieux portant sur l’intégrité de la personne humaine et sur la protection des droits économiques et sociaux. Ce sujet se rattache au contexte de mondialisation qui vient transformer les relations de pouvoir et révèle l’émancipation des juges dans la régulation transgouvernementale. Le présent mémoire conclut que le dialogue vise à établir une cohérence entre les systèmes afin de faire prévaloir une vision commune des droits de l’homme à travers la constitution d’un espace euro-américain, tel un réseau d’échange informel. Néanmoins, le dialogue est limité par certains facteurs contextuels liés aux réalités contrastées des deux systèmes régionaux ainsi que par la volonté des acteurs étatiques.
Resumo:
La production de biodiésel par des microalgues est intéressante à plusieurs niveaux. Dans le premier chapitre, un éventail de pour et contres concernant l’utilisation de microalgues pour la production de biocarburant sont ici révisés. La culture d’algues peut s'effectuer en utilisant des terres non-arables, de l’eau non-potable et des nutriments de base. De plus, la biomasse produite par les algues est considérablement plus importante que celle de plantes vasculaires. Plusieurs espèces on le contenu lipidique en forme de triacylglycérols (TAGs), qui peut correspondre jusqu'à 30% - 40% du poids sec de la biomasse. Ces proportions sont considérablement plus élevées que celui des huiles contenues dans les graines actuellement utilisées pour le biodiésel de première génération. Par contre, une production pratique et peu couteuse de biocarburant par des microalgues requiert de surpasser plusieurs obstacles. Ceci inclut le développement de systèmes de culture efficace à faible coût, de techniques de récupération requérant peu d’énergie, et de méthodes d’extraction et de conversion de l’huile non-dommageables pour l’environnement et peu couteuses. Le deuxième chapitre explore l'une des questions importantes soulevées dans le premier chapitre: la sélection d'une souche pour la culture. Une collection de souches de microalgues d'eau douce indigène au Québec a été établi et examiné au niveau de la diversité physiologique. Cette collection est composée de cent souches, que apparaissaient très hétérogènes en terme de croissance lorsque mises en culture à 10±2 °C ou 22±2 °C sur un effluent secondaire d’une usine municipale de traitement des eaux usées (EU), défini comme milieu Bold's Basal Medium (BBM). Des diagrammes de dispersion ont été utilisés pour étudier la diversité physiologique au sein de la collection, montrant plusieurs résultats intéressants. Il y avait une dispersion appréciable dans les taux de croissance selon les différents types de milieux et indépendamment de la température. De manière intéressante, en considérant que tous les isolats avaient initialement été enrichis sur milieu BBM, la distribution était plutôt symétrique autour de la ligne d’iso-croissance, suggérant que l’enrichissement sur BBM n’a pas semblé biaiser la croissance des souches sur ce milieu par rapport aux EU. Également, considérant que les isolats avaient d’abord été enrichis à 22°C, il est assez surprenant que la distribution de taux de croissance spécifiques soit aussi symétrique autour de la ligne d’iso-croissance, avec grossièrement des nombres égaux d’isolats de part et d’autre. Ainsi, l’enrichissement à 22°C ne semble pas biaiser les cellules vers une croissance à cette température plutôt que vers 10°C. Les diagrammes de dispersion obtenus lorsque le pourcentage en lipides de cultures sur BBM ont été comparées à des cultures ayant poussé sur EU soit à 10°C ou 22°C rendent évident que la production de lipides est favorisée par la culture sur EU aux deux températures, et que la production lipidique ne semble pas particulièrement plus favorisée par l’une ou l’autre de ces températures. Lorsque la collection a été examinée pour y déceler des différences avec le site d’échantillonnage, une analyse statistique a montré grossièrement que le même degré de diversité physiologique était retrouvé dans les échantillons des deux différents sites. Le troisième chapitre a poursuivi l'évaluation de la culture d'algues au Québec. L’utilisation de déchets industriels riches en nutriments minéraux et en sources de carbone pour augmenter la biomasse finale en microalgues et le produit lipidique à faible coût est une stratégie importante pour rendre viable la technologie des biocarburants par les algues. Par l’utilisation de souches de la collection de microalgues de l’Université de Montréal, ce rapport montre pour la première fois que des souches de microalgues peuvent pousser en présence de xylose, la source de carbone majoritairement retrouvée dans les eaux usées provenant des usines de pâte et papier, avec une hausse du taux de croissance de 2,8 fois par rapport à la croissance photoautotrophe, atteignant jusqu’à µ=1,1/jour. En présence de glycérol, les taux de croissance atteignaient des valeurs aussi élevées que µ=1,52/jour. La production lipidique augmentait jusqu’à 370% en présence de glycérol et 180% avec le xylose pour la souche LB1H10, démontrant que cette souche est appropriée pour le développement ultérieur de biocarburants en culture mixotrophe. L'ajout de xylose en cultures d'algues a montré certains effets inattendus. Le quatrième chapitre de ce travail a porté à comprendre ces effets sur la croissance des microalgues et la production de lipides. Quatre souches sauvages indigènes ont été obersvées quotidiennement, avant et après l’ajout de xylose, par cytométrie en flux. Avec quelques souches de Chlorella, l’ajout de xylose induisait une hausse rapide de l’accumulation de lipide (jusqu’à 3,3 fois) pendant les premières six à douze heures. Aux temps subséquents, les cellules montraient une diminution du contenu en chlorophylle, de leur taille et de leur nombre. Par contre, l’unique membre de la famille des Scenedesmaceae avait la capacité de profiter de la présence de cette source de carbone sous culture mixotrophe ou hétérotrophe sans effet négatif apparent. Ces résultats suggèrent que le xylose puisse être utilisé avant la récolte afin de stimuler l’augmentation du contenu lipidique de la culture d’algues, soit en système de culture continu ou à deux étapes, permettant la biorestauration des eaux usées provenant de l’industrie des pâtes et papiers. Le cinquième chapitre aborde une autre déché industriel important: le dioxyde de carbone et les gaz à effet de serre. Plus de la moitié du dioxyde de carbone qui est émis dans l'atmosphère chaque jour est dégagé par un processus stationnaire, soit pour la production d’électricité ou pour la fabrication industrielle. La libération de CO2 par ces sources pourrait être atténuée grâce à la biorestauration avec microalgues, une matière première putative pour les biocarburants. Néanmoins, toutes les cheminées dégagent un gaz différent, et la sélection des souches d'algues est vitale. Ainsi, ce travail propose l'utilisation d’un état de site particulier pour la bioprospection de souches d'algues pour être utilisé dans le processus de biorestauration. Les résultats montrent que l'utilisation d'un processus d'enrichissement simple lors de l'étape d'isolement peut sélectionner des souches qui étaient en moyenne 43,2% mieux performantes dans la production de biomasse que les souches isolées par des méthodes traditionnelles. Les souches isolées dans ce travail étaient capables d'assimiler le dioxyde de carbone à un taux supérieur à la moyenne, comparées à des résultats récents de la littérature.
Resumo:
L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.
Resumo:
Die Dissertation beschäftigt sich mit der komparativen Analyse der deutschen und französischen Innovationssysteme. Ausgehend von der evolutorisch-orientierten Innovationsforschung und der Institutionenökonomik werden die Akteure und deren Interaktionen in den jeweiligen institutionellen Rahmenbedingungen in beiden Innovationssystemen untersucht. Die Arbeit beleuchtet dieses Thema aus verschiedenen Perspektiven und zeichnet sich durch ein breites Methodenspektrum aus. Die Grenzen und Defizite des linearen Innovationsmodells werden aufgezeigt und für ein systemisches, interaktives Verständnis der Entstehung von Innovationen plädiert. Dieses interaktive Modell wird auf die Ebene des nationalen Innovationssystems transponiert, und damit wird der konzeptionelle Rahmen für die weitere Analyse geschaffen. Für die Gestaltung der Innovationssysteme wird die Bedeutung der institutionellen Konfigurationen betont, die von den Innovationsakteuren gewählt werden. Hierfür werden jeweils die Fallbeispiele Frankreich und Deutschland ausführlich untersucht und nach der gleichen Systematik empirisch betrachtet und schließlich werden beide Innovationssysteme systematisch verglichen. Dabei wird auch auf die Pfadabhängigkeiten in beiden Innovationssystemen eingegangen, sowie auf die Notwendigkeit der Berücksichtigung kultureller und historischer Eigenarten der verglichenen Länder. Expertengespräche mit deutschen und französischen Experten, ergänzen die zuvor erzielten Ergebnisse der Arbeit: Durch eine interdisziplinäre Herangehensweise werden politikwissenschaftliche und ökonomische Ansätze miteinander verknüpft, sowie kulturelle Eigenarten berücksichtigt, die Innovationssysteme beeinflussen können. In seinen Schlussfolgerungen kommt der Verfasser zu dem Ergebnis, dass „lernende Politik“ über institutionellen Wandel und Wissenstransfer ein wichtiger Faktor bei der Gestaltung hybrider Institutionen und der staatlichen Innovationspolitik von der „Missions- zur Diffusionsorientierung“ hin ist. Die Betrachtung zweier nationaler Systeme sowie deren Einbindung in internationale Kontexte führt zum Ergebnis, dass die Steuerung der Schnittstelle „Forschung-Industrie“, insbesondere die Rolle der Universitäten und Forschungseinrichtungen in heterogenen Kooperationspartnerschaften, über neue forschungs-und technologiepolitische Instrumente über transnationales Lernen von Institutionen geschehen kann. Dieser institutionelle Wandel wird als Lernprozess betrachtet, der im Übergang zur wissensbasierten Wirtschaft als “comparative institutional advantage“ ein wichtiger Faktor bei der Gestaltung der Institutionen und der staatlichen Technologiepolitik ist.
Resumo:
During recent years, quantum information processing and the study of N−qubit quantum systems have attracted a lot of interest, both in theory and experiment. Apart from the promise of performing efficient quantum information protocols, such as quantum key distribution, teleportation or quantum computation, however, these investigations also revealed a great deal of difficulties which still need to be resolved in practise. Quantum information protocols rely on the application of unitary and non–unitary quantum operations that act on a given set of quantum mechanical two-state systems (qubits) to form (entangled) states, in which the information is encoded. The overall system of qubits is often referred to as a quantum register. Today the entanglement in a quantum register is known as the key resource for many protocols of quantum computation and quantum information theory. However, despite the successful demonstration of several protocols, such as teleportation or quantum key distribution, there are still many open questions of how entanglement affects the efficiency of quantum algorithms or how it can be protected against noisy environments. To facilitate the simulation of such N−qubit quantum systems and the analysis of their entanglement properties, we have developed the Feynman program. The program package provides all necessary tools in order to define and to deal with quantum registers, quantum gates and quantum operations. Using an interactive and easily extendible design within the framework of the computer algebra system Maple, the Feynman program is a powerful toolbox not only for teaching the basic and more advanced concepts of quantum information but also for studying their physical realization in the future. To this end, the Feynman program implements a selection of algebraic separability criteria for bipartite and multipartite mixed states as well as the most frequently used entanglement measures from the literature. Additionally, the program supports the work with quantum operations and their associated (Jamiolkowski) dual states. Based on the implementation of several popular decoherence models, we provide tools especially for the quantitative analysis of quantum operations. As an application of the developed tools we further present two case studies in which the entanglement of two atomic processes is investigated. In particular, we have studied the change of the electron-ion spin entanglement in atomic photoionization and the photon-photon polarization entanglement in the two-photon decay of hydrogen. The results show that both processes are, in principle, suitable for the creation and control of entanglement. Apart from process-specific parameters like initial atom polarization, it is mainly the process geometry which offers a simple and effective instrument to adjust the final state entanglement. Finally, for the case of the two-photon decay of hydrogenlike systems, we study the difference between nonlocal quantum correlations, as given by the violation of the Bell inequality and the concurrence as a true entanglement measure.
Resumo:
Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.
Resumo:
Understanding how biological visual systems perform object recognition is one of the ultimate goals in computational neuroscience. Among the biological models of recognition the main distinctions are between feedforward and feedback and between object-centered and view-centered. From a computational viewpoint the different recognition tasks - for instance categorization and identification - are very similar, representing different trade-offs between specificity and invariance. Thus the different tasks do not strictly require different classes of models. The focus of the review is on feedforward, view-based models that are supported by psychophysical and physiological data.
Resumo:
Un sistema educatiu tan poc centralitzat com el brit??nic condiciona una estructura administrativa peculiar, que juntament amb la complexitat de les institucions i entitats educatives proporciona un panorama educatiu molt interessant. L???ensenyament de les lleng??es estrangeres tamb?? ser?? motiu d???an??lisi d???aquest treball. Malgrat que tots els governs europeus coincideixen en un inter??s creixent en els termes educatius i en l???harmonitzaci?? dels respectius sistemes educatius, la realitat segueix essent que les estructures d???aquests sistemes mantenen difer??ncies considerables. S??n moltes i molt diverses les institucions responsables del finan??ament, gesti?? i avaluaci?? de l???educaci?? i la formaci??. I no s??n menys les diverg??ncies en temes com l???ensenyament professional, l???educaci?? superior i postobligat??ria, la pol??tica d???ex??mens i titulacions, etc. Basta comparar els aspectes b??sics de dos sistemes educatius com l???espanyol i el brit??nic per entendre la complicada tasca d???intentar integrar els sistemes educatius europeus.
Resumo:
Aquesta tesi presenta un projecte de gestió integral d'infraestructures hidràuliques de sanejament a la Conca del riu Besòs. S'han considerat dos sistemes de sanejament (La Garriga i Granollers) amb les seves respectives xarxes de clavegueram i Estacions Depuradores d'Aigües Residuals (EDAR), i un tram del riu Congost, afluent del Besòs, com a medi receptor de les seves aigües residuals. Amb aquesta finalitat es construeix i s'utilitza un Sistema de Suport a la Decisió Ambiental (SSDA). Aquesta eina incorpora l'ús de models de simulació de qualitat de l'aigua pels sistemes de clavegueram, EDAR i riu, com a forma d'extracció de coneixement sobre la gestió integrada d'aquests elements. Aquest coneixement es conceptualitza, posteriorment, en forma d'arbres de decisió, que proporcionaran a l'usuari les actuacions a realitzar davant de les diferents situacions reals de gestió diària.