366 resultados para visuelle Erlebnis
Resumo:
Au cours des trois dernières décennies, le travail quotidien des cadres gestionnaires infirmiers de premier niveau (CGIPN) a subi de profondes transformations quant aux rôles qu’ils occupent et aux responsabilités qui leur incombent dans les divers établissements de santé. Ces CGIPN vivent et subissent de la pression au regard de leur charge de travail, faisant en sorte qu’ils perçoivent avoir peu de temps pour réaliser adéquatement leur travail en gestion, et que plusieurs infirmières de la relève qui souhaitent faire carrière en gestion se questionnent sur la possibilité d’œuvrer dans ce domaine de la pratique. Peu d’études portent sur l’état de la qualité de vie au travail (QVT) chez ces professionnels. Divisé en trois volets, le projet de recherche mixte séquentielle exploratoire a pour objectif général d’explorer la QVT chez les CGIPN et les facteurs qui l’influencent dans les divers établissements de santé québécois. Les objectifs spécifiques visent à : 1) décrire et comprendre ce que signifie la QVT auprès des 14 CGIPN œuvrant en Centre hospitalier affilié (CHA) à l’Université, 2) décrire et comprendre ce que signifie l’absence d’une QVT auprès des CGIPN en CHA, 3) développer et valider un nouvel instrument de mesure des facteurs favorables et défavorables pouvant influer sur la QVT à partir des données qualitatives auprès de CGIPN (n= 11) œuvrant en Centre de santé et des services sociaux et de CGIPN (n= 11) en Centre hospitalier universitaire, 4) identifier et mesurer les facteurs qui influencent la QVT des CGIPN (n= 291) travaillant dans divers établissements publics de santé et 5) déterminer si les caractéristiques sociodémographiques influencent le choix des facteurs de la QVT. Inspiré de la philosophie du Human caring de Watson comme perspective disciplinaire, le premier volet qualitatif fait appel à une méthode phénoménologique descriptive husserlienne. Pour ce faire, deux séries d’entretiens semi-dirigés à l’aide d’un guide d’entrevue visent à répondre aux deux premiers objectifs. Le second volet cible l’élaboration et la validation d’un instrument de mesure permettant de répondre au troisième objectif de la recherche et le dernier volet, de type quantitatif corrélationnel, s’applique à répondre aux deux derniers objectifs. Dans la première phase, l’analyse visuelle des données qualitatives (verbatim) permet l’émergence des résultats qualitatifs, soit de cinq eidos-thèmes favorables exprimés par les participants et décrits par ordre d’importance : 1) l’actualisation du leadership et des habiletés politiques pour l’amélioration de la qualité des soins infirmiers, 2) les éléments contextuels propices à l’humanisation organisationnelle, 3) le soutien organisationnel favorisant l’épanouissement socioprofessionnel et personnel, 4) l’organisation apprenante favorisant le développement des compétences en gestion des soins infirmiers et 5) l’accompagnement personnalisé répondant aux besoins spécifiques des novices en gestion des soins infirmiers. L’essence de la QVT pour les CGIPN se définit par l’émancipation socioprofessionnelle du cadre gestionnaire infirmier de premier niveau dans sa pratique clinico-administrative au sein d’une organisation humaniste. De plus, trois eidos-thèmes défavorables se dégagent des analyses qualitatives. Les résultats, décrits par ordre d’importance, sont : 1) la déshumanisation organisationnelle, 2) les conditions défavorables à la pratique en gestion des soins infirmiers et 3) l’accompagnement insuffisant des gestionnaires infirmiers novices. L’essence de l’absence d’une QVT pour les CGIPN se présente comme la dysharmonie au travail du cadre gestionnaire infirmier de premier niveau à l’intérieur d’une structure organisationnelle déshumanisante mettant en péril sa pratique clinico-administrative. Par la suite, une mise en relation des deux essences du phénomène a permis de faire émerger la signification universelle de l’expérience de la QVT et l’absence de celle-ci pour des CGIPN œuvrant en CHA comme étant : une dialectique en administration des services infirmiers dans laquelle se vit des pratiques humanisantes permettant l’atteinte d’un idéal de QVT, en coexistence avec des pratiques déshumanisantes conduisant à l’absence de QVT. Afin de respecter les postulats des méthodes quantitatives, les huit eidos-thèmes qui émergent de la première phase qualitative se transforment en facteurs favorables (FF) et défavorables (FD) à la QVT pour la réalisation des deuxième et troisième phases de la recherche. Dans la seconde phase, le construit théorique qui provient des huit eidos-thèmes et 23 thèmes permet de développer un nouvel instrument de mesure qui s’avère unique à cette population à l’étude. L’analyse psychométrique de l’instrument de mesure (questionnaire auto-administré en mode électronique) permet l’obtention d’un score global du coefficient alpha de Cronbach (α) de 0,93, ce qui est jugé excellent. Dans la troisième et dernière phase, les analyses statistiques des données (logiciel SPSS, version 22 pour Windows 7, 2013) issues de l’enquête quantitative provinciale en ligne (Web) mettent en évidence des résultats probants. Les résultats du questionnaire en ligne avec une échelle ordinale à cinq niveaux révèlent un score global du coefficient alpha de Cronbach à 0,95. De plus, les résultats quantitatifs suggèrent que les facteurs favorables (FF) à la QVT ont des scores moyens de 3,99 (FF1), 3,97 (FF2), 3,96 (FF3), 3,72 (FF4) et 3,53 (FF5) et les trois facteurs défavorables (FD) à la QVT ont des scores moyens de 3,91(FD1), 3,78 (FD2) et 3,56 (FD3). Ces facteurs correspondent aux eidos-thèmes favorables et défavorables de la QVT du volet qualitatif phénoménologique. Les résultats quantitatifs révèlent quelques relations significatives des caractéristiques sociodémographiques (âge et années d’expérience) sur le choix des facteurs qui influencent le plus fortement la QVT. En conclusion, le fait de pouvoir mieux décrire et comprendre la signification de la QVT ainsi que son absence et de pouvoir identifier les facteurs qui sont les plus susceptibles de l’influencer permet de formuler des recommandations pour les quatre domaines de la pratique infirmière. Des pistes d’avenues sont formulées pour maintenir la relève infirmière à des postes de CGIPN au sein des organisations de santé en lui assurant des moyens pour optimiser humainement sa QVT.
Resumo:
La documentation scientifique fait état de la présence, chez l’adulte, de cellules souches et progénitrices neurales (CSPN) endogènes dans les zones sous-ventriculaire et sous-granulaire du cerveau ainsi que dans le gyrus denté de l’hippocampe. De plus, un postulat selon lequel il serait également possible de retrouver ce type de cellules dans la moelle épinière et le néocortex des mammifères adultes a été énoncé. L’encéphalopathie de Wernicke, un trouble neurologique grave toutefois réversible qui entraîne un dysfonctionnement, voire une défaillance du cerveau, est causée principalement par une carence importante en thiamine (CT). Des observations récentes laissent envisager que les facteurs en cause dans la prolifération et la différenciation des CSPN pourraient également jouer un rôle important lors d’un épisode de CT. L’hypothèse, selon laquelle l’identification de nouveaux métabolites entrant dans le mécanisme ou la séquence de réactions se soldant en une CT pourraient en faciliter la compréhension, a été émise au moyen d'une démarche en cours permettant d’établir le profil des modifications métaboliques qui surviennent en de telles situations. Cette approche a été utilisée pour constater les changements métaboliques survenus au niveau du foyer cérébral dans un modèle de rats déficients en thiamine (rats DT), particulièrement au niveau du thalamus et du colliculus inférieur (CI). La greffe de CSPN a quant à elle été envisagée afin d’apporter de nouvelles informations sur la participation des CSPN lors d’un épisode de CT et de déterminer les bénéfices thérapeutiques potentiels offerts par cette intervention. Les sujets de l’étude étaient répartis en quatre groupes expérimentaux : un premier groupe constitué de rats dont la CT était induite par la pyrithiamine (rats DTiP), un deuxième groupe constitué de rats-contrôles nourris ensemble (« pair-fed control rats » ou rats PFC) ainsi que deux groupes de rats ayant subi une greffe de CSPN, soit un groupe de rats DTiP greffés et un dernier groupe constitué de rats-contrôles (rats PFC) greffés. Les échantillons de foyers cérébraux (thalamus et CI) des quatre groupes de rats ont été prélevés et soumis à des analyses métabolomiques non ciblées ainsi qu’à une analyse visuelle par microscopie à balayage électronique (SEM). Une variété de métabolites-clés a été observée chez les groupes de rats déficients en thiamine (rats DTiP) en plus de plusieurs métabolites dont la documentation ne faisait pas mention. On a notamment constaté la présence d’acides biliaires, d’acide cynurénique et d’acide 1,9— diméthylurique dans le thalamus, alors que la présence de taurine et de carnosine a été observée dans le colliculus inférieur. L’étude a de plus démontré une possible implication des CSPN endogènes dans les foyers cérébraux du thalamus et du colliculus inférieur en identifiant les métabolites-clés ciblant les CSPN. Enfin, les analyses par SEM ont montré une amélioration notable des tissus à la suite de la greffe de CSPN. Ces constatations suggèrent que l’utilisation de CSPN pourrait s’avérer une avenue thérapeutique intéressante pour soulager la dégénérescence symptomatique liée à une grave carence en thiamine chez l’humain.
Resumo:
Siegfried Kracauer a fait remarquer, déjà en 1931, que le bestseller est un « signe d’une expérience sociologique réussie ». Dans le cas des émissions littéraires à la télévision, nous assistons à une double configuration d’un succès : celui de l’émission, puis celui du livre. Au- delà de leur influence sur la consommation des livres, les programmes médiatiques sur la littérature font partie de l’ensemble de lieux communs (Robert, 2002) et, comme les écoles ou les institutions littéraires, participent à l’établissement des traditions de lecture. Ils présentent explicitement ou implicitement les titres désirables et prescrivent les normes de lecture acceptées. En présélectionnant des livres pour des milliers de gens à la fois, en invitant des auteurs à présenter leur œuvres ou en mettant en vedette des critiques littéraires, ces programmes de formats fort différents participent aux processus de légitimation culturelle. Cette thèse décrit les différentes modalités des formes de présentation du fait littéraire à la télévision et leurs évolutions. À travers une analyse d’une sélection d’émissions qui ont connu du succès à différentes époques et dans différents contextes culturels, cette recherche vise à cerner la relation médiatique qui existe entre la littérature et la télévision. Établissant ainsi les caractéristiques d’une expérience socio-médiatique réussie, cette thèse explore le dispositif de l’émission littéraire télévisuelle tel qu’il s’est développé entre 1950 et 2010, principalement en étudiant les émissions qui ont marqué la télévision nationale et le paysage littéraire en Allemagne, en Espagne et en France. En décrivant le dispositif médiatique qui fait le lien entre la conception, la production, le contenu et la portée de ces émissions, à travers une approche comparée et intermédiale, cette recherche analyse le complexe réseau de médiations qui entrent en jeu dans la construction et dans la réception de ces émissions, suivant quatre axes thématiques: le dispositif médiatique, la relation avec l’écrivain, le rôle primordial du présentateur et la mise en scène des lecteurs.
Resumo:
L’amblyopie est un trouble développemental de la vision binoculaire. Elle est typiquement caractérisée par des atteintes de l’acuité visuelle et de la stéréoscopie. Toutefois, de plus en plus d’études indiquent la présence d’atteintes plus étendues telles que les difficultés d’attention visuelle ou de lecture. L’amblyopie est généralement expliquée par une suppression interoculaire au niveau cortical, considérée comme chronique ou permanente à l’extérieur de la période développementale. Or, un nombre croissant d’études suggèrent que des interactions binoculaires normales seraient présentes chez les amblyopes adultes. Dans une première étude, nous avons tenté d’identifier un marqueur électrophysiologique de la vision binoculaire. Nous avons enregistré des potentiels évoqués visuels chez des observateurs normaux à qui l’on a induit une dysfonction binoculaire. Les interactions binoculaires étaient caractérisées à l’aide de patrons (facilitation, moyennage et suppression) en comparant les réponses monoculaires et binoculaires. De plus, ces interactions étaient quantifiées à partir d’index d’intégration continus en soustrayant la somme des réponses monoculaires de la réponse binoculaire. Les résultats indiquaient que les patrons d’interaction n’étaient pas optimaux pour estimer les performances stéréoscopiques. Ces dernières étaient, en revanche, mieux expliquées par notre index d’intégration binoculaire. Ainsi, cette étude suggère que l’électrophysiologie est un bon prédicteur de la vision binoculaire. Dans une deuxième étude, nous avons examiné les corrélats neuronaux et comportementaux de la suppression interoculaire chez des amblyopes adultes et des observateurs normaux. Des potentiels évoqués visuels stationnaires ont été enregistrés en utilisant un paradigme de suppression par flash. La suppression était modulée par un changement de contraste du stimulus flash (10, 20, 30, ou 100%), ou le suppresseur, qui était présenté soit dans l’œil dominant ou non-dominant (ou amblyope). Sur le plan comportemental, la suppression interoculaire était observée indépendamment de l’œil stimulé par le flash chez les contrôles. Au contraire, chez les amblyopes, la suppression était asymétrique (c’est-à-dire supérieure lorsqu’elle provenait de l’œil dominant), ce qui suggérait une suppression chronique. De manière intéressante, l’œil amblyope a supprimé l’œil dominant à haut niveau de contraste. Sur le plan électrophysiologique, l’effet de suppression interoculaire observé à la région occipitale était équivalent dans chaque groupe. Toutefois, les réponses électrophysiologiques à la région frontale chez les amblyopes n’étaient pas modulées comme celles des contrôles; la suppression de l’œil amblyope était manifeste même à bas contraste. Nous résultats supportent ainsi l’existence d’interaction binoculaire fonctionnelle chez les amblyopes adultes ainsi que l’implication d’un réseau cortical étendu dans la suppression interoculaire. En somme, l’amblyopie est une condition complexe dont les atteintes corticales et les déficits fonctionnels semblent globaux. L’amblyopie ne doit plus être considérée comme limitée à une dysfonction de l’aire visuelle primaire. La suppression interoculaire semble un point central de cette problématique, mais encore beaucoup d’études seront nécessaires afin de déterminer l’ensemble des mécanismes impliqués dans celle-ci.
Resumo:
En tant que moyen de communication qui détermine les structures de base des langues, la métaphore se classe parmi les enjeux les plus importants du domaine de la traductologie, d’où la complexité de la rendre traduisible. La nature indirecte de la métaphore étant problématique, celle-ci exige une étude approfondie, surtout vis-à-vis le transfert de la culture d’une langue à une autre. Un survol de la littérature académique traitant des théories et des approches différentes en traductologie révèle une façon de rendre possible la traduction de la métaphore. Cette étude traite de la traduction des métaphores du perse aux sous-titres anglais. Elle indique également les approches et les stratégies appliquées à la traduction des expressions linguistiques métaphoriques telles que proposées par Newmark (1988). En se fondant sur des exemples authentiques tirés des textes sources (deux films perses bien connus) et leurs traductions anglaises, cette étude démontre la façon dont certains traducteurs iraniens traduisent des expressions métaphoriques en se servant d’une des sept stratégies proposées par Newmark. Elle explique également comment certains éléments (par ex. les difficultés de la traduction) ont été influents sur leurs conclusions, tout en soutenant l’hypothèse que la reproduction d’une même image d’une langue source dans une langue cible ainsi que l’effacement sont respectivement la plus fréquente et la moins fréquente des stratégies employées par les sous-titreurs iraniens.
Resumo:
Connue pour augmenter les temps de réponse et les erreurs, l’alternance des tâches est considérée par les industriels comme un point de friction humain depuis plusieurs décennies. Pourtant malgré l’important nombre d’études sur l’alternance des tâches, peu s'intéressent à l'électrophysiologie humaine et au déploiement de l’attention visuospatiale. Le travail qui suit décrit notre incursion destinée à approfondir les connaissances autant sur les paradigmes d’alternance de tâche que les composantes électrophysiologiques typiquement reliées au déploiement de l’attention visuospatiale telles la N2pc ou la Ppc récemment décrite par Corriveau et al. (2012). Afin d’examiner les modulations des composantes électrophysiologiques sus nommées en fonction des coûts d’alternance, un paradigme d’alternance des tâches regroupant des blocs mixtes (avec alternance) et des blocs purs (sans alternance) a été utilisé. Les résultats démontrent un impact du coût d’alternance sur la latence de la N2pc, ce qui reflète comme attendu d’un processus de contrôle cognitif descendant sur la sélection attentionnelle visospatiale. De manière plus surprenante, des modulations de Ppc ont été observées, tandis que cette composante était jusqu’alors comprise comme une composante principalement reliée à une activité ascendante de bas niveau de traitement. Cette modulation de Ppc suggère l'existence d’un autre mécanisme de modulation attentionnelle antérieur à la N2pc.
Resumo:
- Thèse réalisée en cotutelle entre les Université de Montréal et Paris Ouest Nanterre la Défense. -Thèse construite à partir de logiciels libres et gratuits : Ubuntu, Lyx, LibreOffice, Zotero, The Gimp.
Resumo:
Le traumatisme craniocérébral léger (TCCL) a des effets complexes sur plusieurs fonctions cérébrales, dont l’évaluation et le suivi peuvent être difficiles. Les problèmes visuels et les troubles de l’équilibre font partie des plaintes fréquemment rencontrées après un TCCL. En outre, ces problèmes peuvent continuer à affecter les personnes ayant eu un TCCL longtemps après la phase aiguë du traumatisme. Cependant, les évaluations cliniques conventionnelles de la vision et de l’équilibre ne permettent pas, la plupart du temps, d’objectiver ces symptômes, surtout lorsqu’ils s’installent durablement. De plus, il n’existe pas, à notre connaissance, d’étude longitudinale ayant étudié les déficits visuels perceptifs, en tant que tels, ni les troubles de l’équilibre secondaires à un TCCL, chez l’adulte. L’objectif de ce projet était donc de déterminer la nature et la durée des effets d’un tel traumatisme sur la perception visuelle et sur la stabilité posturale, en évaluant des adultes TCCL et contrôles sur une période d’un an. Les mêmes sujets, exactement, ont participé aux deux expériences, qui ont été menées les mêmes jours pour chacun des sujets. L’impact du TCCL sur la perception visuelle de réseaux sinusoïdaux définis par des attributs de premier et de second ordre a d’abord été étudié. Quinze adultes diagnostiqués TCCL ont été évalués 15 jours, 3 mois et 12 mois après leur traumatisme. Quinze adultes contrôles appariés ont été évalués à des périodes identiques. Des temps de réaction (TR) de détection de clignotement et de discrimination de direction de mouvement ont été mesurés. Les niveaux de contraste des stimuli de premier et de second ordre ont été ajustés pour qu’ils aient une visibilité comparable, et les moyennes, médianes, écarts-types (ET) et écarts interquartiles (EIQ) des TR correspondant aux bonnes réponses ont été calculés. Le niveau de symptômes a également été évalué pour le comparer aux données de TR. De façon générale, les TR des TCCL étaient plus longs et plus variables (plus grands ET et EIQ) que ceux des contrôles. De plus, les TR des TCCL étaient plus courts pour les stimuli de premier ordre que pour ceux de second ordre, et plus variables pour les stimuli de premier ordre que pour ceux de second ordre, dans la condition de discrimination de mouvement. Ces observations se sont répétées au cours des trois sessions. Le niveau de symptômes des TCCL était supérieur à celui des participants contrôles, et malgré une amélioration, cet écart est resté significatif sur la période d’un an qui a suivi le traumatisme. La seconde expérience, elle, était destinée à évaluer l’impact du TCCL sur le contrôle postural. Pour cela, nous avons mesuré l’amplitude d’oscillation posturale dans l’axe antéropostérieur et l’instabilité posturale (au moyen de la vitesse quadratique moyenne (VQM) des oscillations posturales) en position debout, les pieds joints, sur une surface ferme, dans cinq conditions différentes : les yeux fermés, et dans un tunnel virtuel tridimensionnel soit statique, soit oscillant de façon sinusoïdale dans la direction antéropostérieure à trois vitesses différentes. Des mesures d’équilibre dérivées de tests cliniques, le Bruininks-Oseretsky Test of Motor Proficiency 2nd edition (BOT-2) et le Balance Error Scoring System (BESS) ont également été utilisées. Les participants diagnostiqués TCCL présentaient une plus grande instabilité posturale (une plus grande VQM des oscillations posturales) que les participants contrôles 2 semaines et 3 mois après le traumatisme, toutes conditions confondues. Ces troubles de l’équilibre secondaires au TCCL n’étaient plus présents un an après le traumatisme. Ces résultats suggèrent également que les déficits affectant les processus d’intégration visuelle mis en évidence dans la première expérience ont pu contribuer aux troubles de l’équilibre secondaires au TCCL. L’amplitude d’oscillation posturale dans l’axe antéropostérieur de même que les mesures dérivées des tests cliniques d’évaluation de l’équilibre (BOT-2 et BESS) ne se sont pas révélées être des mesures sensibles pour quantifier le déficit postural chez les sujets TCCL. L’association des mesures de TR à la perception des propriétés spécifiques des stimuli s’est révélée être à la fois une méthode de mesure particulièrement sensible aux anomalies visuomotrices secondaires à un TCCL, et un outil précis d’investigation des mécanismes sous-jacents à ces anomalies qui surviennent lorsque le cerveau est exposé à un traumatisme léger. De la même façon, les mesures d’instabilité posturale se sont révélées suffisamment sensibles pour permettre de mesurer les troubles de l’équilibre secondaires à un TCCL. Ainsi, le développement de tests de dépistage basés sur ces résultats et destinés à l’évaluation du TCCL dès ses premières étapes apparaît particulièrement intéressant. Il semble également primordial d’examiner les relations entre de tels déficits et la réalisation d’activités de la vie quotidienne, telles que les activités scolaires, professionnelles ou sportives, pour déterminer les impacts fonctionnels que peuvent avoir ces troubles des fonctions visuomotrice et du contrôle de l’équilibre.
Resumo:
Le cannabis produit de nombreux effets psychologiques et physiologiques sur le corps humain. Les molécules contenues dans cette plante, désignées comme « phytocannabinoïdes », activent un système endogène qu’on appelle le système endocannabinoïde (eCB). Les effets de la consommation de cannabis sur la vision ont déjà été décrits sans cependant de formulation sur les mécanismes sous-jacents. Ces résultats comportementaux suggèrent, malgré tout, la présence de ce système eCB dans le système visuel, et particulièrement dans la rétine. Cette thèse vise donc à caractériser l’expression, la localisation et le rôle du système eCB dans la rétine du singe vervet, une espèce animale ayant un système visuel semblable à celui de l’humain. Nous avons mis au point un protocole expérimental d’immunohistochimie décrit dans l’article apparaissant dans l’Annexe I que nous avons utilisé pour répondre à notre objectif principal. Dans une première série de quatre articles, nous avons ainsi caractérisé l’expression et la localisation de deux récepteurs eCBs reconnus, les récepteurs cannabinoïdes de type 1 (CB1R) et de type 2 (CB2R), et d’un 3e présumé récepteur aux cannabinoïdes, le récepteur GPR55. Dans l’article 1, nous avons démontré que CB1R et une enzyme clé de ce système, la fatty acid amide hydrolase (FAAH), sont exprimés dans les parties centrale et périphérique de la rétine, et abondamment présents dans la fovéa, une région où l’acuité visuelle est maximale. Dans l’article 2, nous avons localisé le CB2R dans des cellules gliales de la rétine : les cellules de Müller et nous avons proposé un modèle sur l’action de cette protéine dans la fonction rétinienne faisant appel à une cascade chimique impliquant les canaux potassiques. Dans l’article 3, nous avons observé le GPR55 exclusivement dans les bâtonnets qui sont responsables de la vision scotopique et nous avons soumis un deuxième modèle de fonctionnement de ce récepteur par le biais d'une modulation des canaux calciques et sodiques des bâtonnets. Vu que ces 3 récepteurs se retrouvent dans des cellules distinctes, nous avons suggéré leur rôle primordial dans l’analyse de l’information visuelle au niveau rétinien. Dans l’article 4, nous avons effectué une analyse comparative de l’expression du système eCB dans la rétine de souris, de toupayes (petits mammifères insectivores qui sont sont considérés comme l’étape intermédiaire entre les rongeurs et les primates) et de deux espèces de singe (le vervet et le rhésus). Ces résultats nous ont menés à présenter une hypothèse évolutionniste quant à l’apparition et à la fonction précise de ces récepteurs. Dans les articles subséquents, nous avons confirmé notre hypothèse sur le rôle spécifique de ces trois récepteurs par l’utilisation de l’électrorétinographie (ERG) après injection intravitréenne d’agonistes et d’antagonistes de ces récepteurs. Nous avons conclu sur leur influence indéniable dans le processus visuel rétinien chez le primate. Dans l’article 5, nous avons établi le protocole d’enregistrement ERG normalisé sur le singe vervet, et nous avons produit un atlas d’ondes ERG spécifique à cette espèce, selon les règles de l’International Society for Clinical Electrophysiology of Vision (ISCEV). Les patrons électrorétinographiques se sont avérés semblables à ceux de l’humain et ont confirmé la similarité entre ces deux espèces. Dans l’article 6, nous avons démontré que le blocage de CB1R ou CB2R entraine une modification de l’électrorétinogramme, tant au niveau photopique que scotopique, ce qui supporte l’implication de ces récepteurs dans la modulation des ondes de l’ERG. Finalement, dans l’article 7, nous avons confirmé le modèle neurochimique proposé dans l’article 3 pour expliquer le rôle fonctionnel de GPR55, en montrant que l’activation ou le blocage de ce récepteur, respectivement par un agoniste (lysophosphatidylglucoside, LPG) ou un antagoniste (CID16020046), entraine soit une augmentation ou une baisse significative de l’ERG scotopique seulement. Ces données, prises ensemble, démontrent que les récepteurs CB1R, CB2R et GPR55 sont exprimés dans des types cellulaires bien distincts de la rétine du singe et ont chacun un rôle spécifique. L’importance de notre travail se manifeste aussi par des applications cliniques en permettant le développement de cibles pharmacologiques potentielles dans le traitement des maladies de la rétine.
Resumo:
Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.
Resumo:
Neuropeptid Y (NPY) ist ein potenter Neurotransmitter im zentralen und peripheren Nervensystem der Mammalia. Es ist an der Regulation einer Vielzahl von physiologischen Prozessen beteiligt und scheint auch im retino-tectalen Transfer des visuellen Systems von Anuren eine zentrale Funktion einzunehmen. Die Retina bildet die erste Funktionseinheit bei der Verarbeitung visuellen Inputs. Für die Weiterverarbeitung sind primär das Tectum opticum (TO) und das Praetectum verantwortlich. Es gilt als wahrscheinlich, dass der praetecto-tectale Transfer durch NPY inhibitorisch moduliert wird und damit wesentlichen Einfluss auf die visuelle Mustererkennung und die Dämpfung der tectalen Erregungsausbreitung hat. Die Applikation von NPY auf die Tectumoberfläche schwächt die anfängliche Erregungswelle visuell evozierter Feldpotenziale stark ab und NPY könnte somit Einfluss auf die Axonendknoten retinaler Ganglienzellen des Typs R2, R3 und auch R4 haben. Es können jedoch keine detaillierten Aussagen gemacht werden welche Neuronen in welchem Umfang daran beteiligt sind. Im Rahmen meiner Arbeit, sollte der Einfluss von NPY auf die Spike-Amplitude und die Spike-Rate retinaler Ganglienzellen R2 und R3 bei Bombina orientalis analysiert werden, da diese den größten Input bei der visuellen Mustererkennung liefern und unterschiedliche Funktionen in diesem neuronalen Netzwerk haben. Hierzu wurden visuell evozierte Aktionspotenziale von R2 und R3 Neuronen im TO von Bombina orientalis abgeleitet und mit Hilfe der Analysesoftware Spike 2 bearbeitet und analysiert. Es konnte nachgewiesen werden, dass die Spike-Amplituden der R2 Neuronen 20 min nach NPY Applikation auf die Tectumoberfläche reduziert werden. Nach einer Erholungsphase 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Amplituden gemessen werden, 20 min nach Beenden der NPY-Applikation kam es zu einem Abfall der Spike-Amplituden dessen Ursache unbekannt ist. Ob es ein Artefakt ist oder ob es sich hierbei um einen spezifischen Effekt von R2 Neuronen handelt muss noch geklärt werden. Die Spike-Amplituden der R3 Neuronen waren bereits 10 min nach NPY-Applikation reduziert, ein weitere Abfall der Spike-Amplituden konnte nicht verzeichnet werden. 10 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Amplituden verzeichnet werden, der sich stetig fortsetzte. Bei beiden Neuronentypen wurden 20 min nach Beenden der NPY-Applikation Spike-Amplituden nahe der Ausgangsamplitudenhöhe gemessen. Aufgrund des Verlaufes der R3 Neuronen ist davon auszugehen, dass die Feldpotenziale eher durch R3 Neuronen als durch R2 Neuronen beeinflusst werden, da er dem der Feldpotenziale gleicht. Auch bei der Untersuchung der Spike-Raten konnte eine Beeinflussung durch NPY nachgewiesen werden. Die R2 Neuronen zeigten 10 min nach NPY-Applikation einen Abfall der Spike-Raten der sich nach 20 min weiter fortsetzte. 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Raten verzeichnet werden der sich stetig fortsetzte, die Werte blieben jedoch deutlich unter den gemessenen Ausgangswerten ohne eine NPY-Beeinflussung. Bei den R3 Neuronen konnte ein Abfall der Spike-Raten deutlich zeitverzögert nachgewiesen werden. 20 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Rate verzeichnet werden, jedoch gab es keine signifikanten Unterschiede der Spike-Raten zu den Werten ohne NPY-Beeinflussung. Der Vergleich der R2 und R3 Neuronen zeigt, dass bei den der R2 Neuronen ein schnellerer Effekt von NPY nachweisbar ist als die den R3 Neuronen. Aufgrund der von mir nachgewiesene NPY-induzierte Spike-Amplitudenabnahme retinaler R2 und R3 Neuronen muss davon ausgegangen werden, dass die Reduktion der Feldpotential durch NPY eher auf den Einfluss anderer Neuronen als R2 und R3 Neuronen zurückzuführen ist. Weder bei den R2 noch bei den R3 Neuronen konnte eine so schnelle und so starke Beeinflussung der Spike- Amplituden verzeichnet werden. Weiterhin zeigen meine Ergebnisse neuronale Bestätigung der von Funke 2005 beschrieben geringeren Strahlungsintensität sowie der geringeren Glukosemetabolisierung bei der 14C-2-Desoxyglukose Technik. Dies ist in der Form nur auf den Einfluss von R2 und R3 Neuronen zurückzuführen. Die von mir erzielten Ergebnisse stützen die Hypothese, dass NPY den retino-tectalen Signaltransfer inhibitorisch steuert einhergehend mit einer reduzierten Ausschüttung des praetectotectalen Transmitters Glutamat und weisen darauf hin, dass NPY über zwei verschiedene second-messenger vermittelte Prozesse diesen Signaltransfer steuert. Interessant ist in diesem Zusammenhang, dass diese nachhaltige Beeinflussung der visuellen Informationsverarbeitung durch NPY bei Bombina orientalis einem phylogenetisch basalen Vertreter der Anuren nachgewiesen werden konnte. Dies lässt den Schluss zu, dass solche grundlegenden neurochemischen Effekte des retino-tectalen Informationsgefüges evolutionär konserviert sind.
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.
Resumo:
Überblick über die Arbeit: "Die Notwendigkeit deutscher Kinderfernseh- und -filmproduktion ist unbestritten. Sie sind die Voraussetzung dafür, dass Kinder im Fernsehen ihre eigene Lebenswirklichkeit wiederfinden und zur Reflexion dieser Wirklichkeit angeregt werden."(Rosenbaum 2000) Kinderfernsehexperten wie Uwe Rosenbaum (Landessenderdirektor des Südwestrundfunks Rheinland-Pfalz) oder Armin Maiwald (Geschäftsführer der Flash Filmstudio GmbH, Produzent und Regisseur vieler Sachgeschichten der Sendung mit der Maus) vertreten die Meinung, dass in Deutschland mehr Kinderprogramm mit Kindern produziert werden müsse, die in Deutschland wohnen. Sie sind dabei auch der Meinung, Realprogramm sei qualitativ hochwertiger und damit für Kinder besser, als einseitiges, triviales Zeichentrickprogramm. Der Teil 1 greift diesen Diskurs auf und beschreibt ihn. Einen Beitrag zu diesem Diskurs möchte die Frageleisten, welche Darstellungsformen von Welt vom expliziten Kinderfernsehen angeboten werden und welche davon Kinder bevorzugen. Das Material einer systematischen Fernsehprogrammanalyse, die von den Nutzungspräferenzen der Kinder ausgeht, kann dabei helfen. Dabei konzentriere ich mich auf die zwei Aspekte "Animation" und "real", da der Diskurs Realfilm als qualitativ hochwertig ansieht und Animation in dieser Hinsicht das genaue Gegenteil darstellt. Dabei ist ein zentrales Ergebnis der Analyse, dass sich die Nutzungspräferenzen der Jungen und Mädchen in bezug auf realitätsnahes Programm sehr unterscheiden: Jungen sehen eher Zeichentrickprogramm und Mädchen sehen eher Realformate wie z.B. Soap-Operas. Das legt nahe, die Diskussion um Realitätsnähe im Kinderfernsehen aus geschlechterspezifischer Sicht zu betrachten und die Fragestellung der Arbeit dahingehend neu zu formulieren. Der zweite Teil der Arbeit sortiert zunächst die Begriffe "Realitätsnähe", "Realfilm" und "Zeichentrick", die im ersten Teil eingeführt wurden und trennt sie von einander. Die "Jährliche Bestandsaufnahme zum Kinderfernsehen - qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder" dient dazu, im Kinderfernsehen die Spuren des Diskurses wieder zu finden. Die systematische Suche nach solchen Programmen macht es nötig, mit Hilfe operationalisierter Begriffe, Fernsehprogramm zu kodieren. Dabei bieten sich bereits vorhandene Kodes zur Realitätsnähe an. Für die Auswertung sind zudem auch Zugänge über weitere Kodes wie z.B. Information/ Unterhaltung oder Fiction/ Non-Fiction möglich. Die Ansätze in Teil 1 und 2 waren bis dahin umgangssprachliche Formulierungen, deshalb folgt im dritten Teil der Arbeit ein Exkurs in die Theorie, um den Begriff der Realitätsnähe im Fernsehen theoretisch zu begründen und um Realfilm und Animation theoretisch zu beschreiben. Zwei Themenfelder sind hierbei wesentlich: Das erste Themenfeld behandelt die Wirklichkeitskonstruktion im Fernsehen mit den Autoren Alfred Schütz, Thomas Luckmann und Jürgen Fritz. Das Wesentliche in diesem Abschnitt ist der Versuch Realfilm und Zeichentrick als geschlossene Sinngebiete wie "reale Welt" und "Spielwelt" zu verstehen, da geschlossenen Sinngebieten spezifische, eigene Erlebnis- und Erkenntnisstile zugrunde liegen. Fazit dieser Überlegung ist, dass Realfilm und Zeichentrick einander nicht über- oder untergeordnet sind, sondern formal nebeneinander mit unterschiedlichen Erkenntnis- und Erlebnisstilen in Erscheinung treten, bzw. in ihnen unterschiedliche Erlebnis- und Erkenntnisstile angelegt sind. Das zweite Themenfeld widmet sich der von David Buckingham so genannten "Perceived Reality", die nach der Wahrnehmung der Kinder von Wirklichkeit im Fernsehen fragt. Dabei geht es um die Frage, wie Kinder die Realität des Fernsehens beurteilen. Ein Fazit ist hierbei, dass Kinder an Fernsehsendungen keine allgemeingültige Messlatte anlegen, um die Realitätsnähe zu bestimmen, sondern Kinder handeln die Realitätsnähe von Sendungen und deren Bewertung in sozialen Kontexten mit Peers und Erwachsenen je nach Situation aus. Der vierte Teil der Arbeit wertet die Kodierung aus dem zweiten Teil aus und präsentiert Ergebnisse. In diesem Teil werden verschiedene Auswertungsverfahren ausprobiert, um Muster in der Rezeption und im Ein- und Ausschaltverhalten der Kinder in bezug auf Realitätsnähe zu finden. Nachdem Überblick über das Angebot an realitätsnahem Kinderfernsehprogramm, folgt die Auswertung der Nutzung des Kinderprogramms. Hierbei steht die Frage im Vordergrund, in welchem Ausmaß Kinder realitätsnahe Programme nutzen und welche geschlechterspezifischen Unterschiede es in der Nutzung Formate "Animation" und "real" gibt. Im Groben werden in diesem Kapitel zahlreiche Listen präsentiert, Sendungen beschrieben und vor allem unterschiedliche Altersgruppen sowie Geschlechter berücksichtigt. Eines der auffälligsten Merkmale wird sein, dass Jungen in Bezug auf die eingangs eröffneten Begriffe andere Präferenzen und Fernsehnutzungsmuster zeigen als Mädchen. Im Gegensatz zu Mädchen sehen die Jungen eher weniger Realprogramm und eher mehr Animationsprogramm. Kinder im Fernsehen stehen stellvertretend für Muster und Typen von Kindern der realen Welt. Das legitimiert anhand der Typologie der Kinder nach Freizeitmustern , nach diesen Kindertypen im Fernsehen und bei den Zuschauern zu suchen. Ein Ergebnis bestätigte die Beobchtung, dass Mädchen neben Realprogramm auch Zeichentrick sehen, und Jungen nur Zeichentrick. Anhand der bis dort gewonnenen Ergebnisse und zweier Beispiele aus dem Schulalltag folgt abschließend in Teil 5 ein pädagogisches Fazit. Der Umgang von Jungen mit Medien wird häufig problematisiert und so wie es sich in den Ergebnissen dieser und anderer Arbeiten wie der PISA2000-Studie oder in der Typologie der Freizeitmuster darstellt, könnte man durchaus den Eindruck gewinnen, dass Jungen eine schwierige Beziehung zu Medien haben. Deshalb muss man sich vermutlich zunächst eingestehen, dass Jungen eher Zeichentrick und Mädchen eher Soaps gucken, um danach Jungen emphatisch in Bezug auf ihre Mediennutzungsmuster zu begegnen und ihre Vorlieben nicht zu trivialisieren oder zu verurteilen. Das hat pädagogische Bedeutung für die Schule, wie die beiden Beispiele zeigen.
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.