854 resultados para gaps in perception


Relevância:

90.00% 90.00%

Publicador:

Resumo:

The present dissertation aims at analyzing the construction of American adolescent culture through teen-targeted television series and the shift in perception that occurs as a consequence of the translation process. In light of the recent changes in television production and consumption modes, largely caused by new technologies, this project explores the evolution of Italian audiences, focusing on fansubbing (freely distributed amateur subtitles made by fans for fan consumption) and social viewing (the re-aggregation of television consumption based on social networks and dedicated platforms, rather than on physical presence). These phenomena are symptoms of a sort of ‘viewership 2.0’ and of a new type of active viewing, which calls for a revision of traditional AVT strategies. Using a framework that combines television studies, new media studies, and fandom studies with an approach to AVT based on Descriptive Translation Studies (Toury 1995), this dissertation analyzes the non-Anglophone audience’s growing need to participation in the global dialogue and appropriation process based on US scheduling and informed by the new paradigm of convergence culture, transmedia storytelling, and affective economics (Jenkins 2006 and 2007), as well as the constraints intrinsic to multimodal translation and the different types of linguistic and cultural adaptation performed through dubbing (which tends to be more domesticating; Venuti 1995) and fansubbing (typically more foreignizing). The study analyzes a selection of episodes from six of the most popular teen television series between 1990 and 2013, which has been divided into three ages based on the different modes of television consumption: top-down, pre-Internet consumption (Beverly Hills, 90210, 1990 – 2000), emergence of audience participation (Buffy the Vampire Slayer, 1997 – 2003; Dawson’s Creek, 1998 – 2003), age of convergence and Viewership 2.0 (Gossip Girl, 2007 – 2012; Glee, 2009 – present; The Big Bang Theory, 2007 - present).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden die durch Training induzierten motorischen Gedächtnisleistungen der Taufliege Drosophila melanogaster beim Überklettern von acht symmetrisch verteilten Lücken auf einem rotierenden Ring untersucht. Durch den auf sie einwirkenden optischen Fluss der vorbeiziehenden äußeren Umgebung wurden die Fliegen angeregt, diesem optomotorischen Reiz entgegenzuwirken und die Lücken laufend zu überqueren. Durch Training verbessert und langfristig gelernt wird die kompensatorische Lückenüberquerung X+ gegen die Rotation. In der aus diesem Training erhaltenen Lernkurve war eine überdurchschnittlich hohe Leistungsverbesserung nach einem einzigen Trainingslauf mit einem zeitlichen Bestand von ca. 40 Minuten abzulesen, um danach vom motorischen Gedächtnisspeicher trainierter Fliegen nicht mehr abgerufen werden zu können. Nach einer Ruhephase von einem bis mehreren Tagen wurden die Fliegen auf mögliche Langzeitlernleistungen untersucht und diese für verschiedene Intervalle nachgewiesen. Sowohl die Leistungsverbesserung während des Trainings, als auch der Lerneffekt nach 24h bleiben in mutanten rutabaga2080 sowie rut1 Fliegen aus. Betroffen ist das Gen der Adenylylzyklase I, ein Schlüsselprotein der cAMP-Signalkaskade, die u.a. im olfaktorischen und visuellen Lernen gebraucht wird. Damit ergab sich die Möglichkeit die motorischen Gedächtnisformen durch partielle Rettung zu kartieren. Die motorische Gedächtniskonsolidierung ist schlafabhängig. Wie sich herausstellte, benötigen WTB Fliegen nur eine Dunkelphase von 10h zwischen einem ersten Trainingslauf und einem Testlauf um signifikante Leistungssteigerungen zu erzielen. In weiterführenden Versuchen wurden die Fliegen nachts sowie tagsüber mit einer LED-Lampe oder in einer Dunkelkammer, mit einem Kreisschüttler oder einer Laborwippe depriviert, mit dem Ergebnis, dass nur jene Fliegen ihre Leistung signifikant gegenüber einem ersten Trainingslauf verbessern konnten, welche entweder ausschließlich der Dunkelheit ausgesetzt waren oder welchen die Möglichkeit gegeben wurde, ein Gedächtnis zunächst in einer natürlichen Schlafphase zu konsolidieren (21Uhr bis 7Uhr MEZ). In weiteren Experimenten wurden die experimentellen Bedingungen entweder während des Trainings oder des Tests auf eine Fliege und damit verbunden auf eine erst durch das Training mögliche motorische Gedächtniskonsolidierung einwirken zu können, untersucht. Dazu wurden die Experimentparameter Lückenweite, Rotationsrichtung des Lückenringes, Geschwindigkeit des Lückenringes sowie die Verteilung der acht Lücken auf dem Ring (symmetrisch, asymmetrisch) im Training oder beim Gedächtnisabruf im Testlauf verändert. Aus den Ergebnissen kann geschlussfolgert werden, dass die Lückenweite langzeitkonsolidiert wird, die Rotationsrichtung kurzzeitig abgespeichert wird und die Drehgeschwindigkeit motivierend auf die Fliegen wirkt. Die symmetrische Verteilung der Lücken auf dem Ring dient der Langzeitkonsolidierung und ist als Trainingseingang von hoher Wichtigkeit. Mit Hilfe verschiedener Paradigmen konnten die Leistungsverbesserungen der Fliegen bei Abruf eines Kurz- bzw. Langzeitgedächtnisses hochauflösend betrachtet werden (Transfer). Die Konzentration, mit der eine WTB Fliege eine motorische Aufgabe - die Überquerung von Lücken entgegengesetzt der Rotationsrichtung - durchführt, konnte mit Hilfe von Distraktoreizen bestimmt werden. Wie sich herausstellte, haben Distraktoren einen Einfluss auf die Erfolgsquote einer Überquerung, d.h. mit zunehmender Distraktionsstärke nahm die Wahrscheinlichkeit einer Lückenüberquerung ab. Die Ablenkungsreize wirkten sich weiterhin auf die Vermessung einer Lücke aus, in dem entweder "peering"-artigen Bewegungen im Training durchgeführt wurden oder je nach Reizstärke ausschließlich nur jene Lücken vermessen wurden, welche auch überquert werden sollten.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Für das Vermögen der Atmosphäre sich selbst zu reinigen spielen Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2) eine bedeutende Rolle. Diese Spurengase bestimmen die photochemische Produktion von Ozon (O3) und beeinflussen das Vorkommen von Hydroxyl- (OH) und Nitrat-Radikalen (NO3). Wenn tagsüber ausreichend Solarstrahlung und Ozon vorherrschen, stehen NO und NO2 in einem schnellen photochemischen Gleichgewicht, dem „Photostationären Gleichgewichtszustand“ (engl.: photostationary state). Die Summe von NO und NO2 wird deshalb als NOx zusammengefasst. Vorhergehende Studien zum photostationären Gleichgewichtszustand von NOx umfassen Messungen an unterschiedlichsten Orten, angefangen bei Städten (geprägt von starken Luftverschmutzungen), bis hin zu abgeschiedenen Regionen (geprägt von geringeren Luftverschmutzungen). Während der photochemische Kreislauf von NO und NO2 unter Bedingungen erhöhter NOx-Konzentrationen grundlegend verstanden ist, gibt es in ländlicheren und entlegenen Regionen, welche geprägt sind von niedrigeren NOx-Konzetrationen, signifikante Lücken im Verständnis der zugrundeliegenden Zyklierungsprozesse. Diese Lücken könnten durch messtechnische NO2-Interferenzen bedingt sein - insbesondere bei indirekten Nachweismethoden, welche von Artefakten beeinflusst sein können. Bei sehr niedrigen NOx-Konzentrationen und wenn messtechnische NO2-Interferenzen ausgeschlossen werden können, wird häufig geschlussfolgert, dass diese Verständnislücken mit der Existenz eines „unbekannten Oxidationsmittels“ (engl.: unknown oxidant) verknüpft ist. Im Rahmen dieser Arbeit wird der photostationäre Gleichgewichtszustand von NOx analysiert, mit dem Ziel die potenzielle Existenz bislang unbekannter Prozesse zu untersuchen. Ein Gasanalysator für die direkte Messung von atmosphärischem NO¬2 mittels laserinduzierter Fluoreszenzmesstechnik (engl. LIF – laser induced fluorescence), GANDALF, wurde neu entwickelt und während der Messkampagne PARADE 2011 erstmals für Feldmessungen eingesetzt. Die Messungen im Rahmen von PARADE wurden im Sommer 2011 in einem ländlich geprägten Gebiet in Deutschland durchgeführt. Umfangreiche NO2-Messungen unter Verwendung unterschiedlicher Messtechniken (DOAS, CLD und CRD) ermöglichten einen ausführlichen und erfolgreichen Vergleich von GANDALF mit den übrigen NO2-Messtechniken. Weitere relevante Spurengase und meteorologische Parameter wurden gemessen, um den photostationären Zustand von NOx, basierend auf den NO2-Messungen mit GANDALF in dieser Umgebung zu untersuchen. Während PARADE wurden moderate NOx Mischungsverhältnisse an der Messstelle beobachtet (10^2 - 10^4 pptv). Mischungsverhältnisse biogener flüchtige Kohlenwasserstoffverbindungen (BVOC, engl.: biogenic volatile organic compounds) aus dem umgebenden Wald (hauptsächlich Nadelwald) lagen in der Größenordnung 10^2 pptv vor. Die Charakteristiken des photostationären Gleichgewichtszustandes von NOx bei niedrigen NOx-Mischungsverhältnissen (10 - 10^3 pptv) wurde für eine weitere Messstelle in einem borealen Waldgebiet während der Messkampagne HUMPPA-COPEC 2010 untersucht. HUMPPA–COPEC–2010 wurde im Sommer 2010 in der SMEARII-Station in Hyytiälä, Süd-Finnland, durchgeführt. Die charakteristischen Eigenschaften des photostationären Gleichgewichtszustandes von NOx in den beiden Waldgebieten werden in dieser Arbeit verglichen. Des Weiteren ermöglicht der umfangreiche Datensatz - dieser beinhaltet Messungen von relevanten Spurengasen für die Radikalchemie (OH, HO2), sowie der totalen OH-Reaktivität – das aktuelle Verständnis bezüglich der NOx-Photochemie unter Verwendung von einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, zu überprüfen und zu verbessern. Während NOx-Konzentrationen in HUMPPA-COPEC 2010 niedriger sind, im Vergleich zu PARADE 2011 und BVOC-Konzentrationen höher, sind die Zyklierungsprozesse von NO und NO2 in beiden Fällen grundlegend verstanden. Die Analyse des photostationären Gleichgewichtszustandes von NOx für die beiden stark unterschiedlichen Messstandorte zeigt auf, dass potenziell unbekannte Prozesse in keinem der beiden Fälle vorhanden sind. Die aktuelle Darstellung der NOx-Chemie wurde für HUMPPA-COPEC 2010 unter Verwendung des chemischen Mechanismus MIM3* simuliert. Die Ergebnisse der Simulation sind konsistent mit den Berechnungen basierend auf dem photostationären Gleichgewichtszustand von NOx.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Systematic reviews are not an assembly of anecdotes but a distillation of current best available evidence on a particular topic and as such have an important role to play in evidence-based healthcare. A substantial proportion of these systematic reviews focus on interventions, and are able to provide clinicians with the opportunity to understand and translate the best available evidence on the effects of these healthcare interventions into clinical practice. The importance of systematic reviews in summarising and identifying the gaps in evidence which might inform new research initiatives is also widely acknowledged. Their potential impact on practice and research makes their methodological quality especially important as it may directly influence their utility for clinicians, patients and policy makers. The objectives of this study were to identify systematic reviews of oral healthcare interventions published in the Journal of Applied Oral Science (JAOS) and to evaluate their methodological quality using the evaluation tool, AMSTAR.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In order to fill existing knowledge gaps in the temporal and spatial distribution of soil erosion, its sources and causes, as well as in relation to its off-site impacts, erosion damage mapping of all visible erosion features was carried out at three study sites in Switzerland. The data illustrate that about one-quarter of the cultivated land was affected by water erosion. Observed mean annual soil loss rates are considered rather low (0.7–2.3 t/ha/y) compared to other European countries. However, substantial losses of >70 t/ha were recorded on individual plots. This paper focuses on the spatial aspects of soil erosion, by observing and comparing the study areas in a 1-year period from October 2005 to October 2006. The analyses illustrate that the sites differ considerably in average soil loss rates, but show similar patterns of off-site effects. In about one-third of the damaged plots an external source of surface runoff upslope contributed to the damage (run-on). Similarly, more than 50 per cent of the soil eroded on arable land deposited downslope on adjacent plots, roads, public/private infrastructure, etc., and 20 per cent of it reached open water bodies. Large amounts of eroded soil which deposit off-site, often related to slope depressions, are considered muddy floods and were frequently observed in Switzerland. Mapping, in conclusion, helps to sheds light on some of the important challenges of today, in particular: to comprehensively assess socioeconomic and ecological off-site effects of soil erosion, to attribute off-site impacts to on-site causes, and to raise awareness of all stakeholders involved, in order to improve ongoing discussions on policy formulation and implementation at the national and international levels.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Peripheral arterial occlusive disease (PAOD) is a manifestation of systemic atherosclerosis strongly associated with a high risk of cardiovascular morbidity and mortality. In a considerable proportion of patients with PAOD, revascularization either by endovascular means or by open surgery combined with best possible risk factor modification does not achieve limb salvage or relief of ischaemic rest pain. As a consequence, novel therapeutic strategies have been developed over the last two decades aiming to promote neovascularization and remodelling of collaterals. Gene and stem cell therapy are the main directions for clinical investigation concepts. For both, preclinical studies have shown promising results using a wide variety of genes encoding for growth factors and populations of adult stem cells, respectively. As a consequence, clinical trials have been performed applying gene and stem cell-based concepts. However, it has become apparent that a straightforward translation into humans is not possible. While several trials reported relief of symptoms and functional improvement, other trials did not confirm this early promise of efficacy. Ongoing clinical trials with an improved study design are needed to confirm the potential that gene and cell therapy may have and to prevent the gaps in our scientific knowledge that will jeopardize the establishment of angiogenic therapy as an additional medical treatment of PAOD. This review summarizes the experimental background and presents the current status of clinical applications and future perspectives of the therapeutic use of gene and cell therapy strategies for PAOD.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

After teaching regular education secondary mathematics for seven years, I accepted a position in an alternative education high school. Over the next four years, the State of Michigan adopted new graduation requirements phasing in a mandate for all students to complete Geometry and Algebra 2 courses. Since many of my students were already struggling in Algebra 1, getting them through Geometry and Algebra 2 seemed like a daunting task. To better instruct my students, I wanted to know how other teachers in similar situations were addressing the new High School Content Expectations (HSCEs) in upper level mathematics. This study examines how thoroughly alternative education teachers in Michigan are addressing the HSCEs in their courses, what approaches they have found most effective, and what issues are preventing teachers and schools from successfully implementing the HSCEs. Twenty-six alternative high school educators completed an online survey that included a variety of questions regarding school characteristics, curriculum alignment, implementation approaches and issues. Follow-up phone interviews were conducted with four of these participants. The survey responses were used to categorize schools as successful, unsuccessful, and neutral schools in terms of meeting the HSCEs. Responses from schools in each category were compared to identify common approaches and issues among them and to identify significant differences between school groups. Data analysis showed that successful schools taught more of the HSCEs through a variety of instructional approaches, with an emphasis on varying the ways students learned the material. Individualized instruction was frequently mentioned by successful schools and was strikingly absent from unsuccessful school responses. The main obstacle to successful implementation of the HSCEs identified in the study was gaps in student knowledge. This caused pace of instruction to also be a significant issue. School representatives were fairly united against the belief that the Algebra 2 graduation requirement was appropriate for all alternative education students. Possible implications of these findings are discussed.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ethylene has myriad roles as a plant hormone, ranging from senescence and defending against pathogen attacks to fruit ripening and interactions with other hormones. It has been shown to increase cambial activity in poplar, but the effect on wood formation in Arabidopsis hypocotyl has not previously been studied. The Auxin-Regulated Gene involved in Organ Size (ARGOS), which increases organ size by lengthening the time for cell division, was found to be upregulated by ethylene. We tested the effect of ethylene treatment at 10 and 100 µM ACC on three genotypes of Arabidopsis, Col0 (wild-type), an ARGOS deficient mutant (argos), and ein3-1, an ethylene insensitive mutant. ARGOS expression analysis with qPCR indicated that ACC does induce ARGOS and ARGOS-LIKE (ARL) in the hypocotyl. As seen in poplar, ethylene also decreases stem elongation.Histochemical staining, showed that ethylene changes the way secondary xylem lignifies, causing gaps in lignification around the outer edge of secondary xylem. Our results also implied that ethylene treatment changes the proportion of secondary to total xylem, resulting in less secondary, whereas in poplar, ethylene treatment caused an increase.

Relevância:

90.00% 90.00%

Publicador:

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The variability of toxicity data contained within databases was investigated using the widely used US EPA ECOTOX database as an example. Fish acute lethality (LC50) values for 44 compounds (for which at least 10 data entries existed) were extracted from the ECOTOX database yielding a total of 4654 test records. Significant variability of LC50 test results was observed, exceeding several orders of magnitude. In an attempt to systematically explore potential causes of the data variability, the influence of biological factors (such as test species or life stages) and physical factors (such as water temperature, pH or water hardness) were examined. Even after eliminating the influence of these inherent factors, considerable data variability remained, suggesting an important role of factors relating to technical and measurement procedures. The analysis, however, was limited by pronounced gaps in the test documentation. Of the 4654 extracted test reports, 66.5% provided no information on the fish life stage used for testing. Likewise, water temperature, hardness or pH were not recorded in 19.6%, 48.2% and 41.2% of the data entries, respectively. From these findings, we recommend the rigorous control of data entries ensuring complete recording of testing conditions. A more consistent database will help to better discriminate between technical and natural variability of the test data, which is of importance in ecological risk assessment for extrapolation from laboratory tests to the field, and also might help to develop correction factors that account for systematic differences in test results caused by species, life stage or test conditions.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Applying location-focused data protection law within the context of a location-agnostic cloud computing framework is fraught with difficulties. While the Proposed EU Data Protection Regulation has introduced a lot of changes to the current data protection framework, the complexities of data processing in the cloud involve various layers and intermediaries of actors that have not been properly addressed. This leaves some gaps in the regulation when analyzed in cloud scenarios. This paper gives a brief overview of the relevant provisions of the regulation that will have an impact on cloud transactions and addresses the missing links. It is hoped that these loopholes will be reconsidered before the final version of the law is passed in order to avoid unintended consequences.