854 resultados para Difficult times


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire est constitué d’une analyse du texte intitulé « Quel doit être le point de départ de la science ? » situé en ouverture de la Science de la logique. Partant de l’affirmation de Hegel selon laquelle le commencement de la Logique est inanalysable et indéfinissable, nous rapprochons la notion de définition de celle de spekulativer Satz et proposons d’étudier le concept de commencement en distinguant une perspective épistémologique d’une perspective ontologique. Cette distinction permettra de mettre en évidence la possibilité de définir le commencement d’une façon positive si l’on tient compte du choix (Entschluss) et de l’ordre qui émergent de l’abandon de la perspective épistémologique. Cette définition s’appuie sur la présence dans le texte d’un registre prescriptif et permet de rendre compte du fait que le commencement doit être à la fois absolu et unilatéral. Si la difficulté posée par cette définition demeure, c’est en raison de la nature même du commencement, où tout manque, même la stabilité d’une définition, sans pour autant que cette instabilité ne soit conforme au mouvement inhérent à la proposition spéculative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Political science is both a generalizing and an anchored, nationally defined, discipline. Too often, the first perspective tends to crowd out the latter, because it appears more prestigious, objective, or scientific. Behind the international/national dichotomy, there are indeed rival conceptions of social science, and important ontological, epistemological and methodological assumptions. This article discusses these assumptions and stresses the critical contribution of idiographic, single-outcome studies, the importance of producing relevant, usable knowledge, and the distinctive implications of studying one’s own country, where a scholar is also a citizen, involved in more encompassing national conversations. The aim is not to reject the generalizing, international perspective, or even the comparative approach, but rather to reaffirm the importance of maintaining as well, and in fact celebrating, the production of social scientific knowledge directly relevant for our own times and places.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid growth of the populous Asian economies provokes profound economic changes and a shift in the balance of power. On the economic front, Asian leaders are confronted with the need to preserve the stability that has underpinned their prosperity, maintain an environment conducive to trade and investments and encourage domestic consumption while avoiding ecological disasters. Internationally, business competition will intensify with the strong presence of Asian manufacturers in global supply chains, growing price competition from Asian firms in domestic markets and global competition for energy, food, minerals and other commodities. Geopolitical concerns stem, in part, from Asia’s global quest for critical resources, conflicting territorial and maritime disputes and increasing military expenditures which affect security dynamics. China’s assertiveness over its periphery prompts an arm’s race in the region and concerns about Sino-American relations even though U.S.-Chinese relations may be less risky than China’s relations with its neighbours. The United States remains a key player in the Asia-Pacific region, with the capacity to alter balances and affect outcomes. Globally, the United States capacity to lead is now diminished and will continue to be so for the foreseeable future. Since no rising power is capable of exercising global leadership, a return to the "old normal" where no one power in geopolitical or economic terms dominates the world is to be expected.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lorsque la guerre européenne éclate en août 1914, les États-Unis adoptent officiellement une position de stricte neutralité. Le pays n’en est pas moins tiraillé de l’intérieur pour autant. Au cours des quelque deux années et demi de neutralité, plusieurs moments forts et thématiques ont redéfini le rapport des États-Unis à la guerre européenne, jusqu’à justifier l’entrée en guerre en avril 1917, et propulsant par le fait même le pays à l’avant de la scène internationale. Cependant, les analyses relatives à la couverture de la guerre par la presse américaine pendant cette période sont pratiquement inexistantes. En se penchant sur les articles en une et les éditoriaux du quotidien The New York Times, il est possible de suivre l’évolution des thématiques liées au conflit et de comparer certains évènements que l’historiographie a ciblés comme étant à l’origine de l’entrée en guerre. Le but est de voir comment le NYT présente le conflit européen, de quelles façons le journal cherche à influencer son lectorat et, surtout, comment il « voit » peu à peu le conflit s’immiscer dans la vie des Américains. Certains thèmes comme le mouvement du preparedness et le traitement de la communauté germano-américaine nous renseignent sur les changements de perception qui s’opèrent dans la couverture du NYT. L’historiographie classique présente le torpillage du paquebot Lusitania le 7 mai 1915 comme le point à l’origine de la rupture officieuse de la neutralité américaine, au profit d’un sentiment proallié. Notre analyse tend à nuancer fortement cette affirmation. D’autres moments-clés et thématiques présentées dans le NYT ont eu plus d’impact sur la neutralité américaine. Nos résultats de recherche questionnent en fait la nature et la temporalité de la « neutralité » américaine. Est-ce réellement, comme le souhaitait au départ le président américain Wilson une « neutralité bienveillante », ou de la poudre aux yeux?

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le traumatisme craniocérébral léger (TCCL) a des effets complexes sur plusieurs fonctions cérébrales, dont l’évaluation et le suivi peuvent être difficiles. Les problèmes visuels et les troubles de l’équilibre font partie des plaintes fréquemment rencontrées après un TCCL. En outre, ces problèmes peuvent continuer à affecter les personnes ayant eu un TCCL longtemps après la phase aiguë du traumatisme. Cependant, les évaluations cliniques conventionnelles de la vision et de l’équilibre ne permettent pas, la plupart du temps, d’objectiver ces symptômes, surtout lorsqu’ils s’installent durablement. De plus, il n’existe pas, à notre connaissance, d’étude longitudinale ayant étudié les déficits visuels perceptifs, en tant que tels, ni les troubles de l’équilibre secondaires à un TCCL, chez l’adulte. L’objectif de ce projet était donc de déterminer la nature et la durée des effets d’un tel traumatisme sur la perception visuelle et sur la stabilité posturale, en évaluant des adultes TCCL et contrôles sur une période d’un an. Les mêmes sujets, exactement, ont participé aux deux expériences, qui ont été menées les mêmes jours pour chacun des sujets. L’impact du TCCL sur la perception visuelle de réseaux sinusoïdaux définis par des attributs de premier et de second ordre a d’abord été étudié. Quinze adultes diagnostiqués TCCL ont été évalués 15 jours, 3 mois et 12 mois après leur traumatisme. Quinze adultes contrôles appariés ont été évalués à des périodes identiques. Des temps de réaction (TR) de détection de clignotement et de discrimination de direction de mouvement ont été mesurés. Les niveaux de contraste des stimuli de premier et de second ordre ont été ajustés pour qu’ils aient une visibilité comparable, et les moyennes, médianes, écarts-types (ET) et écarts interquartiles (EIQ) des TR correspondant aux bonnes réponses ont été calculés. Le niveau de symptômes a également été évalué pour le comparer aux données de TR. De façon générale, les TR des TCCL étaient plus longs et plus variables (plus grands ET et EIQ) que ceux des contrôles. De plus, les TR des TCCL étaient plus courts pour les stimuli de premier ordre que pour ceux de second ordre, et plus variables pour les stimuli de premier ordre que pour ceux de second ordre, dans la condition de discrimination de mouvement. Ces observations se sont répétées au cours des trois sessions. Le niveau de symptômes des TCCL était supérieur à celui des participants contrôles, et malgré une amélioration, cet écart est resté significatif sur la période d’un an qui a suivi le traumatisme. La seconde expérience, elle, était destinée à évaluer l’impact du TCCL sur le contrôle postural. Pour cela, nous avons mesuré l’amplitude d’oscillation posturale dans l’axe antéropostérieur et l’instabilité posturale (au moyen de la vitesse quadratique moyenne (VQM) des oscillations posturales) en position debout, les pieds joints, sur une surface ferme, dans cinq conditions différentes : les yeux fermés, et dans un tunnel virtuel tridimensionnel soit statique, soit oscillant de façon sinusoïdale dans la direction antéropostérieure à trois vitesses différentes. Des mesures d’équilibre dérivées de tests cliniques, le Bruininks-Oseretsky Test of Motor Proficiency 2nd edition (BOT-2) et le Balance Error Scoring System (BESS) ont également été utilisées. Les participants diagnostiqués TCCL présentaient une plus grande instabilité posturale (une plus grande VQM des oscillations posturales) que les participants contrôles 2 semaines et 3 mois après le traumatisme, toutes conditions confondues. Ces troubles de l’équilibre secondaires au TCCL n’étaient plus présents un an après le traumatisme. Ces résultats suggèrent également que les déficits affectant les processus d’intégration visuelle mis en évidence dans la première expérience ont pu contribuer aux troubles de l’équilibre secondaires au TCCL. L’amplitude d’oscillation posturale dans l’axe antéropostérieur de même que les mesures dérivées des tests cliniques d’évaluation de l’équilibre (BOT-2 et BESS) ne se sont pas révélées être des mesures sensibles pour quantifier le déficit postural chez les sujets TCCL. L’association des mesures de TR à la perception des propriétés spécifiques des stimuli s’est révélée être à la fois une méthode de mesure particulièrement sensible aux anomalies visuomotrices secondaires à un TCCL, et un outil précis d’investigation des mécanismes sous-jacents à ces anomalies qui surviennent lorsque le cerveau est exposé à un traumatisme léger. De la même façon, les mesures d’instabilité posturale se sont révélées suffisamment sensibles pour permettre de mesurer les troubles de l’équilibre secondaires à un TCCL. Ainsi, le développement de tests de dépistage basés sur ces résultats et destinés à l’évaluation du TCCL dès ses premières étapes apparaît particulièrement intéressant. Il semble également primordial d’examiner les relations entre de tels déficits et la réalisation d’activités de la vie quotidienne, telles que les activités scolaires, professionnelles ou sportives, pour déterminer les impacts fonctionnels que peuvent avoir ces troubles des fonctions visuomotrice et du contrôle de l’équilibre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The primary aim of the present study is to acquire a large amount of gravity data, to prepare gravity maps and interpret the data in terms of crustal structure below the Bavali shear zone and adjacent regions of northern Kerala. The gravity modeling is basically a tool to obtain knowledge of the subsurface extension of the exposed geological units and their structural relationship with the surroundings. The study is expected to throw light on the nature of the shear zone, crustal configuration below the high-grade granulite terrain and the tectonics operating during geological times in the region. The Bavali shear is manifested in the gravity profiles by a steep gravity gradient. The gravity models indicate that the Bavali shear coincides with steep plane that separates two contrasting crustal densities extending beyond a depth of 30 km possibly down to Moho, justifying it to be a Mantle fault. It is difficult to construct a generalized model of crustal evolution in terms of its varied manifestations using only the gravity data. However, the data constrains several aspects of crustal evolution and provides insights into some of the major events.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The question of stability of black hole was first studied by Regge and Wheeler who investigated linear perturbations of the exterior Schwarzschild spacetime. Further work on this problem led to the study of quasi-normal modes which is believed as a characteristic sound of black holes. Quasi-normal modes (QNMs) describe the damped oscillations under perturbations in the surrounding geometry of a black hole with frequencies and damping times of oscillations entirely fixed by the black hole parameters.In the present work we study the influence of cosmic string on the QNMs of various black hole background spacetimes which are perturbed by a massless Dirac field.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Unit Commitment Problem (UCP) in power system refers to the problem of determining the on/ off status of generating units that minimize the operating cost during a given time horizon. Since various system and generation constraints are to be satisfied while finding the optimum schedule, UCP turns to be a constrained optimization problem in power system scheduling. Numerical solutions developed are limited for small systems and heuristic methodologies find difficulty in handling stochastic cost functions associated with practical systems. This paper models Unit Commitment as a multi stage decision making task and an efficient Reinforcement Learning solution is formulated considering minimum up time /down time constraints. The correctness and efficiency of the developed solutions are verified for standard test systems

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The real-time dynamics of Na_n (n=3-21) cluster multiphoton ionization and fragmentation has been studied in beam experiments applying femtosecond pump-probe techniques in combination with ion and electron spectroscopy. Three dimensional wave packet motions in the trimer Na_3 ground state X and excited state B have been observed. We report the first study of cluster properties (energy, bandwidth and lifetime of intermediate resonances Na_n^*) with femtosecond laser pulses. The observation of four absorption resonances for the cluster Na_8 with different energy widths and different decay patterns is more difficult to interpret by surface plasmon like resonances than by molecular structure and dynamics. Timeresolved fragmentation of cluster ions Na_n^+ indicates that direct photo-induced fragmentation processes are more important at short times than the statistical unimolecular decay.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cubicle should provide good resting comfort as well as clean udders. Dairy cows in cubicle houses often face a restrictive environment with regard to resting behaviour, whereas cleanliness may still be impaired. This study aimed to determine reliable behavioural measures regarding resting comfort applicable in on-farm welfare assessments. Furthermore, relationships between cubicle design, cow sizes, management factors and udder cleanliness (namely teats and teat tips) were investigated. Altogether 15 resting measures were examined in terms of feasibility, inter-observer reliability (IOR) and consistency of results per farm over time. They were recorded during three farm visits on farms in Germany and Austria with cubicle, deep litter and tie stall systems. Seven measures occurred to infrequently to allow reliable recording within a limited observation time. IOR was generally acceptable to excellent except for 'collisions during lying down', which only showed good IOR after improvement of the definition. Only three measures were acceptably repeatable over time: 'duration of lying down', 'percentage of collisions during lying down' and 'percentage of cows lying partly or completely outside lying area'. These measures were evaluated as suitable animal based welfare measures regarding resting behaviour in the framework of an on-farm welfare assessment protocol. The second part of the thesis comprises a cross-sectional study on resting comfort and cow cleanliness including 23 Holstein Friesian dairy herds with very low within-farm variation in cubicle measures. Height at withers, shoulder width and diagonal body length were measured in 79-100 % of the cows (herd size 30 to115 cows). Based on the 25 % largest animals, compliance with recommendations for cubicle measures was calculated. Cleanliness of different body parts, the udder, teats and teat tips was assessed for each cow in the herd prior to morning milking. No significant correlation was found between udder soiling and teat or teat tip soiling on herd level. The final model of a stepwise regression regarding the percentage of dirty teats per farm explained 58.5 % the variance and contained four factors. Teat dipping after milking which might be associated with an overall clean and accurate management style, deep bedded cubicles, increasing cubicle maintenance times and decreasing compliance concerning total cubicle length predicted lower teat soiling. The final model concerning teat tip soiling explained 46.0 % of the variance and contained three factors. Increasing litter height in the rear part of the cubicle and increased alley soiling which is difficult to explain, predicted for less soiled teat tips, whereas increasing compliance concerning resting length was associated with higher percentages of dirty teat tips. The dependent variable ‘duration of lying down’ was analysed using again stepwise regression. The final model explained 54.8 % of the total variance. Lying down duration was significantly shorter in deep bedded cubicles. Further explanatory though not significant factors in the model were neck-rail height, deep bedding or comfort mattresses versus concrete floor or rubber mats and clearance height of side partitions. In the attempt to create a more comprehensive lying down measure, another analysis was carried out with percentage of ‘impaired lying down’ (i.e. events exceeding 6.3 seconds, with collisions or being interrupted) as dependent variable. The explanatory value of this final model was 41.3 %. An increase in partition length, in compliance concerning cubicle width and the presence of straw within bedding predicted a lower proportion of impaired lying down. The effect of partition length is difficult to interpret, but partition length and height were positively correlated on the study farms, possibly leading to a bigger zone of clear space for pelvis freedom. No associations could be found between impaired lying down and teat or teat tip soiling. Altogether, in agreement with earlier studies it was found that cubicle dimensions in practice are often inadequate with regard to the body dimensions of the cows, leading to high proportions of impaired lying down behaviour, whereas teat cleanliness is still unsatisfactory. Connections between cleanliness and cow comfort are far from simplistic. Especially the relationship between cubicle characteristics and lying down behaviour apparently is very complex, so that it is difficult to identify single influential factors that are valid for all farm situations. However, based on the results of the present study the use of deep bedded cubicles can be recommended as well as improved management with special regard to cubicle and litter maintenance in order to achieve both better resting comfort and teat cleanliness.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The furious pace of Moore's Law is driving computer architecture into a realm where the the speed of light is the dominant factor in system latencies. The number of clock cycles to span a chip are increasing, while the number of bits that can be accessed within a clock cycle is decreasing. Hence, it is becoming more difficult to hide latency. One alternative solution is to reduce latency by migrating threads and data, but the overhead of existing implementations has previously made migration an unserviceable solution so far. I present an architecture, implementation, and mechanisms that reduces the overhead of migration to the point where migration is a viable supplement to other latency hiding mechanisms, such as multithreading. The architecture is abstract, and presents programmers with a simple, uniform fine-grained multithreaded parallel programming model with implicit memory management. In other words, the spatial nature and implementation details (such as the number of processors) of a parallel machine are entirely hidden from the programmer. Compiler writers are encouraged to devise programming languages for the machine that guide a programmer to express their ideas in terms of objects, since objects exhibit an inherent physical locality of data and code. The machine implementation can then leverage this locality to automatically distribute data and threads across the physical machine by using a set of high performance migration mechanisms. An implementation of this architecture could migrate a null thread in 66 cycles -- over a factor of 1000 improvement over previous work. Performance also scales well; the time required to move a typical thread is only 4 to 5 times that of a null thread. Data migration performance is similar, and scales linearly with data block size. Since the performance of the migration mechanism is on par with that of an L2 cache, the implementation simulated in my work has no data caches and relies instead on multithreading and the migration mechanism to hide and reduce access latencies.