321 resultados para Lepismium lineare


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è di offrire una descrizione dei corpi rigidi in movimento, sfruttando il concetto di velocità angolare istantanea e di operatore lineare d'inerzia, i cui autovalori e autovettori consentono di definire l'ellissoide d'inerzia del corpo da cui si possono ricavare più facilmente alcune delle caratteristiche del sistema. Infine si riporta un esempio notevole di corpo rigido, la trottola di Lagrange.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella presente Tesi è affrontata l’analisi sperimentale e teorica del comportamento di pareti in muratura rinforzate con FRCM e sollecitate da azioni di taglio fuori piano. Lo schema statico adottato per i campioni sperimentati consiste in uno schema appoggio-appoggio, mentre le forze esterne di taglio sono state applicate secondo uno schema di carico a quattro punti. Durante il corso della prova, i pannelli murari sono inoltre stati soggetti ad un carico di precompressione verticale costante, che simula l’effetto della presenza del solaio in un edificio in muratura. Dopo una descrizione teorica delle principali caratteristiche dei materiali compositi e dei loro costituenti, all’interno della Tesi sono richiamati alcuni studi scientifici relativi al comportamento fuori piano di elementi strutturali rinforzati con FRCM. In seguito vengono presentati i materiali impiegati per la campagna sperimentale e le prove di caratterizzazione meccanica eseguite. Vengono poi riportati i risultati sperimentali delle prove a taglio fuori piano in termini di spostamenti, di deformazioni e di scorrimenti, affrontando infine un confronto tra i risultati ottenuti per i campioni esaminati e riportando alcune considerazioni circa la strumentazione impiegata. L’ultima parte della Tesi è dedicata all’analisi teorica delle pareti. Viene proposto un modello teorico per stimare la resistenza fornita dai muri rinforzati, ipotizzando tre possibili modalità di rottura: rottura a trazione della fibra, rottura per distacco tra FRCM e supporto in muratura e rottura per delaminazione interna. Infine, viene riportata la modellazione agli elementi finiti svolta mediante il codice di calcolo MidasFea, che consente di attribuire ai materiali legami costitutivi adeguati per la modellazione di strutture in muratura, cogliendone il comportamento non lineare e il progressivo danneggiamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene analizzato un problema di ottimizzazione proposto da alcuni esercizi commerciali che hanno la necessita` di selezionare e disporre i propri ar- ticoli in negozio. Il problema nasce dall’esigenza di massimizzare il profitto com- plessivo atteso dei prodotti in esposizione, trovando per ognuno una locazione sugli scaffali. I prodotti sono suddivisi in dipartimenti, dai quali solo un ele- mento deve essere selezionato ed esposto. In oltre si prevede la possibilita` di esprimere vincoli sulla locazione e compatibilita` dei prodotti. Il problema risul- tante `e una generalizzazione dei gia` noti Multiple-Choice Knapsack Problem e Multiple Knapsack Problem. Dopo una ricerca esaustiva in letteratura si `e ev- into che questo problema non `e ancora stato studiato. Si `e quindi provveduto a formalizzare il problema mediante un modello di programmazione lineare intera. Si propone un algoritmo esatto per la risoluzione del problema basato su column generation e branch and price. Sono stati formulati quattro modelli differenti per la risoluzione del pricing problem su cui si basa il column generation, per individuare quale sia il piu` efficiente. Tre dei quattro modelli proposti hanno performance comparabili, mentre l’ultimo si `e rivelato piu` inefficiente. Dai risul- tati ottenuti si evince che il metodo risolutivo proposto `e adatto a istanze di dimensione medio-bassa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi riguarda lo studio e l'impiego di architetture neurali profonde (nello specifico stacked denoising auto-encoder) per la definizione di un modello previsionale di serie temporali. Il modello implementato è stato applicato a dati industriali riguardanti un impianto fotovoltaico reale, per effettuare una predizione della produzione di energia elettrica sulla base della serie temporale che lo caratterizza. I risultati ottenuti hanno evidenziato come la struttura neurale profonda contribuisca a migliorare le prestazioni di previsione di strumenti statistici classici come la regressione lineare multipla.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le celle solari a film sottile sono tra le alternative più promettenti nel campo fotovoltaico. La ricerca di materiali non tossici ed economici per la passivazione delle superfici è di fondamentale importanza. Il presente è uno studio sulla morfologia di film sottili di ZnS. I campioni analizzati sono stati cresciuti tramite DC sputtering a diversa potenza (range 50-150W) per studiare le connessioni tra condizioni di deposizione e proprietà strutturali. Lo studio è stato condotto mediante acquisizione di mappe AFM. E' stata effettuata un'analisi dei buchi (dips) in funzione della potenza di sputtering, per individuare il campione con la minore densità di dips in vista di applicazioni in celle solari a film sottile. I parametri strutturali, quali la rugosità superficiale e la lunghezza di correlazione laterale sono stati determinati con un'analisi statistica delle immagini. La densità e dimensione media dei grani sono state ricavate da una segmentazione delle immagini. Le analisi sono state svolte su due campioni di ZnO per fini comparativi. Tramite EFM sono state ottenute mappe di potenziale di contatto. Tramite KPFM si è valutata la differenza di potenziale tra ZnS e un layer di Al depositato sulla superficie. La sheet resistance è stata misurata con metodo a quattro punte. Dai risultati la potenza di sputtering influenza la struttura superficiale, ma in maniera non lineare. E' stato individuato il campione con la minore rugosità e densità di dips alla potenza di 75 W. Si è concluso che potenze troppo grandi o piccole in fase di deposizione promuovono il fenomeno di clustering dei grani e di aumentano la rugosità e densità di dips. E' emersa una corrispondenza diretta tra morfologia e potenziale di contatto alla superficie. La differenza di potenziale tra Al e ZnS è risultata inferiore al valore noto, ciò può essere dovuto a stati superficiali indotti da ossidi. Il campione risulta totalmente isolante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo principale di questa tesi è la valutazione del comportamento globale e dei danni subiti da un edificio in muratura esistente utilizzando un recente programma di calcolo sviluppato appositamente per lo studio in campo non lineare delle strutture in muratura, attraverso una modellazione a telaio equivalente con macroelementi; direttamente connesso a quest’aspetto vi è la valutazione della vulnerabilità sismica dell’edificio stesso, mediante i coefficienti o parametri definiti per i diversi stati limite considerati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Werkstoff thermisch induzierte chemische und physikalische Vorgänge bedingen während des Ofenprozesses beim IMLS-Verfahren ein instationäres plastisches Dehnungsverhalten, das die Form- und Maßgenauigkeit von Bauteilen negativ beeinflusst. Lineare oder funktionsbasierte Skalierungsfaktoren reichen bei komplexen Geometrieelementen nicht aus, um eine hohe Maßgenauigkeit aufgrund des transienten Verzugsverhaltens zu realisieren. Aus diesem Grund wird eine durchgängige Lösung auf Basis der Finite-Elemente-Methode (FEM) zur Berechnung des Strukturverhaltens vorgestellt. Die entwickelte numerische Prozesskette basiert auf der Ermittlung von Dilatometermessungen, die in reaktionskinetische Materialmodelle integriert und anschließend mit der Simulation gekoppelt werden. Dadurch kann das Verzugsverhalten in den Phasen Festphasensintern, Infiltration und Flüssigphasensintern während des Ofenprozesses mit hinreichender Genauigkeit berechnet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

e-Manufacturing™, das ist die schnelle, flexible und kostengünstige Fertigung von Produkten, Formen/Werkzeugen oder Modellen direkt aus elektronischen Daten. e-Manufacturing™ schließt Rapid Prototyping, Rapid Tooling oder Rapid Manufacturing ein, geht aber zugleich weit über den Gedanken der schnellen Verfügbarkeit hinaus. Zwar wird auch in Zukunft die schnelle Produktentwicklung eine immer wichtigere Rolle spielen, bei der e-Manufacturing™ für ein verkürztes Time to Market sorgt, Entwicklungskosten verringert und zur Risikominimierung beiträgt. Darüber hinaus entstehen aber auch neue Geschäftsmodelle, da Kleinserienproduktion, steigende Variantenvielfalt und eine individualisierte Produktion (Mass Customization) plötzlich möglich und wirtschaftlich sind und sich neue Logistikkonzepte wie (Spare) parts on demand entwickeln. Die neue Konstruktionsfreiheit des Laser-Sinterns ermöglicht neue Produktkonzepte. Minimale Einschränkungen durch das Fertigungsverfahren erlauben funktionelle Integration und die Fertigung des „Unmöglichen“, da kreisförmige und lineare Werkzeugbewegungen das Produktdesign nicht mehr beeinflussen bzw. limitieren. Auch die Fertigungskonzepte unterliegen einem Wandel und werden deutlich flexibler. Werkzeuglose Produktion, losgrößenangepasste Fertigung und dezentrale Fertigung on demand sind die Schlagworte der Zukunft. Der vorliegende Beitrag zeigt Beispiele für den erfolgreichen kommerziellen Einsatz von Laser-Sintern in allen Phasen des Produktlebenszyklus. Der Schwerpunkt liegt dabei auf der direkten Herstellung von Funktionsteilen in der Serienfertigung. Die entscheidenden Faktoren für eine erfolgreiche Einführung und Anwendung von e-Manufacturing™ werden diskutiert. Der Beitrag zeigt auf, wie die neuesten technologischen Innovationen im Laser-Sintern, speziell zur Produktivitätssteigerung, das Spektrum der Anwendungsfelder erweitern, in denen dieses Fertigungsverfahren kostengünstige Lösungen bietet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective: To evaluate a new triaxial accelerometer device for prediction of energy expenditure, measured as VO2/kg, in obese adults and normal-weight controls during activities of daily life. Subjects and methods: Thirty-seven obese adults (Body Mass Index (BMI) 37±5.4) and seventeen controls (BMI 23±1.8) performed eight activities for 5 to 8 minutes while wearing a triaxial accelerometer on the right thigh. Simultaneously, VO2 and VCO2 were measured using a portable metabolic system. The relationship between accelerometer counts (AC) and VO2/kg was analysed using spline regression and linear mixed-effects models. Results: For all activities, VO2/kg was significantly lower in obese participants than in normalweight controls. A linear relationship between AC and VO2/kg existed only within accelerometer values from 0 to 300 counts/min, with an increase of 3.7 (95%-confidence interval (CI) 3.4 - 4.1) and 3.9 ml/min (95%-CI 3.4 - 4.3) per increase of 100 counts/min in obese and normal-weight adults, respectively. Linear modelling of the whole range yields wide prediction intervals for VO2/kg of ± 6.3 and ±7.3 ml/min in both groups. Conclusion: In obese and normal-weight adults, the use of AC for predicting energy expenditure, defined as VO2/kg, from a broad range of physical activities, characterized by varying intensities and types of muscle work, is limited.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit stellt sich in die Reihe von Studien, die den Status des lyrischen Subjekts innerhalb der Dichtung „nach Auschwitz“ untersucht haben, versucht aber selbst einen neuen Weg einzuschlagen, indem sie die Problematik der (historischen, ethischen) Subjektbestimmung aus ihrer rhetorischen und linguistischen Natur herleitet. Durch detaillierte formale Lektüre wird die selbstreflexive Funktion der Personalpronomina in den Sonetten Shakespeares sowie in der Übersetzung Celans analysiert. Die übersetzungstheoretischen Implikationen der Selbstreflexivität werden vor allem in Bezug auf die Werke von Antoine Berman und Henri Meschonnic erklärt. Präzise identifiziert und deutet der Verfasser syntaktische, grammatikalische, rhetorische und metrische Merkmale der untersuchten Gedichte, um Celans Verfahren en détail zu beschreiben: Tempus und Modus, Enjambement und Zäsur, Synkope und Anakoluth, Katapher und Chiasmus, Satz- und Ausführungszeichen, Kursivschrift und graphische Elemente. Theoretisch stützt sich die Arbeit auf bestimmte Hauptbegriffe von Jean Bollack (Virtualität, Poetik der Fremdheit, Trennung von den Mitmenschen, Schreiben auf seiten des Todes) und Gilles Deleuze (Virtualität, Differenz und Repetition, Ordnung der leeren Zeit). Der Begriff von Virtualität fungiert in diesem Zusammenhang als trait d'union zwischen den beiden Autoren, in dem Versuch, ihre unterschiedlichen, teilweise entgegengesetzten Positionen in einem Punkt konvergieren zu lassen: der Neudefinition eines gespaltenen Subjektes und seines subversiven Potentials in einem direkten politischen Sinne. Diese Neudefinition der pronominalen Funktionen und die ihres politischen Widerstands werden darüber hinaus als übersetzungstheoretische Kriterien in der Interpretation der Nationalliteratur und der Rezeptionsgeschichte in Deutschland verwendet. Aus dieser Perspektive wird der theoretische Rahmen dieser Arbeit, nach den Hauptfiguren von Bollack und Deleuze, von Foucault Auffassung der Historizität und des politischen Werts des Subjektbegriffs ergänzt. Die Poetik der Übersetzung wird als Vorgang der “Wiederholung” konzipiert, der letztendlich eine “Differenz” hervorbringt, wie auch eine Neubestimmung der Zeitlichkeit als nicht-lineare Erscheinung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Interpersonelle Handlungskoordination ist einer derjenigen Faktoren, die für das oft erwähnte, auf Gruppenebene auftauchende “Mehr” als die Summe beitragender Einzelleistungen verantwortlich gemacht wird. Verschiedene Theorien zur Gruppenhandlung anerkennen die Wichtigkeit koordinativer Prozesse und machen primär zwei Mechanismen für gelingende Handlungskoordination verantwortlich. Die Konzeption mentaler Modelle sieht den Grund in Situationsrepräsentationen, welche eine antizipative Koordination von individuellen Handlungsbeiträgen aufgrund von situationsbezogenen Wissensstrukturen ermöglichen. Gemäß dem dynamisch-ökologischen Ansatz hingegen erwächst interpersonell koordiniertes Handeln aus den situativen Affordanzen und Bedingungen, die sich im Verlauf von Spielen ergeben. Entsprechend basieren interpersonelle Handlungen nicht aus vorgefertigten Handlungsplänen, sondern ergeben sich online aus der Interaktion mit situativen Gegebenheiten. Aufgrund der Schwierigkeit, mit Daten von Gruppensystemen in dynamischen Kontexten statistisch umzugehen, hinkt die empirische Bestimmung des Einflusses kontextueller Affordanzen auf Handlungsentscheidungen theoretischen Überlegungen hinterher. Das Ziel der vorliegenden Studie war deswegen, die Effekte von Spielsituationsmerkmalen auf Passspielentscheidungen statistisch zu überprüfen. Als Versuchspersonen dienten die Kader zweier Fußballmannschaften (N = 36, M = 23.06 Jahre, SD = 4.85) aus der vierten Spielliga der Schweizer Fußballverbandes. Anhand von Informationen zu Mannschaftsaufstellungen und Spielsystemen wurden 40 Spielsituationen graphisch aufbereitet und auf Plausibilität rücküberprüft. Die Versuchspersonen übernahmen die Perspektive des ballbesitzenden Spielers und entschieden sich aus den jeweiligen Spielsituationen heraus für Passzuspiele. Zur Bestimmung von kontextuellen Handlungsindikatoren wurden die Spielsituationen im Hinblick auf Spielerpositionierungen und -verteilungen, interpersonelle Distanzen und die Stellungen der Verteidiger vermessen. Zur Bestimmung des Effektes von situativen Gegebenheiten auf die abhängige Variable Passspielentscheidung wurden verallgemeinerte gemischte lineare Modelle für binomial verteilte Daten spezifiziert. Signifikante Effekte der Distanzen zu Mitspielern, deren Nähe zum gegnerischen Tor, der Offenheit von Passwegen, sowie der defensiven Abschirmung bestätigten den Einfluss kontextueller Gegebenheiten auf Passentscheidungen (alle p < .001). Die Ergebnisse weisen auf die Relevanz von Situationsmerkmalen bei Passentscheidungen und damit auf die Angemessenheit des dynamisch-ökologischen Erklärungsansatzes hin. Durch seine Funktion als Spielgerät bestimmt der Spielball meist den fokalen Punkt einer handelnden Fußballmannschaft. Dadurch gerät der Fokus in theoretischen Gruppenhandlungsmodellen meist weg von den kontextuellen Gegebenheiten. Da diese im Fußball nicht starr oder vorbestimmt sind, sondern sich durch das Verhalten anderer Mit- und Gegenspieler verändern lassen, drängt sich ein Verständnis von dezentral mitgesteuerter Gruppenhandlung auf, gemäß dem Mitspieler abseits des Balls für das Schaffen ökologischer Gegebenheiten verantwortlich sind und damit interpersonelle Handlungseinheiten indirekt beeinflussen können.