643 resultados para Programmation mixte enti
Resumo:
In questo lavoro di tesi si studieranno le acque superficiali e sotterranee del fiume Marecchia, che sono continuamente monitorate da ARPA allo scopo di mantenere l'ambiente idrologico in buono stato. Una particolare attenzione è stata riposta nell'analisi dell'azoto e dei suoi composti, poiché nella conoide del Marecchia si è sempre osservata una forte presenza di questo tipo di composti, che negli anni hanno causato forti danni all'ambiente. Per raggiungere tale obiettivo, è stato fondamentale ripercorrere gli andamenti dei parametri nel corso degli anni, ricorrendo a dati forniti da ARPA e analizzando direttamente campioni raccolti in campo. Nelle acque analizzate sono state riscontrate varie anomalie, soprattutto nel sito in corrispondenza di via Tonale, che potrebbero essere ricondotte al grave problema dell'intrusione dell'acqua di mare in falda, e degli apporti di tali elementi durante le mareggiate; nel sito campionato nei pressi di Vergiano sono state riscontrate concentrazioni di solfati, cloruri e nitrati in aumento, che potrebbero essere causati da scarichi diretti in falda o nelle acque superficiali, oppure dilavamento dei campi da parte dell'acqua piovana. Anche le concentrazioni di nitriti, determinate nei punti di campionamento nel Torrente Ausa, superano notevolmente la concentrazione limite di 0.5 mg/l e tale effetto potrebbe essere causato da un uso indiscriminato di insetticidi, diserbanti e pesticidi composti da elementi ricchi di azoto, oppure dagli scarichi diretti di colorifici e industrie immessi direttamente nel torrente da parte dello stato di San Marino. Quanto evidenziato con questo studio potrebbe essere un incentivo per gli enti regionali, provinciali e comunali per migliorare il monitoraggio di alcune zone del fiume Marecchia e per ottimizzare i sistemi di gestione del territorio.
Resumo:
La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.
Resumo:
La rapida diffusione di Sistemi Aerei a Pilotaggio Remoto che si è verificata negli ultimi anni ha portato alla necessità di regolamentare ed armonizzare il loro utilizzo. I vari enti regolatori nazionali hanno dovuto trovare una soluzione a fronte di una serie di incidenti che hanno portato alla luce le lacune normative ed organizzative che ancora esistevano in materia. In Italia, in particolare, l’Ente Nazionale Aviazione Civile (ENAC) ha introdotto da fine 2013 un regolamento, più volte aggiornato e in parte ancora in fase di definizione, che impone delle rigide norme agli operatori dei mezzi a pilotaggio remoto. La presente attività riporta quindi lo sviluppo di un processo di certificazione di un Sistema Aereo a Pilotaggio Remoto ad ala fissa con peso massimo al decollo superiore a 25 kg, che si possa adattare alle più recenti norme presenti nel regolamento. Si presenta quindi lo sviluppo del Manuale di volo e del documento di Valutazione del rischio del mezzo, seguiti dallo studio del programma di attività sperimentale necessario per la certificazione. Infine, nella parte finale dell’elaborato si presentano dei test di volo effettuati seguendo il piano di sperimentazione strutturato e atti a dimostrare l’efficacia di tale pianificazione. Tali voli sono stati condotti infatti con un velivolo con caratteristiche similari a quelle del mezzo oggetto di studio, ma avente dimensioni e peso minori.
Resumo:
L’obiettivo del lavoro esposto nella seguente relazione di tesi ha riguardato lo studio e la simulazione di esperimenti di radar bistatico per missioni di esplorazione planeteria. In particolare, il lavoro si è concentrato sull’uso ed il miglioramento di un simulatore software già realizzato da un consorzio di aziende ed enti di ricerca nell’ambito di uno studio dell’Agenzia Spaziale Europea (European Space Agency – ESA) finanziato nel 2008, e svolto fra il 2009 e 2010. L’azienda spagnola GMV ha coordinato lo studio, al quale presero parte anche gruppi di ricerca dell’Università di Roma “Sapienza” e dell’Università di Bologna. Il lavoro svolto si è incentrato sulla determinazione della causa di alcune inconsistenze negli output relativi alla parte del simulatore, progettato in ambiente MATLAB, finalizzato alla stima delle caratteristiche della superficie di Titano, in particolare la costante dielettrica e la rugosità media della superficie, mediante un esperimento con radar bistatico in modalità downlink eseguito dalla sonda Cassini-Huygens in orbita intorno al Titano stesso. Esperimenti con radar bistatico per lo studio di corpi celesti sono presenti nella storia dell’esplorazione spaziale fin dagli anni ’60, anche se ogni volta le apparecchiature utilizzate e le fasi di missione, durante le quali questi esperimenti erano effettuati, non sono state mai appositamente progettate per lo scopo. Da qui la necessità di progettare un simulatore per studiare varie possibili modalità di esperimenti con radar bistatico in diversi tipi di missione. In una prima fase di approccio al simulatore, il lavoro si è incentrato sullo studio della documentazione in allegato al codice così da avere un’idea generale della sua struttura e funzionamento. È seguita poi una fase di studio dettagliato, determinando lo scopo di ogni linea di codice utilizzata, nonché la verifica in letteratura delle formule e dei modelli utilizzati per la determinazione di diversi parametri. In una seconda fase il lavoro ha previsto l’intervento diretto sul codice con una serie di indagini volte a determinarne la coerenza e l’attendibilità dei risultati. Ogni indagine ha previsto una diminuzione delle ipotesi semplificative imposte al modello utilizzato in modo tale da identificare con maggiore sicurezza la parte del codice responsabile dell’inesattezza degli output del simulatore. I risultati ottenuti hanno permesso la correzione di alcune parti del codice e la determinazione della principale fonte di errore sugli output, circoscrivendo l’oggetto di studio per future indagini mirate.
Resumo:
L'evoluzione del concetto di infinito nella storia presenta difficoltà che ancora oggi non sono sono state eliminate: la nostra mente è adattata al finito, per questo quando ha a che fare con oggetti troppo grandi o troppo piccoli, essa crea delle immagini che le permettono di vederli e manipolarli. Bisogna tuttavia stare attenti alle insidie che questi modelli nascondono, perché attribuiscono agli enti originali alcune proprietà fuorvianti, che ci portano a conclusioni distorte.
Resumo:
L’acquifero superficiale della Provincia di Ferrara è caratterizzato dalla presenza di una diffusa contaminazione da Arsenico. Per dare una risposta a questo fenomeno gli Enti della Provincia e del Comune hanno deciso di intraprendere uno studio volto alla determinazione dei valori di fondo del metalloide ed al miglioramento della comprensione del fenomeno. Il lavoro ha portato alla creazione di tre database con i dati presenti negli archivi provinciali inerenti: ubicazione e caratteristiche dei piezometri, dati idrochimici, concentrazione di Arsenico. L’acquifero superficiale è l’A0, olocenico, che si presenta eterogeneo per via della sua evoluzione geologica. Da uno studio stratigrafico ed idrogeologico si è visto come l’area sia costituita, andando da Ovest verso Est, da corpi alluvionali-deltizio-costieri olocenici in eteropia di facies. L’area centro-orientale è caratterizzata da un ciclo sedimentario trasgressivo-regressivo caratterizzato, nella parte superiore, dalla progradazione di un antico delta del Po. In tale ambiente si sono andati formando depositi ricchi in materia organica e in torba. Questi possono assumere una rilevante importanza nello spiegare il fenomeno, poiché possono svolgere sia il ruolo di sorgente dell’Arsenico che di redox driver attraverso la loro decomposizione. Elaborando i dati sono emersi elementi che sembrano confermare l’azione di un meccanismo di dissoluzione riduttiva che rilascia l’Arsenico, come mostrato dai cross plot tra Arsenico e Potenziale Redox, Ferro e Potenziale Redox, Arsenico e Ferro, Ferro e Manganese. L’area è stata suddivisa in tre zone, in cui la centrale corrisponde all’area ricca in materia organica. Sulla base delle tre aree individuate si è proceduto alla creazione di tre popolazioni di dati sottoposte ad analisi statistica. Quindi si è dimostrata l’assenza di contaminazione antropica, si sono esclusi i dati non significativi, si sono trattati i non detected e si sono individuati ed eliminati gli outlier. Infine si è proceduto alla determinazione della migliore distribuzione per ogni popolazione. Fatto ciò si è calcolato il 95° percentile, che è stato assunto come valore di fondo dell’area. Si è visto come tutti i tre valori di fondo superassero la CSC ed in particolare il valore di fondo dell’area centrale risultasse nettamente superiore agli altri due, superando la CSC di circa 10 volte. Questo ad ulteriore conferma della possibile azione della torba nel rilascio di Arsenico.
Resumo:
Al giorno d'oggi l'accessibilità all’informazione e ai prodotti audiovisivi è un argomento particolarmente delicato. Spesso, le categorie più svantaggiate, come le persone affette da disabilità sensoriali e gli stranieri, non hanno pieno accesso alla programmazione televisiva o a eventi ricreativi, culturali o formativi (conferenze, workshop, spettacoli), a causa della mancanza di adeguati servizi di supporto linguistico. Tale carenza rappresenta una mancata opportunità d’integrazione e anche una potenziale perdita, in termini di pubblico e di introiti, per le emittenti e gli enti che organizzano programmi ed eventi di interesse generale. Questa tesi intende analizzare le tecniche attraverso le quali oggi viene realizzata la sottotitolazione interlinguistica in tempo reale. Il nostro obiettivo è quello di dimostrare che approfondendo la ricerca scientifica sul respeaking e su altre tecniche meno costose rispetto alla stenotipia, la sottotitolazione interlinguistica in tempo reale non sarebbe più un miraggio. Il primo capitolo fornisce una panoramica sulla sottotitolazione intralinguistica e interlinguistica e sulla sottotitolazione preregistrata, in diretta e in semi-diretta. Nel secondo capitolo presenteremo il caso dell’azienda Ericsson in Olanda, l'unica a fornire sottotitolazione interlinguistica in tempo reale nei Paesi Bassi, tramite una tecnica che combina un interprete simultaneo, uno stenotipista e un "subtitle keyer" (figura che inserisce i sottotitoli al momento opportuno). La squadra lavora su un segnale dal vivo che viene però trasmesso al pubblico olandese con alcuni secondi di ritardo, permettendo di migliorare la qualità dei sottotitoli. Grazie ad una borsa di studio concessa dal Dipartimento d’Interpretazione e Traduzione di Forlì (Università di Bologna), abbiamo potuto intervistare il responsabile dell’unità di traduzione presso Ericsson, dott. Thijs de Korte, e abbiamo avuto modo di assistere in loco alla realizzazione dei sottotitoli interlinguistici in tempo reale. Il terzo capitolo si concentrerà sulla tecnica del respeaking, dagli ambiti d’uso ai requisiti per svolgere questa professione. Ci concentreremo in particolare sulle somiglianze tra respeaker e interprete simultaneo, che ci condurranno all'esperimento descritto nel capitolo 4. Infatti, date le somiglianze riscontrate tra interpretazione simultanea e respeaking e il potenziale in termini di accessibilità offerto dalla sottotitolazione interlinguistica dal vivo, abbiamo fornito un servizio sperimentale di sottotitolazione in diretta dall’italiano verso l’inglese durante la cerimonia di premiazione del Sedicicorto International Film Festival di Forlì. Dopo aver descritto in dettaglio l’esperienza, analizzeremo i giudizi espressi da ospiti stranieri, pubblico italiano e membri dell'associazione "Sedicicorto", al fine di verificare la qualità del servizio e osservarne i benefici. La conclusione della nostra tesi è che sfruttando appieno il potenziale offerto della tecnologia moderna e approfondendo la ricerca sulle tecniche per la sottotitolazione interlinguistica dal vivo, si potrebbero ridurre i costi dei servizi di supporto linguistico a non udenti e stranieri, incoraggiando dunque aziende ed enti a garantire una maggiore accessibilità all’informazione e agli eventi culturali e formativi.
Resumo:
Uno degli aspetti fondamentali della circolazione stradale è rappresentato dalla conservazione della qualità, in termini di comfort e sicurezza trasmessa all’utente, della sovrastruttura stradale. L’obiettivo della manutenzione stradale è di garantire un livello soddisfacente delle caratteristiche funzionali lungo tutto l’arco della vita utile dell’infrastruttura. Le ridotte disponibilità economiche di enti ed amministrazioni pubbliche, spingono i ricercatori ed i tecnici del settore ad individuare soluzioni tecniche e progettuali, in grado di coniugare economicità e durabilità degli interventi. Negli ultimi decenni, si è cercato di studiare l’effetto prodotto dall’eventuale inserimento di un interstrato di rinforzo all’interno della sovrastruttura. Lo studio, sviluppato e descritto nel presente documento, ha l’obiettivo di migliorare la comprensione dell’effettivo contributo che i materiali di rinforzo possono produrre all’interno degli strati legati di una pavimentazione flessibile. Gli obiettivi dell’indagine sperimentale, descritta nel presente documento, possono essere sintetizzati in tre punti fondamentali: - caratterizzazione flessionale di pavimentazioni bituminose con interstrati sintetici, in particolare lo scopo dell’indagine verte a quantificare il miglioramento del comportamento meccanico della pavimentazione dotata di rinforzo; - analisi del comportamento a fessurazione della pavimentazione, rinforzata e non, con particolare attenzione nei confronti del reflective cracking; - valutazione del collegamento tra i due strati bituminosi in presenza di interstrato sintetico. Per raggiungere tali obiettivi sono state eseguite due serie di prove di flessione su 3 punti (3PB) e prove di taglio Leutner.
Resumo:
L’oggetto di studio di questa tesi sono le piattaforme e-learning: programmi informatici che permettono di creare e gestire corsi di insegnamento attraverso internet. Innanzitutto viene fatta un’introduzione al concetto di e-learning, definendone le principali caratteristiche. Successivamente sono state delineate le peculiarità di dodici piattaforme tra le più diffuse: Edmodo, Ilias, Sakai,Dokeos, Schoology, Chamilo, Claroline, eFront, Atutor, Docebo, Moodle, Blackboard. Per ciascuna di esse viene fatto un inquadramento storico e geografico, definendo dove, quando, grazie a chi sono state sviluppate e il loro livello di diffusione globale. Vengono definite alcune caratteristiche tecniche quali: il tipo di licenza, il supporto fornito agli utenti, l’accessibilità dei contenuti erogati da ciascun programma, gli strumenti dedicati alla didattica, gli aspetti social e di comunicazione. Queste informazioni sono state utilizzate nel capitolo finale per eseguire un confronto, in modo da capire quali piattaforme risultano essere migliori a soddisfare le esigenze di Enti di Formazione a livello universitario.
Source of funding in experimental studies of mobile phone use on health: Update of systematic review
Resumo:
A previous review showed that among 59 studies published in 1995–2005, industry-funded studies were least likely to report effects of controlled exposure to mobile phone radiation on health-related outcomes. We updated literature searches in 2005–2009 and extracted data on funding, conflicts of interest and results. Of 75 additional studies 12% were industry-funded, 44% had public and 19% mixed funding; funding was unclear in 25%. Previous findings were confirmed: industry-sponsored studies were least likely to report results suggesting effects. Interestingly, the proportion of studies indicating effects declined in 1995–2009, regardless of funding source. Source of funding and conflicts of interest are important in this field of research.
Resumo:
How do sportspeople succeed in a non-collaborative game? An illustration of a perverse side effect of altruism Are team sports specialists predisposed to collaboration? The scientific literature on this topic is divided. The present article attempts to end this debate by applying experimental game theory. We constituted three groups of volunteers (all students aged around 20): 25 team sports specialists; 23 individual sports specialists (gymnasts, track & field athletes and swimmers) and a control group of 24 non-sportspeople. Each subgroup was divided into 3 teams that played against each other in turn (and not against teams from other subgroups). The teams played a game based on the well-known Prisoner's Dilemma (Tucker, 1950) - the paradoxical "Bluegill Sunbass Game" (Binmore, 1999) with three Nash equilibria (two suboptimal equilibria with a pure strategy and an optimal equilibrium with a mixed, egotistical strategy (p= 1/2)). This game also features a Harsanyi equilibrium (based on constant compliance with a moral code and altruism by empathy: "do not unto others that which you would not have them do unto you"). How, then, was the game played? Two teams of 8 competed on a handball court. Each team wore a distinctive jersey. The game lasted 15 minutes and the players were allowed to touch the handball ball with their feet or hands. After each goal, each team had to return to its own half of the court. Players were allowed to score in either goal and thus cooperate with their teammates or not, as they saw fit. A goal against the nominally opposing team (a "guardian" strategy, by analogy with the Bluegill Sunbass Game) earned a point for everyone in the team. For an own goal (a "sneaker" strategy), only the scorer earned a point - hence the paradox. If all the members of a team work together to score a goal, everyone is happy (the Harsanyi solution). However, the situation was not balanced in the Nashian sense: each player had a reason to be disloyal to his/her team at the merest opportunity. But if everyone adopts a "sneaker" strategy, the game becomes a free-for-all and the chances of scoring become much slimmer. In a context in which doubt reigns as to the honesty of team members and "legal betrayals", what type of sportsperson will score the most goals? By analogy with the Bluegill Sunbass Game, we recorded direct motor interactions (passes and shots) based on either a "guardian" tactic (i.e. collaboration within the team) or a "sneaker" tactic (shots and passes against the player's designated team). So, was the group of team sports specialist more collaborative than the other two groups? The answer was no. A statistical analysis (difference from chance in a logistic regression) enabled us to draw three conclusions: ?For the team sports specialists, the Nash equilibrium (1950) was stronger than the Harsanyi equilibrium (1977). ?The sporting principles of equilibrium and exclusivity are not appropriate in the Bluegill Sunbass Game and are quickly abandoned by the team sports specialists. The latter are opportunists who focus solely on winning and do well out of it. ?The most altruistic players are the main losers in the Bluegill Sunbass Game: they keep the game alive but contribute to their own defeat. In our experiment, the most altruistic players tended to be the females and the individual sports specialists
Resumo:
How do sportspeople succeed in a non-collaborative game? An illustration of a perverse side effect of altruism Are team sports specialists predisposed to collaboration? The scientific literature on this topic is divided. The present article attempts to end this debate by applying experimental game theory. We constituted three groups of volunteers (all students aged around 20): 25 team sports specialists; 23 individual sports specialists (gymnasts, track & field athletes and swimmers) and a control group of 24 non-sportspeople. Each subgroup was divided into 3 teams that played against each other in turn (and not against teams from other subgroups). The teams played a game based on the well-known Prisoner's Dilemma (Tucker, 1950) - the paradoxical "Bluegill Sunbass Game" (Binmore, 1999) with three Nash equilibria (two suboptimal equilibria with a pure strategy and an optimal equilibrium with a mixed, egotistical strategy (p= 1/2)). This game also features a Harsanyi equilibrium (based on constant compliance with a moral code and altruism by empathy: "do not unto others that which you would not have them do unto you"). How, then, was the game played? Two teams of 8 competed on a handball court. Each team wore a distinctive jersey. The game lasted 15 minutes and the players were allowed to touch the handball ball with their feet or hands. After each goal, each team had to return to its own half of the court. Players were allowed to score in either goal and thus cooperate with their teammates or not, as they saw fit. A goal against the nominally opposing team (a "guardian" strategy, by analogy with the Bluegill Sunbass Game) earned a point for everyone in the team. For an own goal (a "sneaker" strategy), only the scorer earned a point - hence the paradox. If all the members of a team work together to score a goal, everyone is happy (the Harsanyi solution). However, the situation was not balanced in the Nashian sense: each player had a reason to be disloyal to his/her team at the merest opportunity. But if everyone adopts a "sneaker" strategy, the game becomes a free-for-all and the chances of scoring become much slimmer. In a context in which doubt reigns as to the honesty of team members and "legal betrayals", what type of sportsperson will score the most goals? By analogy with the Bluegill Sunbass Game, we recorded direct motor interactions (passes and shots) based on either a "guardian" tactic (i.e. collaboration within the team) or a "sneaker" tactic (shots and passes against the player's designated team). So, was the group of team sports specialist more collaborative than the other two groups? The answer was no. A statistical analysis (difference from chance in a logistic regression) enabled us to draw three conclusions: ?For the team sports specialists, the Nash equilibrium (1950) was stronger than the Harsanyi equilibrium (1977). ?The sporting principles of equilibrium and exclusivity are not appropriate in the Bluegill Sunbass Game and are quickly abandoned by the team sports specialists. The latter are opportunists who focus solely on winning and do well out of it. ?The most altruistic players are the main losers in the Bluegill Sunbass Game: they keep the game alive but contribute to their own defeat. In our experiment, the most altruistic players tended to be the females and the individual sports specialists
Resumo:
How do sportspeople succeed in a non-collaborative game? An illustration of a perverse side effect of altruism Are team sports specialists predisposed to collaboration? The scientific literature on this topic is divided. The present article attempts to end this debate by applying experimental game theory. We constituted three groups of volunteers (all students aged around 20): 25 team sports specialists; 23 individual sports specialists (gymnasts, track & field athletes and swimmers) and a control group of 24 non-sportspeople. Each subgroup was divided into 3 teams that played against each other in turn (and not against teams from other subgroups). The teams played a game based on the well-known Prisoner's Dilemma (Tucker, 1950) - the paradoxical "Bluegill Sunbass Game" (Binmore, 1999) with three Nash equilibria (two suboptimal equilibria with a pure strategy and an optimal equilibrium with a mixed, egotistical strategy (p= 1/2)). This game also features a Harsanyi equilibrium (based on constant compliance with a moral code and altruism by empathy: "do not unto others that which you would not have them do unto you"). How, then, was the game played? Two teams of 8 competed on a handball court. Each team wore a distinctive jersey. The game lasted 15 minutes and the players were allowed to touch the handball ball with their feet or hands. After each goal, each team had to return to its own half of the court. Players were allowed to score in either goal and thus cooperate with their teammates or not, as they saw fit. A goal against the nominally opposing team (a "guardian" strategy, by analogy with the Bluegill Sunbass Game) earned a point for everyone in the team. For an own goal (a "sneaker" strategy), only the scorer earned a point - hence the paradox. If all the members of a team work together to score a goal, everyone is happy (the Harsanyi solution). However, the situation was not balanced in the Nashian sense: each player had a reason to be disloyal to his/her team at the merest opportunity. But if everyone adopts a "sneaker" strategy, the game becomes a free-for-all and the chances of scoring become much slimmer. In a context in which doubt reigns as to the honesty of team members and "legal betrayals", what type of sportsperson will score the most goals? By analogy with the Bluegill Sunbass Game, we recorded direct motor interactions (passes and shots) based on either a "guardian" tactic (i.e. collaboration within the team) or a "sneaker" tactic (shots and passes against the player's designated team). So, was the group of team sports specialist more collaborative than the other two groups? The answer was no. A statistical analysis (difference from chance in a logistic regression) enabled us to draw three conclusions: ?For the team sports specialists, the Nash equilibrium (1950) was stronger than the Harsanyi equilibrium (1977). ?The sporting principles of equilibrium and exclusivity are not appropriate in the Bluegill Sunbass Game and are quickly abandoned by the team sports specialists. The latter are opportunists who focus solely on winning and do well out of it. ?The most altruistic players are the main losers in the Bluegill Sunbass Game: they keep the game alive but contribute to their own defeat. In our experiment, the most altruistic players tended to be the females and the individual sports specialists