2 resultados para Globular clusters: general

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

80.00% 80.00%

Publicador:

Resumo:

In questo elaborato viene presentata l'analisi cinematica delle regioni centrali di NGC 6441, uno degli ammassi globulari più massivi (M ~10^6 Msol) della nostra Galassia. L'ammasso è stato selezionato, insieme ad altri 18, all'interno dell'ESO Large Program “Unveiling the kinematics in the core of high-density globular clusters with SINFONI" (PI: Ferraro) per cercare evidenze di buchi neri di massa intermedia (IMBH), la cui esistenza è ancora controversa. Poichè la misura della dispersione di velocità da spettri integrati può essere affetta dalla contaminazione di poche stelle brillanti, in questo lavoro si sono misurate le velocità radiali (RV) di stelle individuali, utilizzando lo spettrografo IFU SINFONI dell'ESO, dotato di un sistema di ottiche adattive. Sono state misurate le RV di 709 stelle giganti nei primi 17" dal centro, da cui è stato estratto un sotto-campione di alta qualità di circa 200 stelle. Queste misure sono state poi combinate con un campione di RV nelle regioni più esterne dell'ammasso, ottenute con gli spettrografi multi-oggetto KMOS e FLAMES dell'ESO. Tali dati sono stati utilizzati per il calcolo del profilo di dispersione di velocità e per la ricerca di rotazione lungo l'intera estensione radiale nell'ammasso. I risultati ottenuti sembrano escludere sia l'esistenza di un IMBH, che la presenza di forte rotazione interna. Inoltre hanno evidenziato una significativa decrescita della dispersione di velocita` nelle regioni centrali (parzialmente confermata anche da misure di moti propri ottenute con HST), che potrebbe suggerire la presenza di anisotropia tangenziale nel centro del sistema. Un simile comportamento (sebbene di minore entita`) e’ stato evidenziato in altri ammassi, suggerendo che potrebbe trattarsi di una caratteristica comune in questi sistemi stellari.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.