1000 resultados para Cagliostro, Alessandro, conte di, 1743-1795


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Descrizione delle attività preliminari di progettazione di una turbina eolica auto-montante. Scopo di questo studio di fattibilità è ridurre la necessità di impiego di gru pesanti per il montaggio delle torri delle turbine eoliche. Nella tesi sono affrontati il progetto concettuale, un disegno di massima del sistema studiato per sollevare autonomamente la torre. Sono inoltre presenti alcune verifiche dei componenti più critici per confermare l'attuabilità della soluzione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il tumore del polmone rappresenta la prima causa di morte nei paesi industrializzati. Le possibilità di trapianto ed intervento chirurgico risultano molto limitate pertanto lo standard di cura risulta essere la radioterapia, a volte abbinata alla chemioterapia. Sebbene trattando radioterapicamente il tumore si ottengano ottimi risultati, attualmente non esistono solide linee guida per la personalizzazione del trattamento al paziente. Il poter eseguire in laboratorio test radioterapici su un elevato numero di campioni risulterebbe un valido approccio sperimentale d’indagine, ma la carenza di materiale su cui poter condurre gli esperimenti limita questa possibilità. Tipicamente, per ovviare al problema vengono utilizzati sferoidi multicellulari tridimensionali creati in laboratorio partendo da singole cellule del tumore in esame. In particolare, l’efficacia del trattamento viene tipicamente correlata alla riduzione volumetrica media stimata utilizzando un set di sferoidi teoricamente identici. In questo studio vengono messe in discussione la validità delle affermazioni tipicamente sostenute attraverso l’analisi di volumi medi. Abbiamo utilizzando un set di circa 100 sferoidi creati in laboratorio partendo da singole cellule di carcinoma epidermoidale polmonare e trattati secondo sette differenti modalità di trattamento radioterapico (variando intensità di radiazione e numero di frazioni). In una prima fase abbiamo analizzato le singole immagini, acquisite al microscopio ottico circa ogni 48 ore, per identificare features morfometriche significative da affiancare all’analisi volumetrica. Sulla base dell’andamento temporale di queste features abbiamo suddiviso gli sferoidi in sottoclassi con evoluzioni completamente differenti che fanno supporre un differente “stato” biologico. Attraverso algoritmi di estrazione di features e classificazione e analizzando riduzione volumetrica, grado di frastagliatura del bordo e quantità di cellule liberate nel terreno di coltura abbiamo definito un protocollo per identificare in maniera automatica le sottopopolazioni di sferoidi. Infine, abbiamo ricercato con successo alcune features morfometriche in grado di predire, semplicemente analizzando immagini acquisite nei giorni seguenti all’ultimo trattamento, lo “stato di salute” del tumore a medio/lungo periodo. Gli algoritmi realizzati e le features identificate se opportunamente validate potrebbero risultare un importante strumento non invasivo di ausilio per il radioterapista per valutare nel breve periodo gli effetti a lungo periodo del trattamento e quindi poter modificare parametri di cura al fine di raggiungere uno stato desiderato del tumore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente studio si concentra sulle diverse applicazioni del telerilevamento termico in ambito urbano. Vengono inizialmente descritti la radiazione infrarossa e le sue interazioni con l’atmosfera terrestre, le leggi principali che regolano lo scambio di calore per irraggiamento, le caratteristiche dei sensori e le diverse applicazioni di termografia. Successivamente sono trattati nel dettaglio gli aspetti caratteristici della termografia da piattaforma satellitare, finalizzata principalmente alla valutazione del fenomeno dell'Urban Heat Island; vengono descritti i sensori disponibili, le metodologie di correzione per gli effetti atmosferici, per la stima dell'emissività delle superfici e per il calcolo della temperatura superficiale dei pixels. Viene quindi illustrata la sperimentazione effettuata sull'area di Bologna mediante immagini multispettrali ASTER: i risultati mostrano come sull'area urbana sia riscontrabile la presenza dell'Isola di Calore Urbano, anche se la sua quantificazione risulta complessa. Si procede quindi alla descrizione di potenzialità e limiti della termografia aerea, dei suoi diversi utilizzi, delle modalità operative di rilievo e degli algoritmi utilizzati per il calcolo della temperatura superficiale delle coperture edilizie. Tramite l’analisi di alcune esperienze precedenti vengono trattati l’influenza dell’atmosfera, la modellazione dei suoi effetti sulla radianza rilevata, i diversi metodi per la stima dell’emissività. Viene quindi introdotto il progetto europeo Energycity, finalizzato alla creazione di un sistema GeoWeb di supporto spaziale alle decisioni per la riduzione di consumi energetici e produzione di gas serra su sette città dell'Europa Centrale. Vengono illustrate le modalità di rilievo e le attività di processing dei datasets digitali per la creazione di mappe di temperatura superficiale da implementare nel sistema SDSS. Viene infine descritta la sperimentazione effettuata sulle immagini termiche acquisite nel febbraio 2010 sulla città di Treviso, trasformate in un mosaico georiferito di temperatura radiometrica tramite correzioni geometriche e radiometriche; a seguito della correzione per l’emissività quest’ultimo verrà trasformato in un mosaico di temperatura superficiale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

il superamento della crisi aziendale attraverso il cambiamento organizzativo

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’attività nel teatro della Villa medicea di Pratolino, presso Firenze, giunse al culmine nel primo decennio del ’700, quando il principe Ferdinando de’ Medici commissionò e vi fece rappresentare, una per anno, opere in musica di Alessandro Scarlatti e di Giacomo Antonio Perti. Benché le partiture siano perdute, sopravvive un’ingente quantità di materiale documentario, in massima parte inedito, il quale dà un eccezionale resoconto sul mecenatismo del Principe e sul funzionamento della macchina teatrale. La dissertazione si concentra sulle sei opere poste in musica da Perti ("Lucio Vero", 1700, in collaborazione con Martino Bitti; "Astianatte", 1701; "Dionisio re di Portogallo", 1707; "Ginevra principessa di Scozia", 1708; "Berenice regina d’Egitto", 1709; "Rodelinda regina de’ Longobardi", 1710), sui rapporti del compositore col Principe, col librettista Antonio Salvi, col rivale Scarlatti, coi cantanti e con la corte medicea, sullo stile da lui perseguito e – per quanto è dato sapere o lecito ipotizzare – sulla fisionomia dei suoi lavori (strutture e risorse letterarie, teatrali e musicali).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Al centro della seguente ricerca c'è il Piacentino, ossia il territorio che faceva capo alla città di Placentia in età altomedievale, più precisamente tra VII e IX secolo. L'aspetto su cui è concentrata l’analisi è quello dell’insediamento, rapportando le forme insediative alle comunità rurali e alle strutture del potere. Il Piacentino costituisce un contesto particolare, sia per la vicinanza alla capitale Pavia, sia per la presenza di enti patrimoniali molto importanti, quale il monastero di Bobbio, sia per l'estensione di vallate appenniniche che ne hanno protetto l'isolamento e impedito, fino al secolo IX inoltrato, l'insediamento di una forte aristocrazia. Ciò che sembra dedursi dall’analisi della documentazione (informatizzata) di VIII, ma soprattutto di IX secolo, è che la civitas di Piacenza, sede del conte e centro della diocesi, non costituiva di fatto il punto di riferimento per gli abitanti dell’intero territorio rurale. Dal punto di vista del possesso fondiario molti insediamenti erano autonomi. Ciò vale soprattutto per i siti di alcune zone collinari e per quelli dell’Appennino, mentre il discorso è da porsi in modo più sfumato per la pianura e per la zona dei prata vel campanea Placentina, ubicati immediatamente al di fuori della civitas. Lo studio della media e grande proprietà fondiaria ha permesso di registrare la frammentarietà dei possedimenti, ossia la loro dispersione nel sistema insediativo del comitato, la loro ubicazione e l’articolato intreccio proprietario, che in alcune zone sembra avere permesso l’esistenza di comunità locali piuttosto forti. L’attento esame della documentazione e il sicuro rimando alla bibliografia di riferimento hanno portato a risultati originali e significativi.