1000 resultados para Kinnunen, Essi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi intende offrire una riflessione in merito al potere degli organi giurisdizionali di disporre normativamente su determinati aspetti del processo che si svolge dinanzi ad essi, sostituendosi così al legislatore. Il piano di indagine della tesi si sviluppa prevalentemente nella descrizione della realtà europea davanti alle autorità giurisdizionali di Lussemburgo, attraverso continui riferimenti a pronunce giurisprudenziali. La candidata si sofferma, preliminarmente, definendo, in termini generali, l’origine e l’applicazione dei c.d. atti di soft law in ambito europeo e soffermandosi sul ruolo che ricopre la giurisprudenza nell’ordinamento europeo. Sempre nel capitolo di apertura, un accenno è dedicato al panorama italiano che, alla luce delle recenti e continue riforme processuali ed, in particolare, della lettura costituzionalmente orientata del processo civile in forza della sua ragionevole durata, sta conoscendo, sempre più largamente, il fenomeno dei c.d. protocolli. La tesi si sviluppa, poi, in altri tre capitoli, nei quali sono analizzati tre esempi di manifestazione del potere normativo degli organi giurisdizionali europei sul processo. La candidata passa, così, all’esame delle “Istruzioni pratiche alle parti”, sviscerando le disposizioni ivi contenute alla luce di casi giurisprudenziali, al fine di poter definire la reale efficacia di tali atti e la loro vincolatività nei confronti dei rappresentanti delle parti. A tale capitolo segue quello sull’applicazione del rinvio pregiudiziale tra soft law (c.d. Raccomandazioni) e giurisprudenza. Infine, la candidata svolge le ultime riflessioni sul potere “eccezionale” della Corte di giustizia di limitare nel tempo gli effetti delle proprie sentenze interpretative. Potere che, in questo caso, si manifesta non mediante l’emanazione di atti di soft law, ma attraverso le proprie pronunce giurisprudenziali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente progetto di ricerca propone l’esegesi di alcune sezioni delle Grazie di Ugo Foscolo, secondo l’Edizione Nazionale (1985), a cura di Pagliai-Scotti. È stato fornito il commento delle seguenti sezioni: Prima redazione dell’Inno, Seconda redazione dell’Inno e Appendice alla Seconda redazione dell’Inno, Versi del Rito, Quadernone, Stesure milanesi: Viaggio delle api e frammenti sparsi. Tutte le stesure della Prima redazione dell’Inno e alcuni frammenti delle Stesure milanesi non erano mai stati commentati fino ad ora. Il commento offre una ricostruzione dell’intertesto delle Grazie – le fonti letterarie, erudite e figurative –, e punta alla storicizzazione e alla contestualizzazione della poesia di Foscolo. Attraverso lo studio dei frammenti nella loro evoluzione è possibile intendere come i tre inni, diventati uno soltanto nella redazione del Quadernone, rappresentino la sintesi di tutto il sapere e gli interessi foscoliani (eruditi, scientifici, filosofico-estetici e letterari), e come essi, sin dai primi esiti poetici, siano specchio delle esperienze biografiche dell’autore. Il commento proposto nella tesi ribadisce la complessità della poesia delle Grazie, nelle sue componenti civili e didattiche. Esso avanza nuovi e importanti spunti di indagine, ponendosi come viatico indispensabile per un futuro commento integrale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di sviluppare un modello, l'architettura e la tecnologia per il sistema di denominazione del Middleware Coordinato TuCSoN, compresi gli agenti, i nodi e le risorse. Identità universali che rappresentano queste entità, sia per la mobilità fisica sia per quella virtuale, per un Management System (AMS, NMS, RMS) distribuito; tale modulo si occupa anche di ACC e trasduttori, prevedendo questioni come la tolleranza ai guasti, la persistenza, la coerenza, insieme con il coordinamento disincarnata in rete, come accade con le tecnologie Cloud. All’interno dell’elaborato, per prima cosa si è fatta una introduzione andando a descrivere tutto ciò che è contenuto nell’elaborato in modo da dare una visione iniziale globale del lavoro eseguito. Di seguito (1° capitolo) si è descritta tutta la parte relativa alle conoscenze di base che bisogna avere per la comprensione dell’elaborato; tali conoscenze sono relative a TuCSoN (il middleware coordinato con cui il modulo progettato dovrà interfacciarsi) e Cassandra (sistema server distribuito su cui si appoggia la parte di mantenimento e salvataggio dati del modulo). In seguito (2° capitolo) si è descritto JADE, un middleware da cui si è partiti con lo studio per la progettazione del modello e dell’architettura del modulo. Successivamente (3° capitolo) si è andati a spiegare la struttura e il modello del modulo considerato andando ad esaminare tutti i dettagli relativi alle entità interne e di tutti i legami fra esse. In questa parte si è anche dettagliata tutta la parte relativa alla distribuzione sulla rete del modulo e dei suoi componenti. In seguito (4° capitolo) è stata dettagliata e spiegata tutta la parte relativa al sistema di denominazione del modulo, quindi la sintassi e l’insieme di procedure che l’entità consumatrice esterna deve effettuare per ottenere un “nome universale” e quindi anche tutti i passaggi interni del modulo per fornire l’identificatore all’entità consumatrice. Nel capitolo successivo (5° capitolo) si sono descritti tutti i casi di studio relativi alle interazioni con le entità esterne, alle entità interne in caso in cui il modulo sia o meno distribuito sulla rete, e i casi di studio relativi alle politiche, paradigmi e procedure per la tolleranza ai guasti ed agli errori in modo da dettagliare i metodi di riparazione ad essi. Successivamente (6° capitolo) sono stati descritti i possibili sviluppi futuri relativi a nuove forme di interazione fra le entità che utilizzano questo modulo ed alle possibili migliorie e sviluppi tecnologici di questo modulo. Infine sono state descritte le conclusioni relative al modulo progettato con tutti i dettagli in modo da fornire una visione globale di quanto inserito e descritto nell’elaborato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'impresa di rivitalizzare il settore nord della Città Universitaria di Bogota, consacrato all'educazione fisica, può trovare un aiuto insperato nelle fonti storiche, come i progetti originali dell'architetto Leopoldo Rother e il piano formativo del pedagogo Fritz Karsen. Analizzando il lavoro da essi compiuto negli anni Trenta, vengono alla luce tutti gli elementi che concorrono a fare di un'area da decenni non più centrale alla vita del campus un polo di attrazione per un pubblico proveniente da tutta la capitale colombiana. Un nuovo edificio, il centro sportivo polifunzionale, diventa così il fulcro per dare importanza ad un'area pensata per essere importante fin dalla sua concezione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questa tesi di laurea è lo sviluppo dell’automazione delle tecniche per il trattamento di radiofarmaci, in particolare riguardo alle pratiche di trasferimento di dati sulla superficie del contenitore includente il radiofarmaco. Lo scopo è passare dall’applicazione manuale di etichette, ad una scrittura automatizzata dei dati direttamente sulla superficie del contenitore. Lo sviluppo del progetto sarà realizzato con l’ausilio del programma di modellazione 3D PTC Creo Elements, ritenuto il sistema CAD più idoneo per la realizzazione di progetti ex novo come quello in oggetto. La modellazione verrà effettuata per tentativi, valutando caso per caso varie opzioni, fino al raggiungimento del risultato ottimale. Dopo aver descritto i processi produttivi attuali e l’integrazione del dispositivo all’interno di essi, viene illustrato il funzionamento passo passo del dispositivo, partendo dalla fase di entrata, proseguendo con la fase di centraggio e stampa, terminando con la fase di scarico. Viene successivamente illustrato il prodotto finito e le relative problematiche riscontrate durante le fasi di prova del prototipo, in particolare, difetti nella trascrizione dei dati sulla superficie del contenitore e difetti progettuali dell’intero sistema. Vengono infine illustrate le possibili soluzioni, in particolare un nuovo sistema di fissaggio del contenitore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mancanza di procedure standard per la verifica delle strutture in compositi, al contrario dei materiali metallici, porta all’esigenza di una continua ricerca nel settore, al fine di ottenere risultati significativi che culminino in una standardizzazione delle procedure. In tale contesto si colloca la ricerca svolta per la stesura del presente elaborato, condotta presso il laboratorio DASML del TU Delft, nei Paesi Bassi. Il materiale studiato è un prepreg (preimpregnated) costituito da fibre di carbonio (M30SC) e matrice epossidica (DT120) con la particolare configurazione [0°/90°/±45°/±45°/90°/0°]. L’adesivo utilizzato per l’incollaggio è di tipo epossidico (FM94K). Il materiale è stato assemblato in laboratorio in modo da ottenere i provini da testare, di tipo DCB, ENF e CCP. Due differenti qualità dello stesso materiale sono state ottenute, una buona ottenuta seguendo le istruzione del produttore, ed una povera ottenuta modificando il processo produttivo suggerito, che risulta in un incollaggio di qualità nettamente inferiore rispetto al primo tipo di materiale. Lo scopo era quello di studiare i comportamenti di entrambe le qualità sotto due diversi modi di carico, modo I o opening mode e modo II o shear mode, entrambi attraverso test quasi-statici e a fatica, così da ottenere risultati comparabili tra di essi che permettano in futuro di identificare se si dispone di un materiale di buona qualità prima di procedere con il progetto dell’intera struttura. L’approccio scelto per lo studio dello sviluppo della delaminazione è un adattamento della teoria della Meccanica della Frattura Lineare Elastica (LEFM)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei principali passi della catena di produzione di circuiti integrati è quello di testare e valutare una serie di chip campione per verificare che essi rientrino nei valori e nelle specifiche scelte. Si tratta di un passaggio molto importante che determina le caratteristiche del prodotto nella realtà, mostrando le proprie capacità o i propri limiti, permettendo così di valutare un’eventuale produzione su larga scala. Ci permette inoltre di stimare quali dei chip rispetto agli altri presi in esame è migliore in alcuni aspetti, oppure quale risulta più lontano dalle specifiche volute. Il lavoro alle spalle di questa tesi è proprio questo: si è cercato di caratterizzare un microchip chiamato Carbonio, nato nei laboratori della II Facoltà di Ingegneria di Cesena, creando un banco di misura automatico, tramite l’ausilio del software Labview e di una scheda hardware realizzata ad hoc, che desse la possibilità di eseguire alcuni test consecutivi su ogni singolo circuito integrato in modo da caratterizzarlo estrapolando tutte le informazioni cercate e verificandone il funzionamento. Tutti i valori estratti sono stati poi sottoposti a una breve analisi statistica per stabilire per esempio quale circuito integrato fosse meno immune ai disturbi dovuti al rumore elettrico oppure per eseguire un’indagine al fine di vedere come i valori dei parametri scelti si disponessero rispetto ai lori rispettivi valori medi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reti veicolari, anche dette VANET, sono da tempo oggetto di studio. Durante il periodo di ricerca svolto presso l'Università della California Los Angeles (UCLA) è stato possibile studiare i protocolli adatti allo scambio di contenuti fra i veicoli secondo il paradigma del Named Data Networking (NDN). Il Named Data Networking rappresenta un nuovo modello di comunicazione per il reperimento dei contenuti all'interno della rete. Nelle VANET ogni veicolo è potenzialmente un fornitore di contenuti, oltre che un richiedente. L'infrastruttura di riferimento posta all'interno del campus universitario permette il reperimento di dati necessario allo studio del problema, non solo da un punto di vista pratico ma anche da un punto di vista teorico. Infatti, data la tipologia dei test e le difficoltà intrinseche che essi comportano, l'attività di simulazione svolge un ruolo importante per lo sviluppo e lo studio del protocollo all'interno delle reti veicolari. L'attività di ricerca svolta si articola nei seguenti aspetti: introduzione al nuovo paradigma di comunicazione: principi del Named Data Networking, funzionamento di NDN, reti veicolari, applicabilità di NDN alle VANET; modelli di mobilità per le reti veicolari: linee guida per la costruzione di un modello di mobilità, situazione attuale dei modelli disponibili, simulatori di rete, strumenti utilizzati e il loro funzionamento; attività di simulazione: pianificazione e implementazione di diverse tipologie di scenari di reti veicolari; analisi dei dati raccolti dalla fase precedente: vengono elaborati i dati raccolti e si cerca di catturarne gli aspetti più significativi. L'obiettivo è quello di condurre uno studio di fattibilità sull'applicazione di NDN alle reti mobili, in particolare alle reti veicolari in ambito urbano. Al momento in cui è iniziata la collaborazione con il gruppo di ricerca del Network Research Lab di UCLA, era da poco stata rilasciata la prima versione di NDN contenente l'estensione pensata per il veicolare, quindi non erano presenti in letteratura studi condotti per questo tipo di scenari. Lo scopo è quello di estrarre informazioni e ricavarne significative indicazioni sulle prestazioni del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Panoramica sui sensori resistivi, scelta di alcuni di essi per un progetto di monitoraggio ambientale, e poi realizzazione del PCB con i sensori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ingegnerizzazione di sistemi software per schermi pervasivi che riconoscono l'attenzione degli osservatori e adattano ad essi i propri contenuti, interagendo tramite interfacce naturali. Viene proposto un framework per facilitare lo sviluppo di applicazioni che utilizzano kinect e OpenNI. Sulla base del framework realizzato viene presentato anche lo sviluppo di un prototipo per uno di questi sistemi, calato nel contesto accademico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obbiettivo: approfondire le conoscenze sul sonno attraverso l'analisi di possibili marcatori di sonnolenza, gli Slow Eye Movements, con particolare attenzione ad una specifica patologia del sonno chiamata Obstructive Sleep Apnea Syndrome (OSAS). Metodi: sono stati analizzati gli Slow Eye Movements a partire dall'output di un algoritmo automatico, già esistente, per la loro identificazione a partire dal segnale elettro-oculografico. Il lavoro è stato condotto in ambiente MATLAB. Risultati: si sono rilevate differenze in soggetti OSAS e sani: i primi mostrano un numero maggiore di SEM nell'arco della veglia. Questa attività diventa maggiore a distanze superiori dal sonno rispetto a soggetti sani. Inoltre si è riscontrato che i SEM in veglia sono associati ad un aumento di ritmo cerebrale alpha, ed una diminuzione del ritmo beta. Conclusioni: questo studio sembra validare i SEM come marcatori di sonnolenza e ne approfondisce la conoscenza. Essi potrebbero essere quindi utilizzati in ambito clinico e tecnologico per rilevare stati di sonnolenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I nucleotidi trifosfato sono, dal punto di vista evoluzionistico, tra le molecole più antiche e conservate tra le specie. Oltre al ruolo che ricoprono nella sintesi degli acidi nucleici e nel metabolismo energetico della cellula, negli ultimi anni è emerso sempre di più il loro coinvolgimento nella regolazione di numerose funzioni cellulari. Questi importanti mediatori cellulari sono presenti nel microambiente e cambiamenti nella loro concentrazione extracellulare possono modulare la funzionalità cellulare. I nucleotidi trifosfato ATP e UTP, presenti nel microambiente midollare, sono dei potenti stimolatori dei progenitori emopoietici. Essi stimolano la proliferazione e l’attecchimento delle cellule staminali emopoietiche, così come la loro capacità migratoria, attraverso l’attivazione di specifici recettori di membrana, i recettori purinergici (P2R). In questo studio abbiamo dimostrato che ATP e UTP esercitano un effetto opposto sul compartimento staminale leucemico di leucemia acuta mieloide (LAM). Abbiamo dimostrato che le cellule leucemiche esprimono i recettori P2 funzionalmente attivi. Studi di microarray hanno evidenziato che, a differenza di ciò che avviene nelle CD34+, la stimolazione di cellule leucemiche con ATP induce la down-regolazione dei geni coinvolti nella proliferazione e nella migrazione, mentre up-regola geni inibitori del ciclo cellulare. Abbiamo poi confermato a livello funzionale, mediante test in vitro, gli effetti osservati a livello molecolare. Studi di inibizione farmacologica, ci hanno permesso di capire che l’attività inibitoria dell’ATP sulla proliferazione si esplica attraverso l’attivazione del recettore P2X7, mentre i sottotipi recettoriali P2 prevalentemente coinvolti nella regolazione della migrazione sono i recettori P2Y2 e P2Y4. Esperimenti di xenotrapianto, hanno evidenziato che l’esposizione ad ATP e UTP sia dei blasti leucemici sia delle cellule staminali leucemiche CD38-CD34+ diminuisce la loro capacità di homing e di engraftment in vivo. Inoltre, il trattamento farmacologico con ATP, di topi ai quali è stata indotta una leucemia umana, ha diminuito lo sviluppo della leucemia in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Superconduttori bulk in MgB2, ottenuti con tecnologia Mg-RLI brevettata da Edison Spa, sono stati oggetto di un'approfondita analisi in termini di forze di levitazione. Questo studio è stato preliminare per la progettazione di un innovativo sistema di levitazione lineare. I risultati ottenuti sperimentalmente sono stati validati attraverso modelli numerici sviluppati ad hoc. I campioni oggetto dello studio sono tre bulk in MgB2 rappresentativi delle tipiche forme usate nelle applicazioni reali: un disco, un cilindro, una piastra. I bulk sono stati misurati con un sistema di misura per le forze di levitazione realizzato a tale scopo. Un protocollo sperimentale è stato seguito per la caratterizzazione di base, sia in condizioni Field Cooling sia Zero Field Cooling, al quale sono state affiancate prove specifiche come la possibilità di mantenere inalterate le proprietà superconduttive attraverso la giunzione di più campioni con la tecnologia Mg-RLI. Un modello numerico è stato sviluppato per convalidare i risultati sperimentali e per studiare l'elettrodinamica della levitazione. Diverse configurazioni di rotori magnetici sono state accoppiate con un cilindro in MgB2 con lo scopo di valutare la soluzione ottimale; questo tema è stato apporofondito attraverso lo sviluppo di un software di simulazione che può tenere conto sia del numero di magneti sia della presenza di anelli in materiale magneti intercalati fra di essi. Studi analoghi sono stati portati avanti su una piastra di MgB2 per simulare il comportamento di una geometria piana. Un sistema di raffreddamento innovativo basato sull'azoto solido è stato studiato per poterlo accoppiare con un sistema di levitazione. Il criostato progettato è costituito da due dewar, uno dentro l'altro; quello interno ha lo scopo di raffreddare l'MgB2 mentre quello esterno di limitare delle perdite verso l'esterno. Il criopattino così ottenuto è accoppiato in condizioni FC ad una rotaia formata da magneti permanenti in NdFeB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo studio sarà trattato lo sviluppo degli algoritmi genetici, uno strumento di calcolo nato ispirandosi alle leggi Darwiniane sull’evoluzione naturale. Questi algoritmi, le cui basi furono introdotte a partire dagli anni '40, mirano alla risoluzione di una vasta categoria di problemi computazionali utilizzando un approccio differente, basato sulle regole di mutazione e ricombinazione proprie della genetica. Essi permettono infatti di valutare delle soluzioni di partenza e, grazie alle variazioni introdotte dalla modifica casuale o dalla ricombinazione di queste, crearne di nuove nel tentativo di convergere verso soluzioni ottimali. Questo studio si propone come una descrizione di questo strumento, dei suoi sviluppi e delle sue potenzialità in ambito bioingegneristico, focalizzandosi sul suo utilizzo recente nell’ identificazione parametrica di modelli cardiaci.