992 resultados para Modello ad Attori, Programmazione Concorrente, Scambio Asincrono di Messaggi, AXUM, .NET Framework
Resumo:
Nel seguente elaborato si propone lo sviluppo di un modello agli elementi finiti (FEM) del processo di friction welding del quale, attraverso i dati rilevati da prove sperimentali di validazione termica, vengono valutati i parametri ottimali di simulazione. Ai risultati così ottenuti vengono applicati anche algoritmi per la valutazione della microstruttura e della qualità della saldatura, sviluppati originariamente per l'analisi dell'estrusione: in entrambi i casi a seguito del confronto con le analisi metallografiche dei provini è stato possibile validare ulteriormente il modello creato.
Resumo:
Studio e realizzazione di un modello dinamico, in Simulink, del sistema propulsivo di un aeromodello, dotato di un autopilota e di un'elettronica di bordo. Tali caratteristiche consentono al drone di effettuare delle operazioni di volo in piena autonomia.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Questa tesi nasce con l’intento di indagare il rapporto tra l’interpretazione di conferenza e il mondo del volontariato, nonché di esplorare le dinamiche personali e professionali che originano da tale incontro. Nel primo capitolo viene presentata una cornice storica del fenomeno del volontariato quale premessa del suo emergere e imporsi sia a livello sociale e culturale, che a livello legislativo e giuridico. Nel secondo capitolo di questo studio si propone un breve quadro della situazione italiana odierna a partire dall’ultimo Censimento Istat sulle istituzioni non profit. In seguito, si presentano i caratteri strutturali dell’attività di volontariato così come individuati dalla legge-quadro sul volontariato, per passare poi ad indagare la natura giuridica dell’attività di volontariato con l’intento di collocarla all’interno di schemi qualificatori che assicurino la più adeguata tutela degli interessi del volontario e del beneficiario. Il terzo capitolo presenta l’indagine sperimentale condotta su un campione di interpreti di conferenza professionisti al fine di analizzare l’attività pro bono eventualmente svolta a partire da fattori come il tempo dedicato al volontariato, la natura delle motivazioni, i rapporti con le organizzazioni per le quali prestano i propri servizi. Viene presentata, inoltre, l’attività organizzata degli interpreti volontari tramite una disamina di alcune associazioni di interpreti pro bono attive a livello internazionale, nonché l’opinione delle associazioni di interpreti riguardo all’attività pro bono dei propri membri. Per ultimo, ci si soffermerà sulle difficoltà e i limiti che ostacolano lo svolgimento dell’interpretazione pro bono e che costituiscono, in pratica, la fonte delle critiche mosse nei suoi confronti dagli interpreti e dalle associazioni di interpreti. A tale scopo, verrà presentato, a titolo esemplificativo, il caso del Forum Sociale Mondiale tenutosi a Porto Alegre nel 2005.
Resumo:
Educare le nuove generazioni all'uso consapevole del web è un'attività di notevole importanza, visto l'utilizzo sempre più intenso che la società contemporanea fa di questo insieme numeroso e variegato di tecnologie, identificato dalla parola "rete''. La rete quindi non è più paragonabile soltanto a un luogo virtuale da visitare ma quasi ad un'"atmosfera" che circonda la realtà stessa, rendendo costantemente vicine possibilità e preoccupazioni sempre nuove. Gli utenti della rete, siano essi "nativi" o "immigrati", si trovano a contatto con questo ambiente mutevole e rapidissimo e ne apprendono regole e usi, riportandoli a volte anche sulla realtà, con maggiore o minore disinvoltura. Le giovani generazioni sono particolarmente permeabili a questo tipo di apprendimento e dimostrano sempre maggiore affinità con lo strumento web, a volte rischiando di confondere il virtuale con il reale. La deriva valoriale e ideologica della società europea ed italiana lascia però dei vuoti che vengono spesso colmati dalle relazioni che sono loro più prossime. Anche quelle on the cloud, nel bene e nel male. Il rischio di scambiare il mezzo con il fine, poi, è sempre presente. La sfida per il sistema educativo, familiare, sociale, è dimostrarsi attento, essere aggiornato sulle tecnologie, è saper valutare attentamente, saper discernere e riconoscere le opere dai loro frutti, per poter condividere l'esperienza umana in tutti i suoi aspetti con coloro che, più di tutti, vanno in cerca di risposte profonde alle loro domande. Non bisogna aver paura di mettersi in gioco, talvolta anche di rischiare, perché la posta in gioco è altissima, è in gioco lo stesso rapporto di scambio e di fiducia tra generazioni differenti. Le maglie delle nostra "rete" di relazioni, di rapporti, di comunicazione, crescono sempre di numero, ma non bisogna promuovere la sola quantità a scapito della qualità della loro sostanza, soprattutto nel caso degli adolescenti. Concludendo, ritengo che nell'educazione al web siano fondamentali: l'attenzione, l'ascolto reciproco, la cura dei dettagli e l'attenzione al rispetto delle regole. La precisione del controllo, il senso del limite e il valore prospettico delle aspettative sono strumenti imprescindibili per costruire giorno dopo giorno una "rete" formata per le persone e non soltanto delle persone formate per la rete.
Resumo:
La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.
Resumo:
In questo elaborato si descrive l'emergente approccio alle reti, il Software Defined Network, ed i suoi benefici. Successivamente viene preso in considerazione un importante componente di questa nuova architettura: il protocollo OpenFlow; si spiega che cos'è e si elencano i benefici che può apportare ad un'architettura SDN a sostegno di questi vengono mostrati quattro differenti casi d'uso di OF, comparati poi ad altri scenari equivalenti che non usano questo protocollo. Infine si è pensato ad alcuni possibili studi e sviluppi circa quest'architettura.
Resumo:
MATERIALI E METODI: Tra il 2012 e il 2013, abbiamo analizzato in uno studio prospettico i dati di 48 pazienti sottoposti a ThuLEP con approccio autodidatta. I pazienti sono stati rivalutati a 3, 6, 12 e 24 mesi con la valutazione del PSA, il residuo post-minzionale (RPM), l'uroflussometria (Qmax), l'ecografia transrettale e questionari validati (IPSS: international prostate symptom score e QoL: quality of life) RISULTATI: Il volume medio della prostata è di 63 ± 5,3 ml. Il tempo operatorio medio è stato di 127,58 ± 28.50 minuti. Il peso medio del tessuto asportato è stato di 30,40 ± 13,90 gr. A 6 mesi dopo l'intervento l'RPM medio è diminuito da 165,13 ± 80,15 ml a 7,78 ± 29.19 ml, mentre il Qmax medio è aumentato da 5.75 ± 1.67ml / s a 18.1 ± 5.27 ml / s. I valori medi dei IPSS e QoL hanno dimostrato un progressivo miglioramento: da 19.15 (IQR: 2-31) e 4 (IQR: 1-6) nel preoperatorio a 6.04 (IQR: 1-20) e 1.13 (IQR: 1-4), rispettivamente. Durante la curva di apprendimento si è assistito ad un progressivo aumento del peso del tessuto enucleato e ad una progressiva riduzione del tempo di ospedalizzazione e di cateterismo. Tra le principali complicanze ricordiamo un tasso di incontinenza transitoria del 12,5% a 3 mesi e del 2.1% a 12 mesi. CONCLUSIONI: ThuLEP rappresenta una tecnica chirurgica efficace, sicura e riproducibile indipendentemente dalle dimensioni della prostata. I nostri dati suggeriscono che la ThuLEP offre un miglioramento significativo dei parametri funzionali comparabili con le tecniche tradizionali, nonostante una lunga curva di apprendimento.
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.
Resumo:
Durante l'Impero di Caterina II di Russia, nel 1794 gli artisti, architetti, pittori, operai italiani furono invitati a fondare la città di Odessa. Avviarono un processo di colonizzazione basato sulla divulgazione della cultura italiana, della sua cucina, della sua architettura, e gettando le fondamenta per un'economia marittima e portuale basata su import-export in tutta Europa. In questa ricerca si analizzano tutti i passaggi che portarono la città sul Mar Nero ad essere considerata un centro rappresentativo di italianità e europeità.
Resumo:
Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.
Resumo:
La presente tesi ha riguardato lo studio numerico con un modello 3D dell' interazione tra lo scavo di una galleria urbana e un edificio esistente in muratura, la Stazione di Ferrara Porta Reno (risalente ai primi del '900). A tale scopo è stato utilizzato il programma di calcolo agli elementi finiti Plaxis 3D. Nello studio numerico, per il terreno è stato adottato un modello costitutivo avanzato elasto-plastico con incrudimento isotropo, l’Hardening soil model with small strain stiffness, mentre per la muratura e stato utilizzato il criterio di Mohr-Coulomb. Inoltre, lo scavo della galleria è stato simulato con una procedura per passi, tenendo in conto i principali aspetti del processo. La subsidenza in superficie è stata controllata applicando una contrazione fittizia lungo lo scudo. E’ stata svolta un'analisi numerica in condizione di campo libero, ossia in assenza di strutture, al fine di valutare i movimenti del terreno indotti dal processo di scavo; successivamente sono state eseguite diverse analisi accoppiate, in condizioni di simmetria e con eccentricità della costruzione rispetto all'asse della galleria, per studiare il complesso fenomeno di interazione galleria-terreno-struttura. I risultati di tali analisi accoppiate sono stati utilizzati per effettuare una stima del livello di danno atteso per l'edificio. Le analisi numeriche condotte hanno messo in luce, confermando quanto già noto in letteratura, che la presenza di un edificio a piano campagna interagente con l’opera di scavo modifica la forma del profilo dei cedimenti relativa alle condizioni di campo libero. Tale modifica, che dipende dalle specifiche caratteristiche di rigidezza e peso della struttura presa in esame, generalmente si traduce in una riduzione del cedimento differenziale che può influenzare in modo significativo la stima del danno sull’edificio. Ciò è tanto più evidente, quanto maggiore è la perdita di volume indotta dallo scavo della galleria.
Resumo:
«I felt that the time had come to have a fresh look at the European VAT system. There were indeed a number of reasons which in my view justified taking this step»: da queste parole del Commissario Europeo Algirdas Šemeta trae ispirazione tale ricerca che ha l’obiettivo di ripercorrere, in primo luogo, le ragioni che hanno portato alla creazione di una imposta comunitaria plurifase sui consumi, ed in secondo luogo, i motivi per cui oggi è necessario un ripensamento sul tema. Le spinte ammodernatrici provengono anche dagli stessi organismi europei, che sono impegnati da anni in discussioni con gli Stati membri per arrivare alla definizione di una normativa che riesca a disegnare un sistema snello ed efficiente. Il primo importante passo in tale direzione è stato effettuato dalla stessa Commissione europea nel 2010 con l’elaborazione del Libro Verde sul futuro dell’IVA, in cui vengono evidenziati i profili critici del sistema e le possibili proposte di riforma. L’obiettivo di dare origine ad un EU VAT SYSTEM in grado di rendere la tassazione più semplice, efficace, neutrale ed anti frode. In questo lavoro si intendono sottolineare i principali elementi critici della normativa IVA comunitaria, ideando anche le modifiche che potrebbero migliorarli, al fine di creare un’ipotesi normativa capace di essere un modello ispiratore per la modifica del sistema di imposizione indiretta esistente nella Repubblica di San Marino che ad oggi si trova a doversi confrontare con una imposta monofase alle importazioni anch’essa, come l’IVA, oramai in crisi.
Resumo:
Scegliere di consumare in modo sostenibile significa passare ad un nuovo modello di consumo. Tale modello richiede una maggiore consapevolezza e responsabilità da parte dei consumatori, unite all'adozione di nuovi stili di vita e di scelte d’acquisto, che permettano il raggiungimento di elevati livelli di benessere nel rispetto dell'ambiente. Un notevole sforzo è stato compiuto recentemente dai policy maker per incoraggiare il consumo sostenibile quali implementazioni dello sviluppo sostenibile. Ancora lunga, tuttavia, è la strada da percorrere per raggiungere pienamente questo obiettivo. Tra i prodotti sostenibili, il biologico si è rivelato di gran lunga il più rappresentativo: le statistiche di questo mercato mostrano, infatti, tendenze positive, sebbene il consumo risulti ancora eterogeneo e contenuto rispetto al consumo di alimenti convenzionali. Ciò mostra che il comportamento dei consumatori non è ancora abbastanza reattivo alle suddette politiche. Il presente studio si propone di contribuire alla ricerca sul consumo sostenibile approfondendo i fattori che incoraggiano o impediscono il consumo di prodotti alimentari biologici in Italia. Adottando un nuovo approccio si cerca di capire come i diversi segmenti di diete alimentari affrontino gli alimenti biologici in termini di consumi e di atteggiamenti. Un'analisi multivariata a più fasi è stata condotta su un campione di 3.004 consumatori. Un’analisi delle componenti principali non lineare è stata applicata alle variabili ordinali che misurano il consumo di ventuno categorie di alimenti. Successivamente è stata applicata la cluster analysis che ha dato luogo a quattro segmenti di abitudini alimentari. I prodotti biologici sono diventati parte delle abitudini alimentari in Italia in quasi un terzo della popolazione. Il consumo sembra essersi affermato soprattutto nel segmento con abitudini alimentari sane. Una scarsa attenzione ad una dieta sana, gli stili di vita, il reddito, l'accessibilità, la mancanza di consapevolezza condizionano le abitudini alimentari a scapito di un consumo più sostenibile.
Resumo:
Lo scritto ha l’obiettivo di definire dinamiche e cronologie di quel complesso processo espansionistico che portò Roma alla conquista dei territori dell’Ager Gallicus, partendo dall’analisi dettagliata della cultura materiale e dei rispettivi contesti di provenienza emersi dalle recenti indagini archeologiche realizzate dal Dipartimento di Storia Culture Civiltà dell’Università degli Studi di Bologna nella città di Senigallia. In armonia con quanto testimoniato dalle sequenze stratigrafiche documentate, si delineano quattro principali fasi di vita dell’abitato: la prima preromana, la seconda riferibile alla prima fase di romanizzazione del sito, la terza inerente allo sviluppo dell’insediamento con la fondazione della colonia romana e l’ultima riferibile all’età repubblicana. Emerge con chiarezza la presenza già dalla fine del IV-inizio III a.C., di un insediamento romano nel territorio della città, sviluppatosi con la fondazione di un’area sacra e la predisposizione di un’area produttiva. La scelta del sito di Sena Gallica fu strategica: un territorio idoneo allo sfruttamento agricolo e utile come testa di ponte per la conquista dei territori del Nord Italia. Inoltre, questo centro aveva già intrecciato rapporti commerciali con gli insediamenti costieri adriatici e mediterranei. La presenza di ceramica di produzione locale, il rinvenimento di elementi distanziatori e le caratteristiche geomorfologiche del sito, fanno ipotizzare la presenza in loco di un’officina ceramica. Ciò risulta di grande importanza dato che tutte le attestazioni ceramiche prodotte localmente e rinvenute nel territorio, fino ad oggi sono attribuite alle officine di Aesis e Ariminum. Dunque Sena Gallica sarebbe stata un centro commerciale e produttivo. La precoce presenza di ceramica a Vernice Nera di tipo romano-laziale prodotte localmente prima dell’istituzione ufficiale della colonia, che permette di ipotizzare uno stanziamento di piccoli gruppi di Romani in territori appena conquistati ma non ancora colonizzati, attestata a Sena Gallica, trova riscontro anche in altri centri adriatici come Ariminum, Aesis, Pisaurum, Suasa e Cattolica.