542 resultados para Turboalternatore, Guasti, Fatica oligociclica, Affidabilità, Probabilità
Resumo:
Includes bibliographical references.
Resumo:
Spine title: Cantiche.
Resumo:
Mode of access: Internet.
Resumo:
Goldsmiths'-Kress no. 30317.16.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Noveck (2001) argued that children even as old as 11 do not reliably endorse a scalar interpretation of weak scalar terms (some, might, or) (cf. Braine & Rumain, 1981; Smith, 1980). More recent studies suggest, however, that children's apparent failures may depend on the experimental demands (Papafragou & Musolino, 2003). Although previous studies involved children of different ages as well as different tasks, and are thus not directly comparable, nevertheless a common finding is that children do not seem to derive scalar implicatures to the same extent as adults do. The present article describes a series of experiments that were conducted with Italian speaking subjects (children and adults), focusing mainly on the scalar term some. Our goal was to carefully examine the specific conditions that allow the computation of implicatures by children. In so doing, we demonstrate that children as young as 7 (the youngest age of the children who participated in the Noveck study) are able to compute implicatures in experimental conditions that properly satisfy certain contextual prerequisites for deriving such implicatures. We also present further results that have general consequences for the research methodology employed in this area of study. Our research indicates that certain tasks mask children's understanding of scalar terms, not only including the task used by Noveck, but also tasks that employ certain explicit instructions, such as the training task used by Papafragou & Musolino (2003). Our findings indicate further that, although explicit training apparently improves children's ability to draw implicatures, children nevertheless fail to achieve adult levels of performance for most scalar terms even in such tasks, and that the effects of instruction do not last beyond the training session itself for most children. Another relevant finding of the present study is that some of the manipulations of the experimental context have an effect on all subjects, whereas others produce effects on just a subset of children. Individual differences of this kind may have been concealed in previous research because performance by individual subjects was not reported. Our general conclusions are that even young children (7-year olds) have the prerequisites for deriving scalar implicatures, although these abilities are revealed only when the conversational background is natural.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
La prima parte dell’elaborato ripercorre la storia dell’introduzione delle tecnologie all’interno delle istituzioni scolastiche, sia dal punto di vista pratico, sia dal punto di vista legislativo, che ha accompagnato questo ingresso tutt’altro che lineare, a partire dagli anni ’80 fino ai giorni nostri grazie alle ultime introduzioni avvenute con la messa in atto del Piano Nazionale Scuola Digitale. Vengono poi descritti alcuni software utilizzati nelle scuole sia in passato che in tempi più recenti per arrivare agli ultimi sviluppi e agli applicativi online per lo studio della matematica. Infine nell’ultimo capitolo è descritta un’unità didattica riguardante lo studio della probabilità, ideata per gli allievi di una scuola secondaria di secondo grado che utilizza la LIM e alcuni software adeguati all’argomento proposto. Quello che emerge, però, è la difficoltà sia nella diffusione delle tecnologie nella scuola, sia nel loro utilizzo da parte dei docenti. Spesso gli insegnanti non hanno un livello adeguato di formazione in ambito tecnologico e quindi non sono in grado di sfruttare pienamente le potenzialità offerte. Il cammino per arrivare ad una completa formazione del personale docente e per la completa digitalizzazione delle scuole è ancora lungo e tortuoso. Tuttavia è importante ricordare che le tecnologie non possono essere la risposta a tutto, bensì un efficace mezzo per attirare l’attenzione e soprattutto stimolare la fantasia di alunni e docenti. Inoltre non si può pensare alcuna tecnologizzazione senza prima aver posto e consolidato le basi di un qualsivoglia argomento da proporre in classe con l’ausilio di software e hardware.
Resumo:
La Teoria di Densità Funzionale (DFT) e la sua versione dipendente dal tempo (TDDFT) sono strumenti largamente usati per simulare e calcolare le proprietà statiche e dinamiche di sistemi con elettroni interagenti. La precisione del metodo si basa su una serie di approssimazioni degli effetti di exchange correlation fra gli elettroni, descritti da un funzionale della sola densità di carica. Nella presente tesi viene testata l'affidabilità del funzionale Mixed Localization Potential (MLP), una media pesata fra Single Orbital Approximation (SOA) e un potenziale di riferimento, ad esempio Local Density Approximation (LDA). I risultati mostrano capacità simulative superiori a LDA per i sistemi statici (curando anche un limite di LDA noto in letteratura come fractional dissociation) e dei progressi per sistemi dinamici quando si sviluppano correnti di carica. Il livello di localizzazione del sistema, inteso come la capacità di un elettrone di tenere lontani da sé altri elettroni, è descritto dalla funzione Electron Localization Function (ELF). Viene studiato il suo ruolo come guida nella costruzione e ottimizzazione del funzionale MLP.
Resumo:
Il presente elaborato di tesi tratta la valutazione di differenti sistemi di controventatura, sia dal punto di vista di risposta ad un evento sismico che in termini di perdite economiche legate al danneggiamento delle varie componenti. Tra di esse è presentata anche una nuova tipologia strutturale, ideata per ridurre il comportamento “soft-story” e “weak-story”, tipico delle strutture controventate convenzionali. In questo caso, è integrata alla struttura una trave reticolare metallica, che funge da supporto verticale ed è progettata per rimanere in campo elastico. Tale sostegno garantisce una distribuzione più uniforme degli sforzi lungo l’intera altezza della struttura, anziché concentrarli in un unico piano. La ricerca tratta lo studio della fattibilità economica di questa nuova tecnologia, rispetto alle precedenti soluzioni di controventatura adottate, confrontando le perdite economiche delle diverse soluzioni, applicate ad un unico prototipo di edificio collocato a Berkeley, CA. L’analisi sismica tiene in considerazione di tre diversi livelli di intensità, riferiti a un periodo di ritorno di 50 anni, corrispondente alla vita dell’edificio: questi sono caratterizzati dalla probabilità di ricorrenza, rispettivamente del 2%, 10% e 50% ogni 50 anni. L’ambito di ricerca presentato è estremamente innovativo e di primario interesse per lo sviluppo di uno studio sulla resilienza, che può essere adattato anche in un modello di urbanizzazione futura.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
Nel presente elaborato è stato studiato l'effetto prodotto dall'inserimento di interstrati di rinforzo tra strati legati di una pavimentazione. Si è realizzato un confronto tra due pavimentazioni, una rinforzata e l'altra di controllo, mediante il software di calcolo OLCRACK, aventi le medesime caratteristiche geometriche e gli stessi materiali. In questo modo è stato possibile osservare l'effetto della griglia di rinforzo nel contrastare e ritardare il fenomeno del reflective cracking. Parallelamente è stata effettuata un'indagine sperimentale in laboratorio su travetti bi-strato rinforzati con due tipologie differenti di griglie. I risultati hanno evidenziato l'importanza del ricoprimento sulla griglia, poiché i travetti più spessi hanno dato una risposta migliore alla vita a fatica. In più è stata osservata l'importanza della resistenza a trazione della griglia nell'incremento dei cicli a rottura dei provini.
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.