959 resultados para emissione spontanea,emissione stimolata,schema a quattro livelli,atomi,fotoni,Olografia


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trauma cranico é tra le piú importanti patologie traumatiche. Ogni anno 250 pazienti ogni 100.000 abitanti vengono ricoverati in Italia per un trauma cranico. La mortalitá é di circa 17 casi per 100.000 abitanti per anno. L’Italia si trova in piena “media” Europea considerando l’incidenza media in Europa di 232 casi per 100.000 abitanti ed una mortalitá di 15 casi per 100.000 abitanti. Degli studi hanno indicato come una terapia anticoagulante é uno dei principali fattori di rischio di evolutiviá di una lesione emorragica. Al contrario della terapia anticoagulante, il rischio emorragico correlato ad una terapia antiaggregante é a tutt’oggi ancora in fase di verifica. Il problema risulta rilevante in particolare nella popolazione occidentale in quanto l’impiego degli antiaggreganti é progressivamente sempre piú diffuso. Questo per la politica di prevenzione sostenuta dalle linee guida nazionali e internazionali in termini di prevenzione del rischio cardiovascolare, in particolare nelle fasce di popolazione di etá piú avanzata. Per la prima volta, é stato dimostrato all’ospedale di Forlí[1], su una casistica sufficientemente ampia, che la terapia cronica con antiaggreganti, per la preven- zione del rischio cardiovascolare, puó rivelarsi un significativo fattore di rischio di complicanze emorragiche in un soggetto con trauma cranico, anche di grado lieve. L’ospedale per approfondire e convalidare i risultati della ricerca ha condotto, nell’anno 2009, una nuova indagine. La nuova indagine ha coinvolto oltre l’ospedale di Forlí altri trentuno centri ospedalieri italiani. Questo lavoro di ricerca vuole, insieme ai ricercatori dell’ospedale di Forlí, verificare: “se una terapia con antiaggreganti influenzi l’evolutivitá, in senso peggiorativo, di una lesione emorragica conseguente a trauma cranico lieve - moderato - severo in un soggetto adulto”, grazie ai dati raccolti dai centri ospedalieri nel 2009. Il documento é strutturato in due parti. La prima parte piú teorica, vuole fissare i concetti chiave riguardanti il contesto della ricerca e la metodologia usata per analizzare i dati. Mentre, la seconda parte piú pratica, vuole illustrare il lavoro fatto per rispondere al quesito della ricerca. La prima parte é composta da due capitoli, che sono: • Il capitolo 1: dove sono descritti i seguenti concetti: cos’é un trauma cra- nico, cos’é un farmaco di tipo anticoagulante e cos’é un farmaco di tipo antiaggregante; • Il capitolo 2: dove é descritto cos’é il Data Mining e quali tecniche sono state usate per analizzare i dati. La seconda parte é composta da quattro capitoli, che sono: • Il capitolo 3: dove sono state descritte: la struttura dei dati raccolti dai trentadue centri ospedalieri, la fase di pre-processing e trasformazione dei dati. Inoltre in questo capitolo sono descritti anche gli strumenti utilizzati per analizzare i dati; • Il capitolo 4: dove é stato descritto come é stata eseguita l’analisi esplorativa dei dati. • Il capitolo 5: dove sono descritte le analisi svolte sui dati e soprattutto i risultati che le analisi, grazie alle tecniche di Data Mining, hanno prodotto per rispondere al quesito della ricerca; • Il capitolo 6: dove sono descritte le conclusioni della ricerca. Per una maggiore comprensione del lavoro sono state aggiunte due appendici. La prima tratta del software per data mining Weka, utilizzato per effettuare le analisi. Mentre, la seconda tratta dell’implementazione dei metodi per la creazione degli alberi decisionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi affronta un tema di importanza crescente nell’organizzazione economico-produttiva nel quale assume forte rilevo pure la dimensione giuslavoristica. Nei fenomeni di integrazione delle attività d’impresa, infatti, si verifica in modo sempre più ampio una utilizzazione «indiretta» di forza lavoro, per cui diventa cruciale la questione del trattamento da applicare ai rapporti di lavoro «decentrati» Con un approccio che tiene conto dei risultati delle scienze organizzative, si analizzano anzitutto le modalità tipiche delle esternalizzazioni succedutesi nell’evoluzione economico-organizzativa negli ultimi decenni. Vi è una modalità “primaria” o “perfetta”, nella quale è dedotto ad oggetto un opus, giusta lo schema dell’art. 1655 cod. civ., per cui la dinamica del rapporto obbligatorio è integralmente governata dal contratto; vi è altresì una modalità “secondaria” o “relazionale”, che si manifesta nella forma di organizzazioni integrate allargate alla partecipazione di più imprese. In queste, la lunga durata del vincolo obbligatorio impedisce che il contratto sia ex se capace di prevedere, già nel momento genetico, ogni evenienza che investirà lo svolgimento concreto del rapporto. Per questo le esternalizzazioni “relazionali” sono le più interessanti per il diritto del lavoro: i soggetti economici (decentrante e decentrato) articolano relazioni strutturate e di lungo periodo, in cui si determina una stabile interconnessione tra le varie componenti organizzative, nonché un prolungato utilizzo, ad opera del committente, delle prestazioni rese dai dipendenti del fornitore. Dall’indefinitezza circa l’oggetto delle obbligazioni incombenti a carico del debitore dell’opus o servizio – conseguente alla lunga durata della relazione col committente – si delineano però due diversi scenari del rapporto negoziale: esso può essere retto da solidarietà, partnership collaborativa e condivisione di obiettivi comuni (contractual integration “orizzontale”); oppure può essere informato a dinamiche di potere e di condizionamento verso le imprese decentrate ed i loro prestatori di opere impegnati nell’esecuzione del segmento di attività esternalizzato (contractual integration “gerarchica” o “verticale”).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present study investigates the principles that effect the relationship between voice and movement in performance. The topic stresses a contemporary tendency, which emerges from the work of numerous artits and looks into a research field that has not yet been well explored. The research arises from what I observed and experienced during my performance practical work and what I deepened after theorical studies: expression through movement and voice reflects constant principles. The first two chapters of the former study analyze the compared lines of the inquiry, from a theoretical point of view (interior and exterior voice-movement spatial patterns, and temporal patterns) and a practical point of view referring to body, action and relation. The third one is a survey on 'vocal gesture' as devised by Francesca della Monica, a topic that finds here the first academic investigation, built after nine years sudies with the artist on the oral sources of her teaching. The research is based on practical and theorical sources (especially philosophical studies of Giovanni Piana, Carlo Serra, Merleau-Ponty; performing studies of Grotowski, Laban, Dalcroze, Tomatis; ancient greek philosophy and literature; bodywork tecqniques as Kineseology, Body-mind centering, Alexander, Feldenkrais). The purpose of the study is to theorize, sistematyze and expose clear lines of compared investigation awakening the performer's interest on a central issue of his work and drawing the researcher's attention to make further focusing on the matter. Abstract (Italian) La ricerca va incontro a una tendenza che la contemporaneità pone in risalto con l'opera di numerosi artisti, investigando un campo ancora poco visitato a livello critico. Essa teorizza, sistematizza ed espone le costanti riscontrate nella relazione tra voce e movimento. L'indagine deriva dal presupposto, a me suggerito dalla pratica e dallo scambio con maestri e performer, e qui approfondito e restituito a livello teorico, che nella danza e nel canto, nell'espressione attraverso il movimento o attraverso la voce, si riflettono gli stessi principi. La tesi è articolata in tre capitoli: i primi due sviluppano le linee di indagine comparata, prima da un punto di vista filosofico e poi da un punto di vista pratico, il terzo porta alla luce il concetto di gesto-vocale come inteso da Francesca della Monica, di cui questo studio rappresenta il primo contributo scientifico, aprendo una ricerca nuova agli studi di settore. Il primo capitolo, 'Risonanze', sviluppa le premesse filosofiche della questione, introduce il corpo come veicolo di voce e movimento, affronta il tema del movimento della voce nello spazio interno del corpo e nello spazio di relazione. Legge poi il movimento in termini temporali, secondo i concetti di istante, ritmo, forma e flusso. Il secondo capitolo, 'Costanti', espone le costanti concrete della relazione voce-movimento in riferimento allo spazio interno del corpo, all'azione, allo spazio esterno di relazione. Il terzo capitolo, 'Confini', analizza il gesto vocale, come inteso da Francesca della Monica, concetto sintesi dell'intera ricerca poiché integra, nella sua essenza, il movimento fisico e vocale, restituendo e approfondendo lo spettro di riflessioni emerse nei primi due capitoli. Il gesto vocale, nella sua accezione espressiva, così come il lavoro di Francesca della Monica, è ancora estraneo agli studi di settore e trova in questo studio un primo contributo accademico. Le fonti sono quelle dell'insegnamento orale di Francesca della Monica, che ho seguito per nove anni, fino a desumerne una mia personale sistematizzazione, integrata con altri punti di vista critici. Analizzo i diversi livelli di profondità del gesto vocale scandendo il tema secondo la categoria della relazione: relazioni motorie, relazioni materiche, relazioni spaziali, temporali, compositive e sinestesiche. Le fonti della ricerca sono scaturite da due sorgenti, quella sul campo, e quella della teoria, confluite qui in un unico flusso. Le fonti 'in presa diretta' sono state avvalorate e confrontate con le fonti relative agli studi di settore (in particolare per la filosofia Giovanni Piana, Carlo Serra, Merleau-Ponty, per il teatro, il canto e la danza Grotowski, Laban, Dalcroze, Tomatis) e le bodywork techniques (Kinesiologia, Body-mind centering, metodo Alexander, metodo Feldenkrais). Ampio spazio viene dato alla grecità antica, che propone sull'espressione di voce e movimento un pensiero integrato carico di speculazioni che racchiudono in nuce i principi sviluppati. Lo studio tenta di offrire un livello di lettura idoneo a suscitare l'interesse del performer, e a valere come momento di indagine per lo studioso, che possa da queste basi operare approfondimenti sulle connessioni proposte. L'obiettivo è restituire la conoscenza, intuita in virtù della pratica, elaborata ed arricchita grazie alla teoria, su un nodo fondamentale per gli studi teatrali e recente oggetto di attenzione da parte di critici e artisti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo dell’elaborato risulta l’analisi del rapporto tra atto politico e motivazione politica. Partendo da una ricostruzione storica, l’obiettivo del lavoro è mettere in luce i profili problematici ed i riflessi che l’atto politico – tema apparentemente sopito tanto a livello dottrinale, quanto giurisprudenziale - ricomincia, soprattutto grazie a un certo numero di recenti pronunce dei giudici amministrativi, ad avere, fornendo nuovi spunti di riflessione. Proprio questa nuova tendenza giurisprudenziale, diventa l’oggetto di analisi del terzo capitolo. In esso si esamina il repertorio di casistica giurisprudenziale in materia di atti di alta amministrazione. In breve, tale capitolo viene orientato all’esame di tutte quelle tipologie di atti emergenti dalla valutazione caso per caso effettuata dalla giurisprudenza che, nel tempo, sono state fatte rientrare nel novero degli atti di alta amministrazione, al fine di mettere in evidenza la necessità di un riequilibrio della categoria dell’atto di alta amministrazione, che ormai sembra non apparire più rispondente alla ratio della sua previsione, verso l’emersione di una nuova categoria: il provvedimento amministrativo a motivazione politica. In particolare, si sostiene come non si possano ritenere rientranti tra gli atti di alta amministrazione quegli atti a carattere puntuale a motivazione politica, cioè sorretti da ragioni di fiduciarietà politica, quali, ad esempio, le nomine di carattere fiduciario, strettamente informate dalla contingenza politica. Evidentemente, se tale base giustificativa costituisce la ratio sottesa alla legittimità di tali nomine, non si comprende la ragione per cui l’atto di revoca degli incarichi derivanti da tali nomine sia sottoposto ad un sindacato di ragionevolezza cui sfugge la nomina stessa da cui origina. Ed allora non può non ammettersi che anche l’atto di revoca possa essere sorretto da una motivazione politica perché, altrimenti, perderebbe ragione d’essere anche la nomina stessa. La corrispondenza di disciplina tra nomina e revoca si renderebbe necessaria in quanto, in caso contrario, risulterebbero vanificate fin dall’inizio le esigenze garantiste da assicurare ai singoli e si rischierebbe di bloccare il corretto esercizio della funzione di governo. Si propone, allora, la prospettazione della nuova categoria del provvedimento amministrativo a motivazione politica come quella categoria che, contraddistinta dal carattere della fiduciarietà, venga in soccorso agli organi politici per un recupero effettivo del loro ruolo senza impingere con le esigenze di tutela dei singoli. L’ultimo capitolo della tesi, quindi, si incentra su “Il provvedimento a motivazione politica: una nuova categoria della politicità”. Si tenta di ricostruirne il particolare regime di disciplina, mettendo in evidenza i limiti e le deroghe alle previsioni della l. n. 241/1990, nonchè la peculiarietà di ritenere integrato il requisito della motivazione nella forma del “venir meno della fiducia”. Scopo dell’ultima parte del lavoro diviene, quindi, quello di comprendere quale volto assume la politicità degli atti nell’ordinamento contemporaneo. Si ipotizzano, infatti, tre facce della politicità degli atti, dislocate su tre diversi livelli: atto politico, atto di alta amministrazione e provvedimento amministrativo a motivazione politica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mia attività di tesi è stata svolta presso CEFLA Dental Group di Imola (BO). Essa ha trattato lo studio e il re-engineering del sistema attuale di imballaggio dei riuniti odontoiatrici ( vedi CAP 2 ),ponendo particolare attenzione all’utilizzo di materiali ecosostenibili e alla riduzione di tempi e costi. Il mio lavoro è stato suddiviso in quattro fasi ben distinte: la prima, all’interno dell’area produttiva, è servita per analizzare in dettaglio le varie fasi di montaggio dei gruppi e sottogruppi di alcuni modelli di riuniti dentali scelti come riferimento. A seguire, affiancato a operatori specializzati, ho assistito alle operazioni di imballaggio, stoccaggio in magazzino e carico. Nella seconda fase, ho raccolto anche una serie di informazioni utili all’analisi, tra cui i costi dei vari elementi dell’imballo, i tempi necessari all’operatore e infine lo storico dei reclami degli ultimi anni. Ho poi selezionato gli aspetti critici più ricorrenti. Durante la terza fase, ho eseguito la vera e propria analisi, proponendo alcune soluzioni di miglioramento. Infine nell’ultima fase ho valutato economicamente le varie soluzioni ipotizzate, focalizzandomi inoltre sui tempi di manodopera.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema affrontato nel lavoro riguarda l'allocazione della spesa tra gruppi di beni alimentari (domestici ed extra-domestici) e le modificazioni che tale allocazione ha subito nell’arco dell’ultimo decennio. L’obiettivo principale dell'analisi proposta è, quindi, di spiegare come variazioni della quota di spesa destinata alle componenti del consumo alimentare siano attribuibili a fattori strettamente economici, oltre che alle caratteristiche struttura socio-demografiche dei consumatori. Allo scopo di valutare l’allocazione inter-temporale della spesa individuale viene proposto come schema di analisi il sistema di domanda Almost Ideal di Deaton e Muellbauer (AIDS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione ed implementazione di una strategia di migrazione da IPv4 a IPv6 in una realtà complessa come quella del consorzio interuniversitario CINECA. Sono stati presi in considerazione sia i livelli di rete e trasporto, sia il livello applicativo, cercando di fornire una visione completa delle problematiche incontrate. La strategia di migrazione scelta comprende le scelte tecniche fino ad ora implementate dal CINECA e i successivi passi che verranno intrapresi in futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversi studi presenti in letteratura hanno messo in evidenza come il sistema di filtrazione di un olio extravergine di oliva rivesta un ruolo importante per una corretta conservazione del prodotto nel tempo; contestualmente, l’applicazione di metodi tradizionali di trattamento comporta la diminuzione di alcuni componenti minori: oltre all’allontanamento dei composti in sospensione, che concorrono a fornire l’aspetto torbido all’olio non trattato, viene allontanata acqua micro dispersa, che ha l’importante compito di solubilizzare molecole dotate di una certa polarità, principalmente fenoliche che, come noto, risultano indispensabili per la stabilità ossidativa e giocano un ruolo chiave nell’impartire all’olio extravergine di oliva alcune note sensoriali peculiari, quali l’amaro ed il piccante, percepibili in fase gustativa. Lo scopo di questo progetto sperimentale è stato di valutare la qualità chimica e sensoriale di tre oli extra vergini di oliva sottoposti ad un sistema brevettato di illimpidimento, basato sul passaggio di un flusso di gas inerte, quale l’argon, nella massa di olio d'oliva. Questo metodo può rappresentare una valida alternativa ai trattamenti tradizionali e per questo è indispensabile valutarne i punti di forza e di debolezza in relazione all’effettiva possibilità di impiego nella produzione industriale. Per questa finalità, il sistema brevettato dall'Università di Bologna e dalla Sapio (una società privata che fornisce il gas per i settori industriali e della ricerca) è stato applicato a un lotto di 50 L di ciascun olio dopo la sua produzione mediante mini-frantoio. I campioni, sia trattati che controllo, sono stati imbottigliati e conservati a temperatura ambiente e mantenuti al buio prima dell'analisi. Dopo quattro mesi di conservazione, sono stati valutati gli indici di qualità di base, tra cui acidità libera, numero di perossidi, assorbimento specifico nella zona dei dieni e trieni coniugati e il profilo sensoriale. Inoltre è stata valutata la stabilità ossidativa in condizioni forzate, il profilo dei composti maggioritari (acidi grassi) e dei composti minori (tocoferoli, fenoli, volatili, acqua). I risultati sono stati utilizzati per la comparazione della qualità complessiva degli oli extravergini di oliva sottoposti a chiarifica con sistema brevettato rispetto a quelli non trattati, permettendo una valutazione dell’effetto del nuovo sistema sulle caratteristiche chimiche e sensoriali del prodotto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.