969 resultados para Squalo di profondità, biologia riproduttiva, taglia prima maturità, dieta.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the early 1970 the community has started to realize that have as a main principle the industry one, with the oblivion of the people and health conditions and of the world in general, it could not be a guideline principle. The sea, as an energy source, has the characteristic of offering different types of exploitation, in this project the focus is on the wave energy. Over the last 15 years the Countries interested in the renewable energies grew. Therefore many devices have came out, first in the world of research, then in the commercial one; these converters are able to achieve an energy transformation into electrical energy. The purpose of this work is to analyze the efficiency of a new wave energy converter, called WavePiston, with the aim of determine the feasibility of its actual application in different wave conditions: from the energy sea state of the North Sea, to the more quiet of the Mediterranean Sea. The evaluation of the WavePiston is based on the experimental investigation conducted at the University of Aalborg, in Denmark; and on a numerical modelling of the device in question, to ascertain its efficiency regardless the laboratory results. The numerical model is able to predict the laboratory condition, but it is not yet a model which can be used for any installation, in fact no mooring or economical aspect are included yet. È dai primi anni del 1970 che si è iniziato a capire che il solo principio dell’industria con l’incuranza delle condizioni salutari delle persone e del mondo in generale non poteva essere un principio guida. Il mare, come fonte energetica, ha la caratteristica di offrire diverse tipologie di sfruttamento, in questo progetto è stata analizzata l’energia da onda. Negli ultimi 15 anni sono stati sempre più in aumento i Paesi interessati in questo ambito e di conseguenza, si sono affacciati, prima nel mondo della ricerca, poi in quello commerciale, sempre più dispositivi atti a realizzare questa trasformazione energetica. Di tali convertitori di energia ondosa ne esistono diverse classificazioni. Scopo di tale lavoro è analizzare l’efficienza di un nuovo convertitore di energia ondosa, chiamato WavePiston, al fine si stabilire la fattibilità di una sua reale applicazione in diverse condizioni ondose: dalle più energetiche del Mare del Nord, alle più quiete del Mar Mediterraneo. La valutazione sul WavePiston è basata sullo studio sperimentale condotto nell’Università di Aalborg, in Danimarca; e su di una modellazione numerica del dispositivo stesso, al fine di conoscerne l’efficienza a prescindere dalla possibilità di avere risultati di laboratorio. Il modello numerico è in grado di predirre le condizioni di laboratorio, ma non considera ancora elementi come gli ancoraggi o valutazione dei costi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro tratta l’applicazione di due progetti di Reengineering, in un caso l’obiettivo era quello di ottimizzare il processo di fatturazione passiva di un’azienda operante nel settore della ceramica, nell’altro quello di supportare un Gruppo, operante nel settore logistico, nella valutare l’opportunità di accentramento dei servizi ICT, mitigando gli impatti derivati dai possibili cambiamenti. Questo lavoro è stato preparato durante un periodo di Stage della durata di sei mesi effettuato presso la società di consulenza Revision SRL. Nella prima parte della tesi, attraverso un’analisi della letteratura di riferimento, si sono indagati i principali fattori che interagiscono in un processo di Change management, si è anche effettuato un approfondimento delle tematiche di Business Process Reengineering, i cui principi hanno guidato l’intervento effettuato. La ricerca ha teso ad evidenziare da un lato le radici e gli elementi innovativi che contraddistinguono questo approccio metodologico e dall’altro a sottolineare le possibili cause di insuccesso di un progetto di BPR. La sezione si conclude con la formalizzazione delle metodologia e degli strumenti utilizzati nella conduzione dei progetti. Nella seconda parte del lavoro, insieme alla descrizione del primo caso vengono presentate le varie fasi della riprogettazione, dalla analisi della situazione iniziale, effettuata tramite un questionario e delle interviste dirette al personale addetto, alla identificazione delle criticità, fino alla presentazione e alla valutazione delle nuove configurazioni del processo. Il lavoro è arricchito dall’analisi e dall’applicazione delle tecnologie informatiche/informative di supporto alla nuova configurazione descritta. Nella terza parte, a completamento dell’elaborato, viene presentato il secondo progetto analizzato dove, dopo una fase di analisi della situazione iniziale ancora tramite questionario ed interviste dirette, si riportano le considerazioni fatte in merito alla possibilità di accentramento dei servizi ICT del gruppo analizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

UN DISEGNO IN EVOLUZIONE Lungo la via Emilia, a pochi chilometri da Bologna, tra i centri abitati di Osteria Grande ad est e Maggio ad ovest, sorge l’area archeologica della città di Claterna. L’area, soggetta a vincolo archeologico diretto, si trova nelle vicinanze di alcuni ambiti collinari di particolare interesse paesaggistico e ambientale, come il Parco dei Gessi Bolognesi e i Calanchi dell’Abbadessa. Si presenta come una sconfinata piana, un tappeto verde che crea un continuo con l’Appennino che le cresce alle spalle, facendole da sfondo. In questo spazio sconfinato, privo di elementi antropici, la vista si perde senza trovare elementi fissi che lo identificano. Il tempo in questo lembo di verde si è fermato, arrestato a quel preciso istante, come uno scatto fotografico che immortala per sempre quel esatto momento, quasi per tutelare e farci pervenire la conoscenza racchiusa in quei pochi centimetri di profondità. Oggi dei numerosi scavi effettuati solo tre sono lasciati aperti: due a nord della via statale ed uno a sud. Due ci proiettano nel mondo domestico della domus, che con i suoi tanti ambienti ricchi di pavimentazioni mosaicate di varie fatture, articolava la complessità dei rapporti umani, mentre il terzo su quello pubblico della strada, in particolar modo l’incrocio cardo massimo e via Aemilia, dove sono ben visibili i solchi del passaggio dei carri. Proprio la difficoltà a leggere il contenuto nascosto del messaggio che la terra ha custodito tanto gelosamente, ha fatto scattare una molla all’interno del nostro gruppo, facendo nascere in noi la volontà, oltre a proteggere e a coprire gli scavi aperti, di facilitare la lettura andando ad evidenziare tutte le conoscenze acquisite, senza però creare elementi disturbatori, che potrebbero essere fraintesi dai visitatori e pertanto dare un’errata lettura dell’insediamento romano di Claterna. La volontà di non intaccare le poche tracce conosciute dell’impianto, ci ha condotti a cercare un approccio il meno invasivo possibile, dove gli unici elementi che devono prendere vita sono le impronte archeologiche. L’incompletezza e la frammentarietà delle impronte archeologiche note, ci ha condotti nella ricerca di un sistema di approccio che tenesse conto del fatto che questa è un’area ancora per la maggior parte da conoscere e da scavare. Dopo aver preso coscienza delle necessità, si è cercato di trovare il modo di organizzare nell’area tutte le funzioni richieste in un territorio tanto delicato come quello di un sito archeologico. Restando ferma la volontà, alla base del progetto, di costruire solo dove strettamente necessario, si è deciso di creare un parco pubblico liberamente fruibile. All’interno di questo parco alcuni strumenti, sempre di carattere naturale come piante o gabbioni riempiti di pietra locale aiutano nella rappresentazione e comprensione del sito archeologico. Proprio questi strumenti costituiscono l’elemento di congiunzione tra il parco pubblico destinato allo svago e quello archeologico destinato alla conoscenza della città romana. All’interno del parco si è andato a costruire solo dove vi era la necessità di proteggere e far meglio comprendere al visitatore gli scavi che non sono stati ritombati e si è cercato di rispondere a questa necessità compromettendo il meno possibile i resti romani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con la crescente diffusione del web e dei servizi informatici offerti via internet, è aumentato in questi anni l’utilizzo dei data center e conseguentemente, il consumo di energia elettrica degli stessi. Il problema ambientale che comporta l’alto fabbisogno energetico, porta gli operatori di data center ad utilizzare tecniche a basso consumo e sistemi efficienti. Organizzazioni ambientali hanno rilevato che nel 2011 i consumi derivanti dai data center raggiungeranno i 100 milioni di kWh, con un costo complessivo di 7,4 milioni di dollari nei soli Stati Uniti, con una proiezione simile anche a livello globale. La seguente tesi intende valutare le tecniche in uso per diminuire il consumo energetico nei data center, e quali tecniche vengono maggiormente utilizzate per questo scopo. Innanzitutto si comincerà da una panoramica sui data center, per capire il loro funzionamento e per mostrare quali sono i componenti fondamentali che lo costituiscono; successivamente si mostrerà quali sono le parti che incidono maggiormente nei consumi, e come si devono effettuare le misurazioni per avere dei valori affidabili attraverso la rilevazione del PUE, unità di misura che valuta l’efficienza di un data center. Dal terzo capitolo si elencheranno le varie tecniche esistenti e in uso per risolvere il problema dell’efficienza energetica, mostrando alla fine una breve analisi sui metodi che hanno utilizzato le maggiori imprese del settore per risolvere il problema dei consumi nei loro data center. Lo scopo di questo elaborato è quello di capire quali sono le tecniche e le strategie per poter ridurre i consumi e aumentare l’efficienza energetica dei data center.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi, sviluppato nell’arco di sei mesi presso l’Institut Supérieur Industriel de Bruxelles (ISIB) in collaborazione con Ion Beam Application Group (IBA, Louvain la Neuve), ha come principale soggetto lo studio della risposta del rem meter WENDI-2 commercializzato da Thermo Scientific. Lo studio si è basato principalmente sull’uso del codice Monte Carlo MCNPX 2.5.0, simulando la risposta del detector sia in caso di campi di radiazione neutronica monoenergetici sia in corrispondenza di spettri neutronici continui. La prima fase è stata dedicata alla modellizzazione MCNPX del rem counter, consentendo così la valutazione della sua funzione risposta. Questa è stata ricostruita interpolando 93 punti, ciascuno calcolato in corrispondenza di un singolo valore di energia di una sorgente puntiforme, compreso tra 1 meV e 5 GeV. In tal caso è stata rilevata un’ottima corrispondenza tra i risultati ottenuti e quelli riportati nella letteratura scientifica esistente. In una seconda fase, al fine di ottenere informazioni sulla risposta di WENDI II in corrispondenza di campi complessi di radiazione, simulazioni MCNPX sono state realizzate riproducendo un ambiente di lavoro esistente presso la sede IBA di Louvain la Neuve: la risposta del detector è stata valutata in corrispondenza di 9 diverse posizioni all’interno di un bunker contenente un ciclotrone PET (18 MeV H-), implicando la rilevazione di campi di radiazione neutronica continui ed estesi dalle energie termiche fino a 18 MeV. I risultati ottenuti sono stati infine comparati con i valori di dose ambiente equivalente calcolata nelle stesse condizioni di irraggiamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tema della ricerca ha riguardato preliminarmente la definizione di farmaco descritta nel d.lgs. n. 219 del 2006 (Codice dei farmaci per uso umano). Oltre al danno prodotto da farmaci, la ricerca ha approfondito anche la tutela ex ante ed ex post riguardante la produzione di dispositivi medici (Direttiva della Comunità Economica Europea n. 42 del 1993 e Direttiva della Comunità Economica Europea n. 374 del 1985). E’ stato necessario soffermarsi sull’analisi del concetto di precauzione per il quale nell’ambito di attività produttive, come quelle che cagionano inquinamento ambientale, o “pericolose per la salute umana” come quelle riguardanti la produzione di alimenti e farmaci, è necessario eliminare i rischi non conosciuti nella produzione di questi ultimi al fine di garantire una tutela completa della salute. L’analisi della Direttiva della Comunità Economica Europea n. 374 del 1985 nei suoi aspetti innovativi ha riguardato l’esame dei casi di danno da farmaco (Trib. Roma, 20 Giugno 2002, Trib. Roma 27 Giugno 1987, Trib. Milano 19 Novembre 1987, Cassazione Civile n. 6241 del 1987): profilo critico è quello riguardante la prova liberatoria, mentre l'art. 2050 prevede che «si debbano adottare tutte le misure necessarie per evitare il danno», l'art. 118, lett. e), c. cons.) prevede una serie di casi di esonero di responsabilità del produttore (tra cui il rischio di sviluppo). Dall'analisi emerge poi la necessità da parte del produttore di continuo utilizzo del duty to warn (Art. 117 del Codice del Consumo lett. A e B ): esso consiste nel dovere continuo di informazione del produttore tramite i suoi rappresentanti e il bugiardino presente nelle confezioni dei farmaci. Tale dovere è ancor più importante nel caso della farmacogenetica, infatti, al fine di evitare reazioni avverse nel bugiardino di alcuni farmaci verrà prescritta la necessità di effettuare un test genetico prima dell’assunzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa Tesi aspira a mostrare un codice a livello di pacchetto, che abbia performance molto vicine a quello ottimo, per progetti di comunicazioni Satellitari. L’altro scopo di questa Tesi è quello di capire se rimane ancora molto più difficile maneggiare direttamente gli errori piuttosto che le erasures. Le applicazioni per comunicazioni satellitari ora come ora usano tutte packet erasure coding per codificare e decodificare l’informazione. La struttura dell’erasure decoding è molto semplice, perché abbiamo solamente bisogno di un Cyclic Redundancy Check (CRC) per realizzarla. Il problema nasce quando abbiamo pacchetti di dimensioni medie o piccole (per esempio più piccole di 100 bits) perché in queste situazioni il costo del CRC risulta essere troppo dispendioso. La soluzione la possiamo trovare utilizzando il Vector Symbol Decoding (VSD) per raggiungere le stesse performance degli erasure codes, ma senza la necessità di usare il CRC. Per prima cosa viene fatta una breve introduzione su come è nata e su come si è evoluta la codifica a livello di pacchetto. In seguito è stato introdotto il canale q-ary Symmetric Channel (qSC), con sia la derivazione della sua capacità che quella del suo Random Coding Bound (RCB). VSD è stato poi proposto con la speranza di superare in prestazioni il Verification Based Decoding (VBD) su il canale qSC. Infine, le effettive performance del VSD sono state stimate via simulazioni numeriche. I possibili miglioramenti delle performance, per quanto riguarda il VBD sono state discusse, come anche le possibili applicazioni future. Inoltre abbiamo anche risposto alla domande se è ancora così tanto più difficile maneggiare gli errori piuttosto che le erasure.