967 resultados para fulminazione indiretta, sovratensione indotta, algoritmo genetico, posizionamento degli scaricatori, rete di distribuzione compatta


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’oggetto di questa tesi è un fenomeno didattico osservato in due valutazioni standardizzate nazionali INVALSI, legato all’atteggiamento degli studenti mentre svolgono task di matematica. L’effetto, che abbiamo denotato effetto “età della Terra”, è stato interpretato in questa ricerca attraverso l’interazione e il confronto di diversi costrutti teorici che spiegano come questo effetto, che può essere considerato come una tipica situazione di contratto didattico, è generato dalla relazione studente-insegnante ma può diventare più strettamente legato al rapporto che hanno gli studenti con la matematica. Inizialmente abbiamo condotto uno studio dei risultati statistici delle valutazioni standardizzate nazionali (Rash Analysis). Il primo step della sperimentazione è consistito nella preparazione, validazione e somministrazione di 612 questionari a studenti di diversi livelli scolastici e basandoci sui risultati dei questionari abbiamo condotto interviste di gruppo. L’analisi quantitativa e qualitativa dei risultati ha confermato la presenza dell’effetto “età della Terra” e ha mostrato che questo effetto è indipendente dal livello scolastico e dall’età degli studenti, dal contenuto matematico e dal contesto dei task proposti. La seconda parte della ricerca è stata volta ad indagare la cause di questo effetto. Abbiamo infatti individuato un principio regolativo che condizione l’azione degli studenti mentre fanno attività matematica e abbiamo condotto molte interviste individuali per indagarlo. Il comportamento degli studenti intervistati è stato così studiato e classificato con i costrutti del quadro teorico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente studio si propone di individuare i doveri e le responsabilità, di tipo risarcitorio, degli amministratori, in particolare degli amministratori della società che esercita attività di direzione e coordinamento, in una situazione di crisi o insolvenza nel gruppo, anche in un’ottica di “prevenzione”, e, più precisamente, il complesso di regole di corretta gestione societaria e imprenditoriale, con le quali il silenzio della legge fallimentare in tema di gruppi di società non può non confrontarsi. In particolare, si indagherà sulla possibilità di individuare nel nostro ordinamento giuridico, nel momento di emersione della crisi, doveri di comportamento in capo agli organi di governo della società o ente che esercita attività di direzione e coordinamento, al fine di fronteggiare la crisi, evitando il peggioramento della stessa, ovvero per un risanamento anticipato e, quindi, più suscettibile di esito positivo, nella prospettiva di tutela dei soci c.d. esterni e dei creditori delle società figlie e, nello stesso tempo, dei soci della capogruppo medesima e, quindi, in una prospettiva più ampia e articolata rispetto a una società individualmente considerata. L’oggetto dell’analisi viene introdotto mediante un inquadramento generale della disciplina in materia di gruppi di società presente nel nostro sistema normativo, con particolare riguardo alla disciplina dell’attività di direzione e coordinamento introdotta dal legislatore della riforma del diritto societario (d.lgs. 17 gennaio 2003, n. 6) con gli artt. 2497 ss. cod. civ.. Nella seconda parte verranno individuati e approfonditi i criteri e i principi dai quali ricavare le regole di governance nei gruppi di società e la relativa responsabilità degli amministratori nelle situazioni di crisi nel gruppo. Sulla scorta delle suddette argomentazioni, nell'ultima parte verranno individuate le regole di gestione nell'ambito del gruppo nel momento di “emersione” della crisi e, in particolare, i possibili “strumenti” che il nostro legislatore offre per fronteggiarla.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’elaborato si occupa di fare il punto in materia di indagini difensive a tre lustri dall’entrata in vigore della legge n. 397/2000, epilogo di un lungo processo evolutivo che ha visto da un lato, una gestazione faticosa e travagliata, dall’altro, un prodotto normativo accolto dagli operatori in un contesto di scetticismo generale. In un panorama normativo e giurisprudenziale in continua evoluzione, i paradigmi dettati dagli artt. 24 e 111 della Costituzione, in tema di diritto alla difesa e di formazione della prova penale secondo il principio del contraddittorio tra le parti, in condizioni di parità, richiedono che il sistema giustizia offra sia all’indagato che all’imputato sufficienti strumenti difensivi. Tenuto conto delle diversità che caratterizzano naturalmente i ruoli dell’accusa e della difesa che impongono asimmetrie genetiche inevitabili, l’obiettivo della ricerca consiste nella disamina degli strumenti idonei a garantire il diritto alla prova della difesa in ogni stato e grado del procedimento, nel tentativo di realizzare compiutamente il principio di parità accusa - difesa nel processo penale. La ricerca si dipana attraverso tre direttrici: l’analisi dello statuto sulle investigazioni difensive nella sua evoluzione storica sino ai giorni nostri, lo studio della prova penale nel sistema americano e, infine, in alcune considerazioni finali espresse in chiave comparatistica. Le suggestioni proposte sono caratterizzate da un denominatore comune, ovvero dal presupposto che per contraddire è necessario conoscere e che solo per tale via sia possibile, finalmente, riconoscere il diritto di difendersi indagando.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La detenzione amministrativa degli stranieri, pur condividendo il carattere tipicamente afflittivo e stigmatizzante delle pene, non si fonda sulla commissione di un reato e non gode delle medesime garanzie previste dal sistema della giustizia penale. Nel nostro ordinamento l’inadeguatezza della legislazione, l’ampio margine di discrezionalità rimesso all’autorità di pubblica sicurezza, nonché il debole potere di sindacato giurisdizionale rimesso all’autorità giudiziaria, raggiungono il loro apice problematico nell’ambito delle pratiche di privazione della libertà personale che hanno per destinatari gli stranieri maggiormente vulnerabili, ossia quelli appena giunti sul territorio e il cui status giuridico non è ancora stato accertato (c.d. situazione di pre-admittance). E’ proprio sulla loro condizione che il presente lavoro si focalizza maggiormente. Le detenzioni de facto degli stranieri in condizione di pre-admittance sono analizzate, nel primo capitolo, a partire dal “caso Lampedusa”, descritto alla luce dell’indagine sul campo condotta dall’Autrice. Nel secondo capitolo viene ricostruito lo statuto della libertà personale dello straniero sulla base dei principi costituzionali e, nel terzo capitolo, sono analizzati i principi che informano il diritto alla libertà personale nell’ambito delle fonti sovranazionali, con particolare riferimento al diritto dell’Unione Europea e al sistema della Convenzione Europea dei Diritti dell’Uomo. Sulla scorta dei principi indagati, nel quarto capitolo è tracciata l’evoluzione legislativa in materia di detenzione amministrativa dello straniero in Italia e, nel quinto capitolo, è approfondito il tema dei Centri dell’immigrazione e delle regole che li disciplinano. Nelle conclusioni, infine, sono tirate le fila del percorso tracciato, attraverso la valutazione degli strumenti di tutela in grado di prevenire le pratiche di privazione della libertà informali e di garantire uno standard minimo nella tutela della libertà individuale, anche nelle zone di frontiera del nostro ordinamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'imposta sul valore aggiunto è caratterizzata da un meccanismo applicativo complesso preordinato al raggiungimento della neutralità in cui rivestono fondamentale rilevanza particolari obblighi strumentali richiesti al contribuente (fatturazione, registrazioni contabili, dichiarazioni). Il presente progetto di ricerca è finalizzato a valutare la propensione e funzionalità del meccanismo applicativo rispetto al generale principio di neutralità dell’imposta e la valenza svolta dagli obblighi strumentali rispetto alla qualificazione della fattispecie impositiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi degli aspetti tecnici relativi alla progettazione aeroportuale

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questa tesi è studiare l'espansione dinamica di due fermioni interagenti in una catena unidimensionale cercando di definire il ruolo degli stati legati durante l'evoluzione temporale del sistema. Lo studio di questo modello viene effettuato a livello analitico tramite la tecnica del Bethe ansatz, che ci fornisce autovalori ed autovettori dell'hamiltoniana, e se ne valutano le proprietà statiche. Particolare attenzione è stata dedicata alle caratteristiche dello spettro al variare dell'interazione tra le due particelle e alle caratteristiche degli autostati. Dalla risoluzione dell'equazione di Bethe vengono ricercate le soluzioni che danno luogo a stati legati delle due particelle e se ne valuta lo spettro energetico in funzione del momento del centro di massa. Si è studiato inoltre l'andamento del numero delle soluzioni, in particolare delle soluzioni che danno luogo ad uno stato legato, al variare della lunghezza della catena e del parametro di interazione. La valutazione delle proprietà dinamiche del modello è stata effettuata tramite l'utilizzo dell'algoritmo t-DMRG (time dependent - Density Matrix Renormalization Group). Questo metodo numerico, che si basa sulla decimazione dello spazio di Hilbert, ci permette di avere accesso a quantità che caratterizzano la dinamica quali la densità e la velocità di espansione. Da queste sono stati estratti i proli dinamici della densità e della velocità di espansione al variare del valore del parametro di interazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La proteina umana HDAC1 fa parte della famiglia delle HDAC (Istone Deacetilasi); questi enzimi, ad azione deacetilasica, catalizzano la reazione di rimozione di un gruppo acetile a livello degli istoni, componenti fondamentali della cromatina, la cui struttura influenza il ciclo cellulare e la regolazione dell’espressione genica. L’importanza della proteina in questione, a scopo terapeutico, risiede nello studio degli inibitori ad essa associati, i quali risultano utili a livello farmacologico, come coadiuvanti nelle terapie per la cura di tumori. La produzione di HDAC1 ha previsto l’utilizzo di due diversi ceppi del batterio Escherichia coli, denominati TOP10 e BW25993, che sono serviti come sistemi “ospiti” per l’inserimento del vettore di espressione pBAD-HDAC1 contenente la porzione di DNA che codifica per la proteina ricombinante. Sono state determinate le condizioni più idonee, per entrambi i sistemi analizzati, in modo da massimizzare l’espressione della proteina indotta mediante aggiunta di arabinosio al terreno di coltura. A seconda della combinazione ceppo-vettore, infatti, il livello di espressione ottenuto cambia significativamente. In seguito, gli estratti proteici totali sono stati sottoposti a purificazione mediante diversi passaggi cromatografici ed è stata determinata la resa finale del processo. La caratterizzazione della proteina ricombinante purificata ha evidenziato una forma aggregata, di tipo ottamerico, che potrebbe influenzare l’attività enzimatica. Per questo motivo sono stati portati avanti numerosi tentativi di dissociazione dell’oligomero incubando HDAC1 con diversi agenti. Un effetto disaggregante è stato osservato solo in presenza di due detergenti, SDS (anionico) e CTAB (cationico), i quali hanno permesso di ottenere la proteina in forma monomerica. Tra i due detergenti, l’SDS è risultato più efficace, mentre per il CTAB si richiedono ulteriori indagini ed approfondimenti. Altri studi, infine, sono auspicabili ai fini di migliorare ulteriormente la fase di espressione, in modo da rendere il protocollo di produzione adatto ad un’applicazione a livello industriale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Argomento di questo lavoro di tesi è l’accelerazione di ioni tramite interazione laser-plasma. Nel particolare, uno studio teorico sui principali meccanismi di accelerazione e una campagna di simulazioni numeriche volte ad analizzare gli effetti sullo spettro energetico dei protoni accelerati dovuti al preplasma sono stati svolti. Quando laser ad impulsi brevi, ad alta intensità e a contrasto finito, interagiscono con un campione solido è presente un preimpulso che causa la formazione di una regione di preplasma antistante il bersaglio che può rendere più efficace l’accelerazione dei protoni. Vengono dunque introdotti nel primo capitolo i concetti e le tecniche base per studiare a livello teorico e numericamente le interazioni laser-plasma. Nel secondo capitolo sono trattati analiticamente alcuni meccanismi di accelerazione di ioni. Nel terzo ed ultimo capitolo vengono descritti gli effetti di preplasma ed esposti risultati di simulazioni PIC volte a trovare i parametri ottimali per ottenere ioni più energetici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi vengono studiati gli effetti della non-normalità di un operatore all'interno di sistemi dinamici regolati da sistemi di equazioni differenziali ordinarie. Viene studiata la stabilità delle soluzioni, in particolare si approfondiscono fenomeni quali le crescite transitorie. In seguito vengono forniti strumenti grafici come gli Pseudospettri capaci di scoprire e quantificare tali "anomalie". I concetti studiati vengono poi applicati alla teoria dell'ecologia delle popolazioni utilizzando una generalizzazione delle equazioni di Lotka-Volterra. Modelli e matrici vengono implementate in Matlab mentre i risultati grafici sono ottenuti con il Toolbox Eigtool.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’uovo è considerato l’alimento più completo dal punto di vista nutrizionale e allo stesso tempo è altamente deperibile con perdita rapida delle caratteristiche qualitative. Esso infatti interagisce con l’atmosfera circostante determinando perdita di vapore d’acqua e CO2 dal guscio. La diffusione di CO2 comincia immediatamente dopo la deposizione con un conseguente rapido aumento di pH, soprattutto nell’albume che determina maggiori rischi di contaminazione microbica. La regolamentazione dell’Unione Europea non permette l’utilizzo di interventi stabilizzanti tradizionali (lavaggio o conservazione refrigerata) sulle uova fresche con guscio e l’uso del confezionamento in atmosfera protettiva (MAP) potrebbe risultare una valida alternativa per il mantenimento delle caratteristiche qualitative dell’uovo durante la conservazione. Studi precedenti dimostrano come l’utilizzo di MAP con elevati livelli di CO2 risulti benefico per mantenere delle caratteristiche complessive dell’uovo ma l’utilizzo di materiali di imballaggio ad alta barriera, necessari per mantenere una certa concentrazione di CO2, può provocare l’aumento dell’umidità nello spazio di testa, con conseguenti problematiche legate allo sviluppo microbico sul guscio del prodotto possibilmente risolvibile con l’uso di imballaggi attivi dotati di assorbitori di umidità. Un alternativa, può essere l’utilizzo congiunto di trattamenti di decontaminazione e di confezionamento in MAP. Premesso questo, l’obiettivo di questa ricerca è stato quello di valutare l’effetto congiunto del trattamento di decontaminazione con UV e di confezionamento in atmosfera modificata su alcune caratteristiche qualitative ed igienico sanitarie di uova fresche con guscio confezionate in MAP al 100% di CO2 e in aria durante 28 giorni di conservazione a 21°C. Nella seconda fase della sperimentazione sono stati valutati gli effetti delle differenti modalità di imballaggio su alcune caratteristiche qualitative di pasta all’uovo (tagliatelle). Sono stati realizzati campioni di pasta fresca (utilizzando le uova trattate) sui quali sono state valutate alcune caratteristiche qualitative prima e dopo cottura, confrontate con quelle di pasta ottenuta con uova non trattate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.