897 resultados para serie di Fourier serie di Fejér problema di Cauchy-Dirichlet equazione del calore
Resumo:
La tesi affronta le problematiche fiscali della riorganizzazione societaria e la soluzione adoperata nell’Unione europea per le operazioni di carattere transfrontaliere. Si parte dalla definizione del termine “riorganizzazione societaria”, evidenziando le sue matici economiche e la varietà del suo contenuto secondo l’ordinamento giuridico e la branca del diritto di riferimento. Si prosegue sulla correlazione fra l’ampliazione del contenuto della libertà di stabilimento, dovuta maggiormente all’attività interpretativa della Corte di giustizia, e l’allargamento del concetto di riorganizzazione societaria nel quadro normativo dell’Unione. Si procede dunque all’analisi del regime fiscale comune della direttiva 2009/133/CE intravedendosi i suoi sviluppi successivi. In sede di conclusioni, si apporta un breve riassunto sullo stato della questione in Brasile e si riflette sull’attendibilità del modello impositivo dell’Unione quale parametro per una futura riforma fiscale in Brasile.
Resumo:
Abstract (Ita): La tesi si propone l'obiettivo di analizzare l'affermazione del monachesimo cistercense nel nord della penisola iberica a cavallo tra XII e XIII secolo con particolare attenzione alla Galizia, una regione caratterizzata da una fortissima concorrenza tra i “poteri” presenti sul territorio. Attraverso l'analisi delle fonti edite ed inedite di tre monasteri cistercensi dislocati da nord a sud su tutto il territorio galiziano (Sobrado nell'arcidiocesi di Compostela, Meira nella diocesi di Lugo e Melón nella diocesi di Tuy), con il supporto della documentazione di altre cinque abbazie galiziane dell'Ordine di Cîteaux (Monfero, Armenteira, Oseira, Montederramo e Oya) e avvalendosi della più recente storiografia internazionale, la ricerca approfondisce i rapporti tra i monaci bianchi e la monarchia castellano-leonesa, le grandi famiglie aristocratiche (specialmente i Traba), la piccola aristocrazia locale dei milites e dei proprietari fondiari, gli heredes, il mondo ecclesiastico locale (sia le relazioni con l'episcopato sia con gli altri cenobi presenti sul territorio) e il mondo urbano in grande fermento nel corso del XII secolo analogamente ad altre aree d'Europa, mostrando come i monaci bianchi furono capaci di elaborare modelli di sviluppo diversi nelle varie aree della Galizia.
Resumo:
La ricerca sviluppa le più recenti proposte teoriche dell'antropologia interpretativa, applicandole alla teoria della letteratura. Si concentra sull'ipotesto antropologico attivo nell'opera di Elsa Morante, con particolare riferimento alla produzione successiva agli anni Sessanta (Il mondo salvato dai ragazzini, 1968; La Storia, 1974; Aracoeli, 1982), in cui si verifica la concentrazione del materiale etno-antropologico di derivazione demartiniana. La tesi si propone di sondare la prolificità del rapporto intertestuale Morante-De Martino, soprattutto mediante la ricorrenza di alcuni luoghi significanti che accomunano la ricerca poetica e quella scientifica degli autori, uniti da una fondamentale rielaborazione del concetto di "umanesimo". Centrale, a questo proposito, diviene la nozione di "crisi" della persona, direttamente collegata al vissuto da "fine del mondo" e alla percezione apocalittica post-atomica. Alla crisi del soggetto contemporaneo si guarda nei termini di una risoluzione culturale, che chiama direttamente in causa il rapporto tra letteratura e ritualità. Secondo la prospettiva sociologica durkheimiana, si indagano i momenti della piacularità e della festa, ricorsivi nella scrittura morantiana, come fondanti il discorso (la narrazione mitografica) della comunità. Di qui, la riflessione si attesta sulle strategie della comunicazione finzionale in ambito etno-antropologico, con attenzione all'autorialità dello stesso antropologo sul campo. Non mancano raffronti con le esperienze letterarie più significative nell'orizzonte culturale delineato: in particolar modo, si tiene in considerazione il fondamentale rapporto Morante-Pasolini.
Resumo:
La presente tesi intende compiere un’indagine, dal punto di vista storico-educativo, sulla storia delle case di correzione. Nello specifico si è tentato di analizzare il “caso” del Discolato bolognese, operando un confronto con altre analoghe istituzioni, sorte in due città campione, come Roma e Milano, per quanto riguarda il contesto italiano, e con la situazione inglese, per quanto riguarda il contesto internazionale. Il focus della ricerca si è incentrato sul rapporto tra devianza e internamento, considerato secondo una declinazione pedagogica. A tal proposito si è cercato di far emergere le modalità educative, nonché i principi e le finalità che sottostavano agli interventi istituzionali, non solo soffermandosi su quanto i regolamenti e gli statuti prescrivevano all’interno delle strutture correzionali, ma analizzando la reclusione nella sua effettiva organizzazione quotidiana. Per quanto riguarda la situazione bolognese è stata analizzata un’ampissima documentazione, conservata presso l’Archivio storico Provinciale di Bologna, che ha permesso di svolgere un’analisi di tipo quantitativo su un totale di 1105 individui al fine di delineare le principali caratteristiche demografiche e sociali delle persone internate nel Discolato bolognese. L’interpretazione delle fonti ha permesso anche un’indagine qualitativa, nel tentativo di ricostruire le storie di vita dei singoli reclusi. Da questa ricerca emerge un’immagine complessa delle case di correzione. Nel corso dei secoli, in modo particolare nelle diverse realtà prese in esame, esse hanno assunto caratteristiche e peculiarità differenti. La loro inefficacia fu la motivazione principale che condusse alla definitiva chiusura, quando si fece via via sempre più evidente la difficoltà a tradurre in pratica ciò che regolamenti e statuti - a livello teorico - prescrivevano.
Resumo:
La tesi descrive alcune applicazioni in ambito satellitare delle tecniche di radio cognitiva. In particolare si analizza la loro possibile implementazione in uno scenario dual-satellite in banda Ka nel quale l'utente primario si avvale dello standard DVB-S2 per la trasmissione. A seguire la verifica delle performance degli algoritmi di spectum sensing per la detection del segnale primario attraverso simulazioni in ambiente matlab con curve ROC e curve di probabilità di detection in funzione del rapporto segnale rumore.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
Il periodo economico attuale è caratterizzato da una crisi che affligge numerose imprese non solo a livello nazionale, ma anche a livello mondiale. Tra le innumerevoli ragioni che hanno portato allo sviluppo di questa situazione troviamo quelle legate al contesto generale e competitivo, e quelle strategiche ed organizzative legate all’errata gestione aziendale. Le aziende devono sapersi rinnovare rimanendo concorrenziali e di alta qualità. È proprio in situazioni come queste che occorre saper considerare tutte le variabili in gioco prima di affrontare nuovi investimenti e, addirittura, i rifornimenti di materiale. La Nuova Bassani s.r.l. è sempre stata un’azienda dinamica e, nei suoi trent’anni di storia, ha saputo interpretare al meglio le esigenze del mercato mantenendosi sana ed affidabile. Adesso è orientata verso il revamping di uno dei suoi magazzini automatici per ovviare i tempi morti tra un’operazione e l’altra, e per velocizzare la preparazione degli ordini, per i clienti che ritirano personalmente il materiale richiesto. Oggi più che mai c’è la necessità non solo di soddisfare le richieste sempre più esigenti, ma anche quella di non tenere a magazzino del materiale che potrebbe risultare invenduto per anni perché “passato di moda”. La Nuova Bassani s.r.l. commercia acciaio ed è facilmente comprensibile quanto sia facile che qualche misura o materiale non venga più richiesto dal mercato perché sostituito da nuove tipologie, magari a lavorabilità migliorata. La tesi di seguito sviluppata ha quindi come scopo quello di: • Analizzare lo storico del venduto per approfondire la conoscenza dei materiali trattati e riscontrare quali sono le punte di diamante su cui puntare maggiormente; • Effettuare un’analisi tecnica per accertare quali materiali tenere in magazzino e in quale quantità, basandosi sui layout delle strutture esistenti; • Studiare il funzionamento del magazzino automatico obsoleto ed eventuali difetti tecnici per determinare soluzioni che lo possano migliorare; • Valutare l’investimento del revamping del magazzino per ragguagliare l’azienda sui tempi di recupero di tale investimento. La tesi sarà divisa in due parti fondamentali che riguardano una l’ottimizzazione delle strutture esistenti, l’altra l’aggiornamento di una delle strutture più importanti.
Resumo:
Lo scopo di questo lavoro di tesi è quello di indagare la fluidodinamica all’interna di un modello di una camera di una filtropressa. L’analisi del comportamento fluidodinamico all’interno delle filtropresse viene svolta al fine di comprendere meglio alcune problematiche relative alla gestione del processo. In particolare si è tentato di individuare le cause che inducono: 1.Rottura prematura delle tele, in particolar modo nelle camere iniziali; 2.Formazione di pannelli disomogenei che comporta complicazioni nei successivi processi (lavaggio, essiccamento, etc.). Tale studio è consistito nella determinazione e nell’analisi del campo di moto di una fase liquida all’interno di suddetta camera. I campi di moto sono stati acquisiti tramite la tecnica PIV (Particle Image Velocimetry).
Resumo:
Lo studio presentato in questa sede concerne applicazioni di saldatura LASER caratterizzate da aspetti di non-convenzionalità ed è costituito da tre filoni principali. Nel primo ambito di intervento è stata valutata la possibilità di effettuare saldature per fusione, con LASER ad emissione continua, su pannelli Aluminum Foam Sandwich e su tubi riempiti in schiuma di alluminio. Lo studio ha messo in evidenza numerose linee operative riguardanti le problematiche relative alla saldatura delle pelli esterne dei componenti ed ha dimostrato la fattibilità relativa ad un approccio di giunzione LASER integrato (saldatura seguita da un post trattamento termico) per la realizzazione della giunzione completa di particolari tubolari riempiti in schiuma con ripristino della struttura cellulare all’interfaccia di giunzione. Il secondo ambito di intervento è caratterizzato dall’applicazione di una sorgente LASER di bassissima potenza, operante in regime ad impulsi corti, nella saldatura di acciaio ad elevato contenuto di carbonio. Lo studio ha messo in evidenza come questo tipo di sorgente, solitamente applicata per lavorazioni di ablazione e marcatura, possa essere applicata anche alla saldatura di spessori sub-millimetrici. In questa fase è stato messo in evidenza il ruolo dei parametri di lavoro sulla conformazione del giunto ed è stata definita l’area di fattibilità del processo. Lo studio è stato completato investigando la possibilità di applicare un trattamento LASER dopo saldatura per addolcire le eventuali zone indurite. In merito all’ultimo ambito di intervento l’attività di studio si è focalizzata sull’utilizzo di sorgenti ad elevata densità di potenza (60 MW/cm^2) nella saldatura a profonda penetrazione di acciai da costruzione. L’attività sperimentale e di analisi dei risultati è stata condotta mediante tecniche di Design of Experiment per la valutazione del ruolo preciso di tutti i parametri di processo e numerose considerazioni relative alla formazione di cricche a caldo sono state suggerite.
Resumo:
Per massimizzare la quantità di H2 nel gas di sintesi ottenuto dal processo di Steam Reforming (SR) si utilizza la reazione di Water Gas Shift (WGS): CO + H2O ⇆ CO2 + H2 ∆H0298 = - 41,2 KJ/mol Sulla base di sistemi catalitici Cu/Zn/Al si è cercato di modificarne la composizione per ottenere catalizzatori attivi e stabili in un intervallo di temperatura tra 350-450 °C, (High Temperature Shift o HTS), al fine di sostituire i tradizionali sistemi a base di Fe/Cr, in relazione alle limitazioni ambientali all’utilizzo del Cr e per poter operare con valori inferiori del rapporto S/DG. Si sono inoltre studiate le caratteristiche dei catalizzatori e le condizioni di reazione che favoriscono la produzione di metilammine ed alcoli nel processo a temperature intermedie, tra 300-350 °C (Middle Temperature Shift o MTS), in relazione alla disattivazione che questi composti comportano nel processo di SR a seguito del riciclo della fase acquosa dal reattore di WGS.
Resumo:
La sintesi di catalizzatori Rh-Al2O3 e Pt-Al2O3 è stata condotta per via elettrochimica su dei supporti con diverse geometrie (lastrine, schiume) e diversa composizione (Pt e FeCrAlY). Per l’elettrosintesi dei precursori dei catalizzatori sono state utilizzate due diversi tipi di celle elettrochimiche (a singolo comparto, nella quale il moto degli elettroliti segue un regime di tipo diffusivo, e cella in flusso a comparti separati). Per il catalizzatore Rh-Al2O3 sono stati sintetizzati i precursori composti da idrossidi di Al3+ e Rh3+. Per il catalizzatore Pt-Al2O3 sono state condotte sia delle sintesi mono-stadio di nanoparticelle di Pt sul supporto ricoperto di Al2O3 che delle sintesi cercando di inglobare le nanoparticelle di Pt in un film di idrossido di alluminio. La caratterizzazione morfologica e composizionale della superficie del supporto metallico, ha permesso di studiare l’influenza delle varie condizioni di sintesi sulla qualità del ricoprimento ottenuto tramite elettrosintesi. I migliori risultati in termini di ricoprimento del supporto e omogeneità dello strato catalitico depositato, sono stati ottenuti tramite l’utilizzo della cella in flusso e confrontando i campioni ottenuti con delle schiume ricoperte di allumina tramite washcoating, sono state osservate le principali differenze tra i due metodi. L’elettrosintesi dei precursori del catalizzatore Rh-Al2O3 ha portato ad uno scarso ricoprimento ma la fattibilità del processo è stata dimostrata tramite l’utilizzo di un elettrodo di Pt. Per il catalizzatore Pt-Al2O3, lo scarso controllo nella grandezza e distribuzione delle nanoparticelle di Pt elettrosintetizzate sulle schiume ricoperte di Al2O3 ha dimostrato l’esigenza di un metodo alternativo di sintesi. Questo prevede l’incorporazione delle nanoparticelle di Pt durante l’elettrosintesi del film di idrossido di alluminio. Utilizzando un elettrodo di Pt la fattibilità del processo è stata dimostrata, tuttavia il metodo richiede dei miglioramenti, in termini di ricoprimento e distribuzione delle particelle se condotto su schiume.
Resumo:
Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.
Resumo:
Questo elaborato ha come argomento lo sviluppo di un progetto informatico creato per mettere in comunicazione tra di loro un sistema di gestione e controllo del ricambio di acqua in una piscina e un dispositivo mobile. Per la realizzazione del sistema di controllo è stata utilizzata una scheda Arduino Mega 2560 munita di modulo Ethernet, mentre, per quello che concerne il dispositivo mobile, la scelta è ricaduta su un device dotato di sistema operativo Android. La comunicazione tra questi due attori è mediata attraverso un server scritto in Java che gira nella stessa rete locale in cui è presente la scheda Arduino. Il progetto può essere inserito nell'ambito dell'Internet of Things, dove ogni oggetto è caratterizzato dalla possibilità di connettersi ad Internet e scambiare informazioni con ogni altro oggetto creando una rete. Questo progetto è suddiviso in tre parti: la prima si occupa della definizione di due protocolli di comunicazione tra le varie componenti, uno per lo scambio di messaggi tra client Android e Server Java e un secondo per quello tra scheda Arduino e Server; la seconda parte è incentrata sulla realizzazione del server Java che rende accessibile la scheda da qualsiasi luogo e permette la raccolta dei dati rilevanti provenienti dalla centralina. L’ultima parte infine è quella relativa allo sviluppo di una applicazione per Android che permette di monitorare il tutto e interagire con la centralina stessa.
Resumo:
La sindrome di Cushing (SC) è una delle endocrinopatie più comuni nel cane. La diagnosi richiede l'integrazione di anamnesi, segnalamento, segni clinici, esami ematobiochimici, test endocrini specifici e diagnostica per immagini . Nel corso degli anni diversi sono i principi attivi testati per la terapia della SC del cane. In passato, il mitotane è stato il farmaco più utilizzato, sebbene il suo uso risulti complicato e non privo di potenziali effetti collaterali. Recentemente, il trilostano ha dimostrato di essere un trattamento efficace per il controllo dei sintomi ed è stato approvato per tale uso nel cane. Al fine di testare metodiche non invasive per la diagnosi di SC nel cane abbiamo valutato le concentrazioni di cortisolo nel pelo (HCC) .Queste risultavano significativamente più elevate nei cani con SC rispetto ai cani sani e malati. Questo test può essere quindi considerato una procedura diagnostica non invasiva in cani con un elevato sospetto di SC. Inoltre, a causa della difficile reperibilità dell’ACTH esogeno sono state valutate le concentrazioni di cortisolo basale come strumento di monitoraggio in cani con SC trattati con trilostano. Tuttavia la singola valutazione del cortisolo basale non rappresenta un parametro efficace ed accurato per il monitoraggio della terapia con trilostano. Sono stati inoltre valutati i fattori prognostici in cani con SC alla diagnosi. L' iperfosfatemia è risultata un riscontro comune nei cani SC, rappresentando un fattore prognostico negativo. La terapia chirurgica non è una procedura di routine nella SC del cane, tuttavia abbiamo descritto l'approccio di ipofisectomia transsfenoidale in un Galgo spagnolo di 8 anni con SC . Il cane è stato sottoposto per due volte ad ipofisectomia transsfenoidale che ha permesso di rimuovere completamente il macroadenoma ipofisario. In conclusione, questi studi ci hanno permesso di indagare alcuni aspetti patogenetici, clinici e diagnostici della SC del cane.
Valutazione della presenza di contaminanti perfluoroalchilici in alimenti destinati al consumo umano
Resumo:
Le sostanze perfluoralchiliche (PFAS), composti fluorurati ampiamente utilizzati negli ultimi anni in diverse applicazioni industriali e commerciali, sono ritrovati diffusamente nell’ambiente e in diverse specie animali. Recentemente i PFAS hanno destato preoccupazione anche per la salute umana. Il rischio di esposizione è principalmente legato alla dieta (i prodotti ittici sembrano essere gli alimenti più contaminati). Lo scopo di questo lavoro è stato quello di valutare la presenza del perfluorottanosulfonato (PFOS) e dell’acido perfluorottanoico (PFOA), in diverse matrici alimentari: latte vaccino commercialmente disponibile in Italia, latte materno italiano, diverse specie di pesce commercialmente disponibili in Italia e 140 branzini di diverse aree (principalmente Mediterraneo). I campioni di latte sono stati trattati con estrazione liquido-liquido seguita da due fasi di purificazione mediante cartucce SPE prima dell’iniezione nell’UPLC-MS/MS. L’analisi del latte vaccino ha evidenziato una contaminazione diffusa di PFOS, ma a basse concentrazioni (fino a 97 ng/L), mentre il PFOA è stato ritrovato raramente. In questo studio, in grado di individuare anche i livelli delle ultra-tracce, sono state osservate nel latte materno concentrazioni di 15-288 ng/L per il PFOS e di 24-241 ng/LPFOA. Le concentrazioni e le frequenze più alte, per entrambi i PFAS, sono stati ritrovate in campioni di latte forniti da donne primipare, suggerendo un rischio di esposizione per i primogeniti. Il metodo utilizzato per i campioni di pesce era basato su un’estrazione con solvente organico seguita da due fasi di purificazione: una con i sali e una con fase solida dispersiva. L’estratto, analizzato in UPLC-MS/MS, ha confermato la contaminazione di questa matrice a livelli significativi, ma anche l’alta variabilità delle concentrazioni misurate. Il monitoraggio monospecie ha mostrato una contaminazione rilevante (PFOS 11,1- > 10000 ng/L; PFOA < 9-487 ng/L), soprattutto nei branzini pescati, rispetto a quelli allevati.