901 resultados para Runge-Kutta, assoluta stabilità, sistemi stiff, modello di Aquino, simulazioni ad eventi discreti.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poiché le infestazioni parassitarie dei rettili in cattività possono incidere sulla loro salute, è stato condotto uno studio sui parassiti intestinali e gli ectoparassiti su 213 rettili del Bioparco di Roma. In cattività, dove gli animali sono confinati in piccoli spazi, la concentrazione di parassiti può essere più alta. Alcuni di essi sono innocui, ma altri, specialmente in associazione allo stress, possono essere pericolosi, causare malattie e portare anche alla morte se non trattati. Inoltre, i rettili parassitati hanno una vita più breve, sono più suscettibili ad altre malattie, hanno scarsa fertilità, ridotta crescita ed alta mortalità. Tra Gennaio 2012 e Dicembre 2014 sono stati raccolti campioni da 213 rettili che non mostravano alcun segno clinico e che includevano 23 specie di sauri, 20 specie di cheloni, 20 specie di ofidi e 4 specie di alligatori. I campioni sono stati esaminati per la presenza di parassiti intestinali mediante copromicroscopia di tipo qualitativo previa sedimentazione e successiva flottazione, mentre la tecnica di Zihel-Neelsen è stata usata per la ricerca di oocisti di Cryptosporidium . I campioni di feci sottoposti ad esame copromicroscopico qualitativo sono risultati positivi per almeno una tipologia di endoparassiti nel 49% dei casi. Il 35% dei campioni è risultato positivo per ossiuri, il 22% per coccidi, l’1% per strongili ed il 5% per ascaridi. Degli strisci fecali colorati con la tecnica di Zihel-Neelsen, il 25% sono risultati positivi per Cryptosporidium spp. Ossiuri e coccidi sono stati più prevalenti nei sauri rispetto ai cheloni, agli ofidi e agli alligatori e nel 14% è stata osservata la presenza di entrambi. Inoltre, per quanto riguarda gli ectoparassiti, sono state rilevate uova di Myocoptes musculinus nel 24% dei rettili esaminati. Tutti gli strisci risultati positivi per Cryptosporidium spp. sono stati inviati all’Università di Santiago de Compostela per essere sottoposti alla tecnica PCR.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro si concentra su un particolare aspetto della sfaccettata ricerca scientifica di Johannes Kepler (1571-1630), ossia quello teorico-musicale. I pensieri dell’astronomo tedesco riguardanti tale campo sono concentrati – oltre che in alcuni capitoli del Mysterium cosmographicum (1596) ed in alcune sue lettere – nel Libro III dell’Harmonices mundi libri quinque (1619), che, per la sua posizione mediana all’interno dell’opera, tra i primi due libri geometrici e gli ultimi due astronomici, e per la sua funzione di raccordo tra la «speculazione astratta» della geometria e la concretizzazione degli archetipi geometrici nel mondo fisico, assume la struttura di un vero e proprio trattato musicale sul modello di quelli rinascimentali, nel quale la «musica speculativa», dedicata alla teoria delle consonanze e alla loro deduzione geometrica precede la «musica activa», dedicata alla pratica del canto dell’uomo nelle sue differenze, generi e modi. La tesi contiene la traduzione italiana, con testo latino a fronte, del Libro III dell’Harmonice, e un’ampia introduzione che percorre le tappe fondamentali del percorso biografico e scientifico che hanno portato alla concezione di quest’opera – soffermandosi in particolare sulla formazione musicale ricevuta da Keplero, sulle pagine di argomento musicale del Mysterium e delle lettere, e sulle riflessioni filosofico-armoniche sviluppate negli anni di ricerca – e offre gli elementi fondamentali per poter comprendere l’Harmonice mundi in generale e il Libro III in particolare. A ciò si aggiunge, in Appendice, la traduzione, anch’essa con testo latino a fronte, della Sectio V, dedicata alla musica, del Liber IX dell’Almagestum novum (1651) di Giovanni Battista Riccioli (1598-1671), interessante sia dal punto di vista della recezione delle teorie di Keplero che dal punto di vista della storia delle idee musicali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto del presente studio è il progetto di ricostruzione del centro urbano di Le Havre ad opera di Auguste Perret. Suo obiettivo è il riconoscimento di quell’idea di città posta a fondamento del progetto, per il quale ci si propone di indagare il senso e le grammatiche costitutive della sua forma. Quella di Le Havre costituisce una dimostrazione di come una forma urbana ancora compatta ed evocativa della città storica possa definirsi a partire dalle relazioni stabilite con gli elementi della geografia fisica. Nei suoi luoghi collettivi e monumentali, che rimandano chiaramente a una cultura dell’abitare che affonda le proprie radici nella più generale esperienza della costruzione della città francese, la città riconosce un valore formale e sceglie di rappresentare il proprio mondo civico dinanzi a quei grandi elementi della geografia fisica che costituiscono l’identità del luogo nel quale questa si colloca. Sembra infatti possibile affermare che gli spazi pubblici della città atlantica riconoscano e traducano nella forma della Place de l’Hôtel de Ville le ripide pendici della falesia del Bec-de-Caux, in quella della Porte Océane l’orizzonte lontano dell’Oceano, e nel Front-de-mer Sud l’altra riva dell’estuario della Senna. Questa relazione fondativa sembra essere conseguita anche attraverso la definizione di un’appropriata grammatica dello spazio urbano, la cui significatività è nel fondarsi sull’assunzione, allo stesso tempo, del valore dello spazio circoscritto e del valore dello spazio aperto. La riflessione sullo spazio urbano investe anche la costruzione dell’isolato, sottoposto a una necessaria rifondazione di forma e significato, allo scopo di rendere intellegibile le relazioni tra gli spazi finiti della città e quelli infiniti della natura. La definizione dell’identità dello spazio urbano, sembra fondarsi, in ultima analisi, sulle possibilità espressive delle forme della costruzione che, connotate come forme dell’architettura, definiscono il carattere dei tipi edilizi e dello spazio da questi costruito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

a. Introduzione: il capitolo introduttivo tratta il background del lavoro in generale. In esso vengono illustrati inoltre gli scopi e gli obiettivi e la struttura dell’elaborato. b. Framework teorici: Strategicità fornitori e SM Il primo passo nella progettazione di questo elaborato di tesi è stato quello di sviluppare una ricerca nella letteratura della SCM. Secondo Strauss e Corbin (2008) “la domanda iniziale di uno studio qualitativo è spesso ampia ed aperta”. Un modo per sviluppare domande di ricerca è quello si esaminare la letteratura. Viene trattata la strategicità della funzione approvvigionamenti nel Supply Chain Management ed il notevole impatto dei fornitori sulle prestazioni aziendali. c. Supplier Base Reduction: Modello Concettuale. Viene proposto un modello concettuale che si base sulla strategicità della SBR intesa come una strategia di gestione del parco fornitori grazie ai suoi metodi di standardization, elimination e tiering. Tale modello evidenzia l’importanza di eseguirla in contemporanea ad altri metodi, strumenti e strategie molto rilevanti, quali: purchasing strategy, spend analysis per classe merceologica di acquisto, purchasing performance meausurement tramite appositi KPI (i più rilevanti sono lead time e qualità), valutazione e segmentazione del parco fornitori. In tal modo sarà immediato individuare i fornitori critici da eliminare e quelli più performanti con cui stabilire dei rapporti di partnership e di fornitura integrata. d. Case Study: Bonfiglioli Riduttori Dopo un excursus sulla struttura aziendale di Bonfiglioli Riduttori, le sue Business Unit, le diverse filiali ed i suoi principali prodotti, viene riportata una breve analisi dell’intera supply chain. Successivamente viene trattata la necessità di aumentare le performance aziendali (date le stringenti richieste di mercato in termini di qualità e puntualità nelle consegne) e di non perdere la competitività acquisita precedentemente. Inoltre si enfatizza l’importanza della funzione approvvigionamenti nel raggiungimento degli obiettivi aziendali. e. Applicazione del modello concettuale al caso Dal modello concettuale si hanno gli input per definire il piano esecutivo del caso di studio in esame. Verranno trattati: analisi di Pareto per categoria merceologica, monitoraggio KPI per fornitore e categoria merceologica (con relativa griglia di misurazione delle performance globale), segmentazione fornitori per categoria tramite Commodity Pyramids, attuazione di azioni correttive generiche (quali le tecniche SBR e la partnership con i fornitori più performanti) e puntuali (quality improvement, ridefinizione dei piani di consegna, condivisione della programmazione, applicazione di bonus o penalità). f. Risultati ottenuti ed attesi Dopo aver riportato i risultati di alcuni esempi di macrocategorie merceologiche d’acquisto, si analizzano i risultati globali della razionalizzazione del parco fornitori e dell’implementazione di rapporti di partnership con annessi i relativi benefici per le performance dell’organizzazione. Si propone inoltre una revisione dei meccanismi di selezione dei fornitori tramite l’ideazione di un nuovo modello di vendor rating che rispetti i target prefissati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il trattamento numerico dell'equazione di convezione-diffusione con le relative condizioni al bordo, comporta la risoluzione di sistemi lineari algebrici di grandi dimensioni in cui la matrice dei coefficienti è non simmetrica. Risolutori iterativi basati sul sottospazio di Krylov sono ampiamente utilizzati per questi sistemi lineari la cui risoluzione risulta particolarmente impegnativa nel caso di convezione dominante. In questa tesi vengono analizzate alcune strategie di precondizionamento, atte ad accelerare la convergenza di questi metodi iterativi. Vengono confrontati sperimentalmente precondizionatori molto noti come ILU e iterazioni di tipo inner-outer flessibile. Nel caso in cui i coefficienti del termine di convezione siano a variabili separabili, proponiamo una nuova strategia di precondizionamento basata sull'approssimazione, mediante equazione matriciale, dell'operatore differenziale di convezione-diffusione. L'azione di questo nuovo precondizionatore sfrutta in modo opportuno recenti risolutori efficienti per equazioni matriciali lineari. Vengono riportati numerosi esperimenti numerici per studiare la dipendenza della performance dei diversi risolutori dalla scelta del termine di convezione, e dai parametri di discretizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro riguarda la sintesi e caratterizzazione di nanoparticelle basate sul magnesio per l'immagazzinamento di idrogeno. Le nanoparticelle sono state cresciute mediante Inert Gas Condensation, una tecnica aerosol in cui il materiale viene sublimato e diretto verso i substrati tramite un flusso di gas inerte, e caratterizzate attraverso microscopia elettronica e diffrazione di raggi X. Queste operazioni sono state eseguite presso il Dipartimento di Fisica e Astronomia dell'Università di Bologna. Sono stati sintetizzati due tipi di particelle: nel primo il magnesio viene deposto direttamente sul substrato, nel secondo esso incontra un flusso di ossigeno prima di depositarsi sulla superficie. In questo modo si formano delle particelle con struttura core-shell in cui la parte interna è formata da magnesio e quella esterna dal suo ossido. La presenza di una shell consistente dovrebbe permettere, secondo il modello di deformazioni elastiche, di diminuire il valore assoluto dell'entropia di formazione dell'idruro di magnesio, condizione necessaria affinché il desorbimento di idrogeno possa avvenire in maniera più agevole rispetto a quanto non accada col materiale bulk. Tutti i campioni sono stati ricoperti di palladio, il quale favorisce la dissociazione della molecola di idrogeno. La capacità di assorbimento dell'idrogeno da parte dei campioni è stata studiata mediante idrogenografia, una tecnica ottica recentemente sviluppata in cui la quantità di gas assorbita dal materiale è legata alla variazione di trasmittanza ottica dello stesso. Le misure sono state eseguite presso l'Università Tecnica di Delft. I risultati ottenuti evidenziano che le nanoparticelle di solo magnesio mostrano dei chiari plateau di pressione corrispondenti all'assorbimento di idrogeno, tramite cui sono stati stimati i valori di entalpia di formazione. Al contrario, i campioni con struttura core-shell, la cui crescita rappresenta di per sé un risultato interessante, non presentano tale comportamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attività di ricerca è focalizzata sull’analisi delle normative in materia di contratto di lavoro a termine in Italia, Francia e Spagna. Si tratta di Stati che, al pari del nostro, fanno un grandissimo uso di tale fattispecie, divenuta nei fatti il principale canale di ingresso nel mondo del lavoro, con percentuali complessive di rapporti a tempo determinato anche superiori a quelle italiane. Il confronto con due Paesi a noi vicini da un punto di vista giuridico, culturale e sociale è servito allo scopo di valutare la razionalità e l’opportunità delle profonde modifiche apportate alla disciplina generale da parte del decreto-legge n. 34/2014 (c.d. Decreto Poletti) ed ancora prima dalla riforma del sistema risarcitorio ad opera della legge n. 183/2010. Per ciascun ordinamento sono prese in considerazione le regole finalizzate alla tutela dei diritti dei lavoratori a termine, nonché gli orientamenti giurisprudenziali che hanno contribuito, specie in materia di non discriminazione, ad implementare il livello di protezione della posizione dei lavoratori stessi. Specifica attenzione viene dedicata, inoltre, alla disciplina del pubblico impiego, settore in cui si riscontra spesso un uso distorto delle assunzioni a tempo determinato, come testimoniano le vicende degli agents contractuels francesi e dei lavoratori c.d. indefinidos no fijos de plantilla. La conclusione della tesi è affidata allo studio del contenzioso originato dai tre Stati avanti alla Corte di Giustizia dell’Unione Europea, al fine di isolare eventuali momenti di sintesi delle differenze delle rispettive regolamentazioni. L’elemento aggregante che affiora dai dicta del supremo organo di giustizia comunitario è il principio di stabilità dell’impiego, la cui portata generale e trasversale può essere utile al fine di orientare l’attività produttiva e interpretativa delle norme nazionali nella direzione di un’implementazione delle tutele spettanti ai prestatori di lavoro a termine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca sulla comunicazione e gestione multilingue della conoscenza in azienda si è sinora concentrata sulle multinazionali o PMI in fase di globalizzazione. La presente ricerca riguarda invece le PMI in zone storicamente multilingui al fine di studiare se l’abitudine all’uso di lingue diverse sul mercato locale possa rappresentare un vantaggio competitivo. La tesi illustra una ricerca multimetodo condotta nel 2012-2013 in Alto Adige/Südtirol. Il dataset consiste in 443 risposte valide a un questionario online e 23 interviste con manager e imprenditori locali. Le domande miravano a capire come le aziende altoatesine affrontino la sfida del multilinguismo, con particolare attenzione ai seguenti ambiti: comunicazione multilingue, documentazione, traduzione e terminologia. I risultati delineano un quadro generale delle strategie di multilinguismo applicate in Alto Adige, sottolineandone punti di forza e punti deboli. Nonostante la presenza di personale multilingue infatti il potenziale vantaggio competitivo che ne deriva non è sfruttato appieno: le aziende si rivolgono ai mercati in cui si parla la loro stessa lingua (le imprese a conduzione italiana al mercato nazionale, quelle di lingua tedesca ad Austria e Germania). La comunicazione interna è multilingue solo nei casi in sia imprescindibile. Le “traduzioni fai-da-te” offrono l’illusione di gestire lingue diverse, ma il livello qualitativo rimane limitato. I testi sono sovente tradotti da personale interno privo di competenze specifiche. Anche nella cooperazione con i traduttori esterni si evidenza la mancata capacità di ottenere il massimo profitto dagli investimenti. La tesi propone delle raccomandazioni pratiche volte a ottimizzare i processi attuali e massimizzare la resa delle risorse disponibili per superare la sfida della gestione e comunicazione multilingue. Le raccomandazioni non richiedono investimenti economici di rilievo e sono facilmente trasferibili anche ad altre regioni multilingui/di confine, come ad altre PMI che impiegano personale plurilingue. Possono dunque risultare utili per un elevato numero di imprese.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

«I felt that the time had come to have a fresh look at the European VAT system. There were indeed a number of reasons which in my view justified taking this step»: da queste parole del Commissario Europeo Algirdas Šemeta trae ispirazione tale ricerca che ha l’obiettivo di ripercorrere, in primo luogo, le ragioni che hanno portato alla creazione di una imposta comunitaria plurifase sui consumi, ed in secondo luogo, i motivi per cui oggi è necessario un ripensamento sul tema. Le spinte ammodernatrici provengono anche dagli stessi organismi europei, che sono impegnati da anni in discussioni con gli Stati membri per arrivare alla definizione di una normativa che riesca a disegnare un sistema snello ed efficiente. Il primo importante passo in tale direzione è stato effettuato dalla stessa Commissione europea nel 2010 con l’elaborazione del Libro Verde sul futuro dell’IVA, in cui vengono evidenziati i profili critici del sistema e le possibili proposte di riforma. L’obiettivo di dare origine ad un EU VAT SYSTEM in grado di rendere la tassazione più semplice, efficace, neutrale ed anti frode. In questo lavoro si intendono sottolineare i principali elementi critici della normativa IVA comunitaria, ideando anche le modifiche che potrebbero migliorarli, al fine di creare un’ipotesi normativa capace di essere un modello ispiratore per la modifica del sistema di imposizione indiretta esistente nella Repubblica di San Marino che ad oggi si trova a doversi confrontare con una imposta monofase alle importazioni anch’essa, come l’IVA, oramai in crisi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scegliere di consumare in modo sostenibile significa passare ad un nuovo modello di consumo. Tale modello richiede una maggiore consapevolezza e responsabilità da parte dei consumatori, unite all'adozione di nuovi stili di vita e di scelte d’acquisto, che permettano il raggiungimento di elevati livelli di benessere nel rispetto dell'ambiente. Un notevole sforzo è stato compiuto recentemente dai policy maker per incoraggiare il consumo sostenibile quali implementazioni dello sviluppo sostenibile. Ancora lunga, tuttavia, è la strada da percorrere per raggiungere pienamente questo obiettivo. Tra i prodotti sostenibili, il biologico si è rivelato di gran lunga il più rappresentativo: le statistiche di questo mercato mostrano, infatti, tendenze positive, sebbene il consumo risulti ancora eterogeneo e contenuto rispetto al consumo di alimenti convenzionali. Ciò mostra che il comportamento dei consumatori non è ancora abbastanza reattivo alle suddette politiche. Il presente studio si propone di contribuire alla ricerca sul consumo sostenibile approfondendo i fattori che incoraggiano o impediscono il consumo di prodotti alimentari biologici in Italia. Adottando un nuovo approccio si cerca di capire come i diversi segmenti di diete alimentari affrontino gli alimenti biologici in termini di consumi e di atteggiamenti. Un'analisi multivariata a più fasi è stata condotta su un campione di 3.004 consumatori. Un’analisi delle componenti principali non lineare è stata applicata alle variabili ordinali che misurano il consumo di ventuno categorie di alimenti. Successivamente è stata applicata la cluster analysis che ha dato luogo a quattro segmenti di abitudini alimentari. I prodotti biologici sono diventati parte delle abitudini alimentari in Italia in quasi un terzo della popolazione. Il consumo sembra essersi affermato soprattutto nel segmento con abitudini alimentari sane. Una scarsa attenzione ad una dieta sana, gli stili di vita, il reddito, l'accessibilità, la mancanza di consapevolezza condizionano le abitudini alimentari a scapito di un consumo più sostenibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro mira a una ricostruzione della condizione giuridica del fondo comune di investimento, definito come “patrimonio autonomo e distinto”, su cui il legislatore non ha preso alcuna posizione espressa sul piano della titolarità, lasciando all’interprete il relativo (e tormentato) compito. A tal fine, l’esame critico della disciplina, alla luce di ulteriori forme di separazione patrimoniale rinvenibili nell’ordinamento giuridico, richiede un approccio metodologico teso sì a una ricostruzione in retrospettiva della questione ma anche a una sua analisi sistematica. La prima parte prende avvio dall’analisi della disciplina dei fondi comuni di investimento e della gestione collettiva del risparmio, ripercorrendo i tratti salienti della normativa al fine di acclararne la ratio. Rifuggendo da una redazione meramente compilativa, tale analisi risulta necessaria ai fini dell’esame degli aspetti problematici concernenti la natura giuridica dei fondi comuni di investimento, che non può essere avulso dal relativo contesto normativo. La seconda parte è dedicata al tema della qualificazione giuridica del fondo e della relativa titolarità alla luce della risalente dottrina, dell’evoluzione normativa e della giurisprudenza pronunciatasi sul punto. Sotto questo profilo, la prospettiva di indagine mira ad approfondire alcuni degli spunti emergenti dalle riflessioni teoriche concernenti la natura e la titolarità del fondo, avendo riguardo non solo alla classiche categorie civilistiche ma anche alla reale essenza della struttura e della disciplina dei fondi comuni di investimento e alle specifiche finalità di tutela degli interessi degli investitori perseguite dalla disciplina. Seguendo questo percorso, l’ultima parte volge uno sguardo doveroso alle tematiche concernenti le funzioni della separazione dei patrimoni nell'ambito dei mercati finanziari e del diritto positivo, senza pretermettere le categorie civilistiche, di diritto interno e di diritto straniero, sottese alle fattispecie considerate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Caratteristica comune ai regimi di consolidamento previsti dai diversi ordinamenti, è quella di consentire la compensazione tra utili e perdite di società residenti, e, di negare, o rendere particolarmente difficoltosa, la stessa compensazione, quando le perdite sono maturate da società non residenti. La non considerazione delle perdite comporta una tassazione al lordo del gruppo multinazionale, per mezzo della quale, non si colpisce il reddito effettivo dei soggetti che vi appartengono. L’effetto immediato è quello di disincentivare i gruppi a travalicare i confini nazionali. Ciò impedisce il funzionamento del Mercato unico, a scapito della libertà di stabilimento prevista dagli artt. 49-54 del TFUE. Le previsioni ivi contenute sono infatti dirette, oltre ad assicurare a società straniere il beneficio della disciplina dello Stato membro ospitante, a proibire altresì allo Stato di origine di ostacolare lo stabilimento in un altro Stato membro dei propri cittadini o delle società costituite conformemente alla propria legislazione. Gli Stati membri giustificano la discriminazione tra società residenti e non residenti alla luce della riserva di competenza tributaria ad essi riconosciuta dall’ordinamento europeo in materia delle imposte dirette, dunque, in base all’equilibrata ripartizione del potere impositivo. In assenza di qualsiasi riferimento normativo, va ascritto alla Corte di Giustizia il ruolo di interprete del diritto europeo. La Suprema Corte, con una serie di importanti pronunce, ha infatti sindacato la compatibilità con il diritto comunitario dei vari regimi interni che negano la compensazione transfrontaliera delle perdite. Nel verificare la compatibilità con il diritto comunitario di tali discipline, la Corte ha tentato di raggiungere un (difficile) equilibrio tra due interessi completamenti contrapposti: quello comunitario, riconducibile al rispetto della libertà di stabilimento, quello degli Stati membri, che rivendicano il diritto di esercitare il proprio potere impositivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La proteina umana HDAC1 fa parte della famiglia delle HDAC (Istone Deacetilasi); questi enzimi, ad azione deacetilasica, catalizzano la reazione di rimozione di un gruppo acetile a livello degli istoni, componenti fondamentali della cromatina, la cui struttura influenza il ciclo cellulare e la regolazione dell’espressione genica. L’importanza della proteina in questione, a scopo terapeutico, risiede nello studio degli inibitori ad essa associati, i quali risultano utili a livello farmacologico, come coadiuvanti nelle terapie per la cura di tumori. La produzione di HDAC1 ha previsto l’utilizzo di due diversi ceppi del batterio Escherichia coli, denominati TOP10 e BW25993, che sono serviti come sistemi “ospiti” per l’inserimento del vettore di espressione pBAD-HDAC1 contenente la porzione di DNA che codifica per la proteina ricombinante. Sono state determinate le condizioni più idonee, per entrambi i sistemi analizzati, in modo da massimizzare l’espressione della proteina indotta mediante aggiunta di arabinosio al terreno di coltura. A seconda della combinazione ceppo-vettore, infatti, il livello di espressione ottenuto cambia significativamente. In seguito, gli estratti proteici totali sono stati sottoposti a purificazione mediante diversi passaggi cromatografici ed è stata determinata la resa finale del processo. La caratterizzazione della proteina ricombinante purificata ha evidenziato una forma aggregata, di tipo ottamerico, che potrebbe influenzare l’attività enzimatica. Per questo motivo sono stati portati avanti numerosi tentativi di dissociazione dell’oligomero incubando HDAC1 con diversi agenti. Un effetto disaggregante è stato osservato solo in presenza di due detergenti, SDS (anionico) e CTAB (cationico), i quali hanno permesso di ottenere la proteina in forma monomerica. Tra i due detergenti, l’SDS è risultato più efficace, mentre per il CTAB si richiedono ulteriori indagini ed approfondimenti. Altri studi, infine, sono auspicabili ai fini di migliorare ulteriormente la fase di espressione, in modo da rendere il protocollo di produzione adatto ad un’applicazione a livello industriale.