996 resultados para diffusione anelastica, Compton, apparato sperimentale
Resumo:
Il lavoro presentato in questa tesi è stato svolto nell'ambito dell'esperimento MAGIA (Misura Accurata di G mediante Interferometria Atomica) che, come suggerito dall'acronimo, si propone di realizzare una misura della Costante Gravitazionale G utilizzando un interferometro atomico come sensore di forza. L'obbiettivo di MAGIA è quello di fornire una misura di G con un'incertezza di circa 100 ppm, per raggiungere lo scopo è necessario conoscere il gradiente gravitazionale presente nel laboratorio durante la misura di G. Un errore nella valutazione del gradiente gravitazionale del 10% comporterebbe un errore nella misura di G di 26 ppm. Si è quindi modificato l'apparato per abilitarlo alla misura del gradiente. Dopo la determinazione del gradiente gravitazionale si è portando l'errore sulla misura di G causato dalla sua incertezza a circa 1 ppm. Vista l'importanza della misura del gradiente gravitazionale negli studi geologici e nella ricerca mineraria, si è studiata la possibilità dell'utilizzo dello strumento come gradiometro per misure geologiche. Inoltre si è anche caratterizzato il sistema di iniezione degli atomi e se n’è studiato un possibile miglioramento.
Resumo:
I materiali per applicazioni fotovoltaiche hanno destato un interesse crescente nella comunità scienti�ca negli ultimi decenni. Le celle HIT (Het- erojunction Intrinsic Thin Layer ) sono dispositivi di ultima generazione che hanno raggiunto e�cienza elevata mantenendo bassi i costi di pro- duzione, e impiegano silicio amorfo (a-Si) come strato emettitore per il suo buon assorbimento della luce e silicio cristallino come regione attiva. La struttura amorfa del silicio presenta però una bassa conducibilità, oltre ad e�etti di degradazione che limitano considerevolmente la durevolezza di una cella. Per questo motivo si stanno cercando possibili alternative al silicio amorfo, in particolare strutture multifase e composti di silicio, ossigeno ed azoto. In questo lavoro sono esposti i risultati dell'analisi di sottili lay- er di Silicon Oxynitride ossigenato (SiOx Ny :H), in forma microcristallina, deposti tramite PECVD (P lasma-Enhanced Chemical Vapor Deposition) su vetro presso l'università di Costanza. La forma microcristallina è una distribuzione di agglomerati cristallini dell'ordine di grandezza di un mi- crometro in una matrice di silicio amorfo, e attualmente le sue proprietà ottiche ed elettroniche non sono ancora state studiate in maniera appro- fondita. Nonostante ciò, è invece evidente che la fase microstallina non presenta tanti difetti intrinseci come la forma amorfa e ne è quindi una val- ida alternativa. In questa ottica, si è svolto uno studio sperimentale delle proprietà ottiche di layers in forma microcristallina di SiOx Ny :H, quali la misura del gap energetico. I risultati sperimentali, volti a trovare la dipen- denza delle caratteristiche dai parametri di deposizione dei layers, hanno mostrato una riduzione del gap energetico con la concentrazione di N2 O, uno dei gas precursori utilizzati nella deposizione dei layers in camera di processo. In conclusione si può dire che il μc−SiOx Ny :H ha le buone carat- teristiche tipiche dei semiconduttori cristallini, che unite alla possibilità di regolare il valore del gap energetico in base alle scelte in fase di deposizione, gli conferisce buone prospettive per applicazioni in celle fotovoltaiche, come emettitore in celle ad eterogiunzione.
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
La diffusione di Internet negli ultimi anni e lo sviluppo sempre crescente nell'ambito delle reti di telecomunicazione, hanno portato oggi ad una vera e propria esplosione della diffusione di nuove tecnologie di trasmissione. Inizialmente il protocollo di trasporto dati, TCP, non era stato pensata per operare in scenari diversi da quello della rete fissa. Con l'introduzione di nuovi scenari, come quello wireless, wimax e satellitare, si è notato come le prestazioni peggiorino in questi ambienti. Proprio per questo, il protocollo TCP ha subito parecchie modifiche negli anni e sono state realizzate alternative atte a migliorare l'inefficienza del protocollo. Le modifiche, a cui il TCP è stato sottoposto, sono basate su alcuni criteri di valutazione e l'introduzione di meccanismi come il controllo del flusso o il controllo di congestione in modo da migliorare le performance in ambienti “ostili”. Molti ricercatori si sono concentrati nello studio e modifica di questi nuovi meccanismi cercando di adattare al meglio il TCP secondo diversi scenari di rete, trascurando così altri criteri un pò meno noti. Dopo aver introdotto lo scenario con la descrizione del protocollo TCP, andremo a descrivere e illustrare questi “nuovi criteri” presentando alcuni recenti studi effettuati, in seguito andremo a presentare un nuova versione del protocollo chiamata Early Warning TCP e nell'ultimo capitolo andremo a presentare delle conclusioni degli studi presentati.
Resumo:
Questo studio propone un'esplorazione dei nessi tra processi migratori ed esperienze di salute e malattia a partire da un'indagine sulle migrazioni provenienti dall'America latina in Emilia-Romagna. Contemporaneamente indaga i termini del dibattito sulla diffusione della Malattia di Chagas, “infezione tropicale dimenticata” endemica in America centro-meridionale che, grazie all'incremento dei flussi migratori transnazionali, viene oggi riconfigurata come 'emergente' in alcuni contesti di immigrazione. Attraverso i paradigmi teorico-metodologici disciplinari dell'antropologia medica, della salute globale e degli studi sulle migrazioni, si è inteso indagare la natura della relazione tra “dimenticanza” ed “emergenza” nelle politiche che caratterizzano il contesto migratorio europeo e italiano nello specifico. Si sono analizzate questioni vincolate alla legittimità degli attori coinvolti nella ridefinizione del fenomeno in ambito pubblico; alle visioni che informano le strategie sanitarie di presa in carico dell'infezione; alle possibili ricadute di tali visioni nelle pratiche di cura. Parte della ricerca si è realizzata all'interno del reparto ospedaliero ove è stato implementato il primo servizio di diagnosi e trattamento per l'infezione in Emilia-Romagna. È stata pertanto realizzata una etnografia fuori/dentro al servizio, coinvolgendo i principali soggetti del campo di indagine -immigrati latinoamericani e operatori sanitari-, con lo scopo di cogliere visioni, logiche e pratiche a partire da un'analisi della legislazione che regola l'accesso al servizio sanitario pubblico in Italia. Attraverso la raccolta di narrazioni biografiche, lo studio ha contribuito a far luce su peculiari percorsi migratori e di vita nel contesto locale; ha permesso di riflettere sulla validità di categorie come quella di “latinoamericano” utilizzata dalla comunità scientifica in stretta correlazione con il Chagas; ha riconfigurato il senso di un approccio attento alle connotazioni culturali all'interno di un più ampio ripensamento delle forme di inclusione e di partecipazione finalizzate a dare asilo ai bisogni sanitari maggiormente percepiti e alle esperienze soggettive di malattia.
Resumo:
Considerando l'elevato grado di inquinamento del pianeta e la forte dipendenza delle attività antropiche dai combustibili fossili, stanno avendo notevole sviluppo e incentivazione gli impianti per la produzione di energia elettrica da fonti rinnovabili. In particolare, la digestione anaerobica è in grande diffusione in Italia. Lo studio in oggetto si prefigge l'obiettivo di determinare, mediante analisi di Life Cycle Assessment (LCA), i carichi ambientali di un impianto di digestione anaerobica, e della sua filiera, per valutarne l'effettiva ecosostenibilità. L'analisi considera anche gli impatti evitati grazie all'immissione in rete dell'energia elettrica prodotta e all'utilizzo del digestato in sostituzione dell'urea. Lo studio analizza sei categorie d'impatto: Global warming potential (GWP), Abiotic depletion potential (ADP), Acidification potential (AP), Eutrophication potential (EP), Ozone layer depletion potential (ODP) e Photochemical oxidant formation potential (POFP). I valori assoluti degli impatti sono stati oggetto anche di normalizzazione per stabilire la loro magnitudo. Inoltre, è stata effettuata un'analisi di sensitività per investigare le variazioni degli impatti ambientali in base alla sostituzione di differenti tecnologie per la produzione di energia elettrica: mix elettrico italiano, carbone e idroelettrico. Infine, sono stati analizzati due scenari alternativi all'impianto in esame che ipotizzano la sua conversione ad impianto per l'upgrading del biogas a biometano. I risultati mostrano, per lo scenario di riferimento (produzione di biogas), un guadagno, in termini ambientali, per il GWP, l'ADP e il POFP a causa dei notevoli impatti causati dalla produzione di energia elettrica da mix italiano che la filiera esaminata va a sostituire. I risultati evidenziano anche quanto gli impatti ambientali varino in base alla tipologia di alimentazione del digestore anaerobica: colture dedicate o biomasse di scarto. I due scenari alternativi, invece, mostrano un aumento degli impatti, rispetto allo scenario di riferimento, causati soprattutto dagli ulteriori consumi energetici di cui necessitano sia i processi di purificazione del biogas in biometano sia i processi legati alla digestione anaerobica che, nel caso dello scenario di riferimento, sono autoalimentati. L'eventuale conversione dell'attuale funzione dell'impianto deve essere fatta tenendo anche in considerazione i benefici funzionali ed economici apportati dalla produzione del biometano rispetto a quella del biogas.
Resumo:
La phytoremediation si colloca nel campo dei nuovi interventi di bonifica come una tecnica verde, sostenibile e a basso costo, che può sostituire le ordinarie tecniche ingegneristiche in condizioni di inquinamento da basso a moderato. Si basa sull'utilizzo di piante per contenere, rimuovere o degradare i contaminanti presenti in suolo, sedimenti e acque. In questo studio sono state valutate le capacità fitoestrattive della specie Dittrichia viscosa in suoli derivanti da attività mineraria. Il campionamento è stato realizzato in due siti minerari, il distretto minerario di Montevecchio (VS) e la miniera di Libiola (GE) ed in cinque siti non minerari utilizzati come riferimento e controllo. In ogni sito è stato campionato suolo rizosferico e campioni vegetali della specie D. viscosa. Lo studio si è focalizzato su cinque metalli pesanti molto diffusi e pericolosi: Cu, Ni, Pb, Zn e Cd. Per valutare a quale livello della pianta vengono accumulati, ogni campione vegetale è stato separato in tre porzioni, radici, fusto e foglie, che sono state analizzate separatamente; inoltre, sono state determinate le concentrazioni totali e biodisponibili dei cinque metalli nei suoli rizosferici campionati. Dallo studio è emerso che la specie D. viscosa tende ad accumulare i contaminanti indagati soprattutto a livello fogliare nonostante non sia sempre dimostrato nei campioni provenienti dal sito di Libiola. Grazie alle buone capacità che la pianta presenta nell'accumulare Ni e Zn nell'apparato radicale, e nel trasferire Zn, Pb e Cd nell'apparato fogliare, D. viscosa può essere considerata una buona candidata negli interventi di fitorimedio.
Resumo:
E2F-1 is a transcription factor that plays a key role in cell-cycle control at G1/S check-point level by regulating the timely expression of many target genes whose products are required for S phase entry and progression. In mammalian cells, E2F-1 is negatively regulated by hypo-phosphorylated Retinoblastoma protein (pRb) whereas it is protected against degradation by its binding to Mouse Double Minute 2 protein (MDM2). In this study we experimented a drug combination in order to obtain a strong down-regulation of E2F-1 by acting on two different mechanisms of E2F-1 regulation mentioned above. This was achieved by combining drugs inhibiting the phosphorylation of pRb with drugs inactivating the MDM2 binding capability. The mechanism of action of these drugs in down-regulating E2F-1 level and activity is p53 independent. As expected, when combined, these drugs strongly inhibits E2F-1 and hinder cell proliferation in p53-/- and p53-mutated cells by blocking them in G1 phase of cell cycle, suggesting that E2F-1 down-regulation may represent a valid chemotherapeutic approach to inhibit proliferation in tumors independently of p53 status.
Resumo:
L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
Tesi svolta in collaborazione con Officine Maccaferri S.p.A e con il LIDR (Laboratorio di Ingegneria Idraulica) dell’Università di Bologna. Descrive caratteristiche tecniche di condotte in acciaio, polietilene ad alta densità (PEAD) e resina poliestere rinforzata con fibre di vetro (PRFV), evidenziando vantaggi/svantaggi del loro impiego. Fornisce una descrizione delle modalità di posa delle condotte in relazione ai fattori che condizionano la scelta della tecnica più idonea. Affronta il problema della stabilizzazione e protezione delle condotte soggette all’azione idrodinamica di onde e correnti nelle zona sotto costa e a possibili fattori di rischio esterni. Descrive tecniche di protezione delle condotte sottomarine: interramento (trenching), ricoprimento con materiale roccioso (rock dumping), stabilizzazione con elementi puntuali di appesantimento (concrete collars).Sono descritte le soluzioni di protezione offerte da Officine Maccaferri: materassi articolati in blocchi di calcestruzzo (ACBM) e materassi in geotessuto riempiti di materiale bituminoso (SARMAC). Essi vengono posati sopra la condotta, in posizione longitudinale o trasversale al suo asse, e hanno duplice scopo: (i) incrementarne il peso e la stabilità ai carichi idrodinamici esercitati da onde e correnti e (ii) proteggere la condotta da urti. Partendo dai risultati del modello sperimentale descritto in Gaeta et al. (2012) che evidenziano problemi di erosione localizzata intorno a condotta posata su fondale mobile protetta con materasso ACBM dovuti alla discontinuità materiale del mezzo si valuta, attraverso uno studio numerico, la opportunità di modificare il materasso, ponendo sotto i blocchetti un geotessile. Utilizzando un modello numerico, COBRAS, per la simulazione 2DV del campo idrodinamico si analizza l’effetto di smorzamento del campo di velocità e di vorticità indotto dall’aggiunta del geotessuto simulato come mezzo poroso. I dati sono stati elaborati con MATLAB per ricavare le mappature attorno alla condotta. I test numerici riguardano 3 configurazioni: SARMAC, ACBM, GEO (ACBM+Geotessuto) poggiate su una condotta di diametro costante e sono state analizzate per 2 condizioni di onde regolari di diversa altezza e periodo. Dagli studi emerge che, per casi di condotta posata su fondo mobile, si consiglia l’utilizzo di materassi SARMAC o materassi ACBM modificati con aggiunta di geotessuto. Inoltre il geotessuto svolge anche funzione filtrante, per cui permette il passaggio dell’acqua ma allo stesso tempo trattiene il materiale solido movimentato, senza pericolo di erosione. La presenza dello strato di geotessile non incide sui parametri caratteristici di stabilità globale del materasso ACBM. Si è compiuta un’analisi comparativa tra SARMAC e ACBM per valutare la convenienza delle due soluzioni. Si propone un esempio di dimensionamento nel caso di protezione di un cavo sottomarino comparando caratteristiche tecniche dei materassi SARMAC e ACBM senza geotessile e facendo valutazioni economiche di massima da cui emerge la maggiore convenienza dei materassi ACBM.
Resumo:
Scopo dello studio: la cardiomiopatia aritmogena (CA) è conosciuta come causa di morte improvvisa, la sua relazione con lo scompenso cardiaco (SC) è stata scarsamente indagata. Scopo dello studio è la definizione della prevalenza e incidenza dello SC, nonché della fisiopatologia e delle basi morfologiche che conducono i pazienti con CA a SC e trapianto di cuore. Metodi: abbiamo analizzato retrospettivamente 64 pazienti con diagnosi di CA e confrontato i dati clinici e strumentali dei pazienti con e senza SC (NYHA III-IV). Abbiamo analizzato i cuori espiantati dei pazienti sottoposti a trapianto presso i centri di Bologna e Padova. Risultati: la prevalenza dello SC alla prima osservazione era del 14% e l’incidenza del 2,3% anno-persona. Sedici pazienti (23%) sono stati sottoposti a trapianto. I pazienti con SC erano più giovani all’esordio dei sintomi (46±16 versus 37±12 anni, p=0.04); il ventricolo destro (VD) era più dilatato e ipocinetico all’ecocardiogramma (RVOT 41±6 versus 37±7 mm, p=0.03; diametro telediastolico VD 38±11 versus 28±8 mm, p=0.0001; frazione di accorciamento 23%±7 versus 32%±11, p= 0.002). Il ventricolo sinistro (VS) era lievemente più dilatato (75±29 ml/m2 versus 60±19, p= 0.0017) e globalmente più ipocinetico (frazione di eiezione = 35%±14 versus 57%±12, p= 0.001). Il profilo emodinamico dei pazienti sottoposti a trapianto era caratterizzato da un basso indice cardiaco (1.8±0.2 l/min/m2) con pressione capillare e polmonare tendenzialmente normale (12±8 mmHg e 26±10 mmHg). L’analisi dettagliata dei 36 cuori dei pazienti trapiantati ha mostrato sostituzione fibro-adiposa transmurale nel VD e aree di fibrosi nel VS. Conclusioni: Nella CA lo SC può essere l’unico sintomo alla presentazione e condurre a trapianto un rilevante sottogruppo di pazienti. Chi sviluppa SC è più giovane, ha un interessamento del VD più severo accanto a un costante interessamento del VS, solo lievemente dilatato e ipocinetico, con sostituzione prevalentemente fibrosa.
Resumo:
Premesse: Gli eventi ischemici (EI) e le emorragie cerebrali (EIC) sono le più temute complicanze della fibrillazione atriale (FA) e della profilassi antitrombotica. Metodi: in 6 mesi sono stati valutati prospetticamente i pazienti ammessi in uno dei PS dell’area di Bologna con FA associata ad EI (ictus o embolia periferica) o ad EIC. Risultati: sono stati arruolati 178 pazienti (60 maschi, età mediana 85 anni) con EI. Il trattamento antitrombotico in corso era: a) antagonisti della vitamina K (AVK) in 31 (17.4%), INR all’ingresso: <2 in 16, in range (2.0-3.0) in 13, >3 in 2; b) aspirina (ASA) in 107 (60.1%); c) nessun trattamento in 40 (22.5%), soprattutto in FA di nuova insorgenza. Nei 20 pazienti (8 maschi; età mediana 82) con EIC il trattamento era: a)AVK in 13 (65%), INR in range in 11 pazienti, > 3 in 2, b) ASA in 6 (30%). La maggior parte degli EI (88%) ed EIC (95%) si sono verificati in pazienti con età > 70 anni. Abbiamo valutato l’incidenza annuale di eventi nei soggetti con età > 70 anni seguiti neo centri della terapia anticoagulante (TAO) e nei soggetti con FA stimata non seguiti nei centri TAO. L’incidenza annuale di EI è risultata 12% (95%CI 10.7-13.3) nei pazienti non seguiti nei centri TAO, 0.57% (95% CI 0.42-0.76) nei pazienti dei centri TAO ( RRA 11.4%, RRR 95%, p<0.0001). Per le EIC l’incidenza annuale è risultata 0.63% (95% CI 0.34-1.04) e 0.30% (95% CI 0.19-0.44) nei due gruppi ( RRA di 0.33%/anno, RRR del 52%/anno, p=0.040). Conclusioni: gli EI si sono verificati soprattutto in pazienti anziani in trattamento con ASA o senza trattamento. La metà dei pazienti in AVK avevano un INR sub terapeutico. L’approccio terapeutico negli anziani con FA deve prevedere un’ adeguata gestione della profilassi antitrombotica.
Resumo:
L’elaborato ha ad oggetto lo studio della conciliazione e dell’arbitrato con riferimento alle controversie individuali di lavoro privato e pubblico. Vengono trattati i diversi profili che caratterizzano gli strumenti di risoluzione delle liti alternativi al processo, al fine di comprenderne la disciplina e l’effettiva portata, e di evidenziarne le criticità. L’elaborato si occupa, in primo luogo, di ricostruire il percorso di sviluppo della disciplina legislativa dei due istituti, partendo dalla configurazione del quadro della sua evoluzione storica e affrontando, poi, approfonditamente le più recenti tappe di tale evoluzione. Nella ricostruzione della disciplina della conciliazione e dell’arbitrato viene dato conto dell’assetto delle fonti, legislativa e contrattuale, definendone i rispettivi ruoli e competenze in materia: la tesi si sofferma quindi sul ruolo che il legislatore attribuisce all’autonomia collettiva e sulle modalità con le quali questo ruolo viene concretamente esercitato in sede di contrattazione. Successivamente, viene compiuta una valutazione delle conciliazioni e dell’arbitrato diretta a comprenderne l’efficacia e l’effettività. L’analisi pone in rilievo taluni elementi che sono ritenuti indispensabili per lo sviluppo delle predette caratteristiche e, quindi, per l’opzione e per la fiducia delle parti verso gli strumenti di composizione stragiudiziale delle liti. L’attenzione viene poi focalizzata sui regimi di impugnazione dei provvedimenti con cui si concludono le procedure stragiudiziali, sulla base della riflessione per la quale la diffusione di uno strumento di composizione delle controversie postula necessariamente un certo grado di stabilità degli atti che esso genera. L’ultima parte dell’elaborato è dedicata alla disamina delle ipotesi applicative di successo nell’esperienza italiana di Alternative Dispute Resolution, ossia il tentativo obbligatorio di conciliazione nei licenziamenti economici introdotto dalla Riforma Fornero, la conciliazione monocratica e l’arbitrato per l’impugnazione delle sanzioni disciplinari, anche con l’intento di comprendere quali caratteristiche ne abbiano favorito la diffusione, in rapporto alle altre tipologie di conciliazione e arbitrato di lavoro.
Resumo:
La presente trattazione analizza le novità normative apportate dalle recenti direttive europee sui servizi di pagamento e sulla moneta elettronica (rispettivamente la direttiva 2007/64/CE, c.c. Payment Services Directive o PSD, e la direttiva 2009/110/CE, detta Electronic Money Directive 2 o EMD2). Al fine di incrementare la competitività dei servizi di pagamento, sono stati introdotti nuovi prestatori di servizi di pagamento, non bancari, gli Istituti di Pagamento (IP) e gli Istituti di Moneta Elettronica (IMEL), a cui è stata attribuita la possibilità di far ricorso al contratto di conto di pagamento per la gestione dei servizi di pagamento con possibilità di finanziamento agli utenti. La prima parte della presente trattazione è dedicata alla configurazione giuridica dei nuovi prestatori di servizi di pagamento, influenzante la diffusione dei pagamenti digitali e della moneta elettronica. La seconda parte è rivolta alla ricostruzione giuridica del conto di pagamento, contratto – tipo per la gestione in conto dei servizi di pagamento, ed all’analisi delle modalità di erogazione dei finanziamenti agli utenti. Le direttive predette hanno inoltre attribuito ad IP ed IMEL la facoltà di emettere le carte di pagamento a spendibilità generalizzata, ossia carte di debito e carte di credito. In quanto abilitati all’emissione di moneta elettronica, gli IMEL possono inoltre emettere i c.d. borsellini di moneta elettronica, cioè i dispositivi di memorizzazione e di movimentazione della moneta elettronica. Nella terza parte della trattazione vengono, pertanto, presi in analisi la natura di tali strumenti di pagamento e le differenze intercorrenti rispetto agli affini strumenti bancari. In particolare, ampio spazio è dedicato alla ricostruzione giuridica dei borsellini di moneta elettronica, la cui diffusione tra gli utenti potrebbe avere l’effetto di favorire la progressiva digitalizzazione dei pagamenti e la realizzazione della cashless society.