76 resultados para Cloud Computing Modelli di Business


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il confronto in corso tra gli esperti di management sanitario sui dipartimenti ospedalieri, la crescente attenzione sui modelli di organizzazione a rete e le indagini sui servizi sanitari condotte con strumenti di analisi dei network hanno rappresentato la base su cui sviluppare il disegno dello studio. La prospettiva relazionale e le tecniche di social network analysis (Sna) sono state impiegate in un indagine empirica effettuata presso tre Dipartimenti Ospedalieri dell’Azienda USL di Bologna per osservare la struttura delle relazioni che intercorrono nell’ambito dei dipartimenti, tra le unità operative e tra i clinici, al fine di assicurare il quotidiano svolgersi dei processi clinico assistenziali dei pazienti. L’indagine si è posta tre obiettivi. Il primo è quello di confrontare la rete delle relazioni “reali” che intercorrono tra unità operative e tra clinici con le relazioni “progettate” attraverso l’afferenza delle unità operative nei dipartimenti e dei singoli clinici nelle unità operative. In sostanza si tratta di confrontare, con intenti esclusivamente conoscitivi, la struttura organizzativa formale – istituzionale con quella “informale”, che emerge dalle relazioni giornaliere tra i professionisti. In secondo luogo si intende comprendere se e come i fattori di natura attributiva che caratterizzano i singoli rispondenti, (es. età, sesso, laurea, anni di permanenza in azienda, ecc.) incidano sulla natura e sull’intensità delle relazioni e delle collaborazioni intrattenute con i colleghi all’interno dell’azienda. L’analisi ha un intento “esplicativo”, in quanto si cerca di indagare come le similitudini nelle caratteristiche individuali possano o meno incidere sull’intensità degli scambi e quindi delle collaborazioni tra professionisti. Il terzo obiettivo è volto a comprendere se e come i fattori attributivi e/o relazionali siamo in grado di spiegare l’attitudine mostrata dai singoli professionisti rispetto l’adozione di un approccio alla pratica clinica ispirato all’Evidence based medicine. Lo scopo è quello di verificare se la disponibilità / orientamento ad operare in una prospettiva evidence based sia più legata ad elementi e caratteristiche personali piuttosto che all’influenza esercitata da coloro con i quali si entra in contatto per motivi lavorativi. La relativa semplicità della fase di indagine ha indotto ad arricchire i contenuti e gli obiettivi originari del lavoro allo scopo di correlare indicatori relazionali e attributivi con indicatori di “performance”, in particolare di efficienza e appropriatezza. Le relazioni sono state rilevate attraverso un questionario sociometrico inserito in uno spazio web accessibile dalla rete ospedaliera e compilato online da parte dei medici. Il questionario è stato organizzato in tre sezioni: la prima per la raccolta di informazioni anagrafiche e dati attributivi dei clinici; la seconda volta a raccogliere i dati relazionali, funzionali e di consulenza, verso le equipe di professionisti (unità operative) e verso i singoli colleghi clinici; la terza sezione è dedicata alla raccolta di informazioni sull’utilizzo delle evidenze scientifiche a supporto della propria pratica clinica (consultazione di riviste, banche dati, rapporti di HTA, etc,) e sulla effettiva possibilità di accesso a tali strumenti. L’azienda ha fornito i dati di struttura e la base dati degli indicatori di attività delle UO arruolate nello studio. La compliance complessiva per i tre dipartimenti è stata pari a circa il 92% (302 rispondenti su un campione di 329 medici.). Non si sono rilevate differenze significative sulla compliance per i tre dipartimenti considerati. L’elaborazione dei dati è stata effettuata mediante specifici software per l’analisi delle reti sociali, UCINET 6 per il calcolo degli indicatori relazionali (centralità, densità, structural holes etc.), e Pajek per l’analisi grafica dei network. L’ultima fase è stata realizzata con l’ausilio del software statistico STATA vers. 10. L’analisi dei risultati è distinta in due 2 fasi principali. In primis è stato descritto il network di relazioni professionali rilevate, sono stai calcolati i relativi indicatori di centralità relazionale e verificato il grado di sovrapposizione tra struttura formale dei dipartimenti in studio con le relazioni informali che si stabiliscono tra di essi nell’ambito clinico. Successivamente è stato analizzato l’impatto che le relazioni esercitano sulla propensione da parte dei singoli medici a utilizzare nuove evidenze scientifiche I primi risultati emersi dallo studio forniscono interessanti evidenze, con particolare riguardo al dato di un discreto grado di “sovrapposizione” tra struttura formale e informale delle unità organizzative in studio e a correlazioni significative tra fattori relazionali e attitudine dei medici verso l’utilizzo dell’approccio EBM. Altre evidenze, in specie la correlazione tra “centralità” degli attori organizzativi e alcuni indicatori di performance /appropriatezza, meritano ulteriori approfondimenti e una definitiva validazione. In conclusione lo studio dimostra che la prospettiva relazionale e la Sna consentono di porre in evidenza caratteristiche dei dipartimenti, dei suoi attori e delle loro reti di reciproche relazioni, in grado di favorire la comprensione di alcune dinamiche ricercate proprio attraverso l’organizzazione dipartimentale e quindi di specifico interesse per il management, i clinici e quanti altri impegnati nella gestione e nello sviluppo di questo modello di organizzazione dell’ospedale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi analizza il rapporto tra pratiche sociali, modelli di insediamento e morfologia urbana in due casi di costruzione di un tessuto urbano operaio che si prestano ad una stimolante comparazione. Da un lato abbiamo degli immigrati verso un polo industriale dell’area metropolitana milanese (Sesto San Giovanni), dall’altro un bacino minerario vallone (La Louvière). Si tratta di contesti di inserimento in aree industriali profondamente differenti dal punto di vista della morfologia sociale e dell’organizzazione territoriale, che profilano spazi ibridi tra rurale e urbano in profonda e rapida trasformazione, a causa del massiccio afflusso di manodopera immigrata. Le profonde differenze tra le due aree consentono di mettere alla prova dell’analisi comparata concetti e percorsi storici dell’integrazione, del tessuto sociale che la presuppone, della cittadinanza, della costruzione delle identità collettive in modo da superare stereotipe dicotomie tra rurale/urbano, tradizione/moderno, integrazione/conflitto. La tesi sviluppa un’analisi parallela dei due casi lungo un crinale argomentativo unitario che si apre con una ricerca sui flussi migratori e i contesti di approdo delle migrazioni. Nei primi due capitoli viene delineato il contesto economico, sociale e territoriale nel quale si inseriscono i due processi migratori. Per il caso belga, si analizzano il ciclo economico dell’industria carbonifera, il processo di spopolamento della Vallonia, l’avvio dei flussi migratori al termine della seconda guerra mondiale e i meccanismi che li hanno presieduti, vale a dire una migrazione contrattata tra i due governi che spostavano migranti provenienti da poche e selezionate località, rendono conto del primo dei due flussi. Per quanto riguarda il caso interno, viene delineato il contesto della rapida urbanizzazione che porta una serie di comuni contermini al capoluogo lombardo ad entrare nell’orbita metropolitana, qualificandosi come poli periferici di un’area vasta e perdendo la riconoscibilità come nuclei urbani indipendenti. Delineato questo quadro generale, la tesi affronta la questione delle abitazioni e delle forme urbane che assumono queste due mete di migrazione. Per quanto riguarda La Louvière, è ricostruito il duro impatto con il mondo del lavoro nelle miniere e le miserevoli condizioni abitative dei primi immigrati, l’assenza di una iniziativa pubblica nel settore abitativo fino al 1954, solo debolmente compensata dalle iniziative patronali, e la fase invece della seconda metà degli anni ‘50 che porta alla stabilizzazione degli immigrati italiani nell’area. Di Sesto San Giovanni viene ricostruita la complessa transizione a moderna periferia urbana, a partire da insediamenti di tipo rurale, passando attraverso le «Coree» e l’iniziativa pubblica, locale e nazionale, nonché l’intervento edilizio delle grandi imprese industriali che operavano nel suo territorio. L’intervento urbanistico nella cintura metropolitana milanese era al centro di un vivace dibattito sulla pianificazione urbanistica a livello intercomunale che dà luogo a ricerche e studi sulla condizione abitativa. Nell’ultima parte della ricerca, si approfondiscono gli aspetti sociali e culturali del percorso di insediamento e di integrazione nel tessuto urbano. E’ in questa parte che vengono maggiormente utilizzate le fonti orali – sempre opportunamente affiancate e confrontate con altri documenti – al fine di individuare la percezione di sé, della propria identità, le relazioni con altri gruppi sociali, i cambiamenti che la migrazione e l’incontro con la città e l’industria portano nei ruoli di genere, nelle prospettive di vita, nei desideri e nei progetti di questi migranti. Rilevando le peculiarità di due esperienze sociali di migrazione che a partire da contesti di partenza molto simili e portando perlopiù dei contadini ad incontrare città di un mondo lontano, la comparazione profila dinamiche sociali, identitarie e politiche profondamente diverse nei bacini minerari valloni e nella metropoli del miracolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sebbene Anarsia lineatella sia un fitofago ormai da anni introdotto e diffuso in Italia, ancora poco si conosce circa le sue abitudini riproduttive. In considerazione della elevata dannosità di A. lineatella nei pescheti del nord Italia e delle scarse conoscenze sulla sua biologia, si è evidenziata la necessità di approfondire la conoscenza di questo fitofago. Pertanto gli scopi di questa ricerca hanno riguardato l’approfondimento delle conoscenze sui sistemi di comunicazione intraspecifici utilizzati da A. lineatella; la valutazione dell’efficacia di diverse miscele di feromone sintetico, in laboratorio utilizzando anche densità diverse di popolazioni di anarsia e in campo utilizzando gabbie di accoppiamento appositamente costruite, posizionate in frutteti a conduzione biologica nel nord Italia e messe a confronto con gabbie che utilizzavano come fonte attrattiva femmine vergini di tre giorni di età. Sono state condotte prove sul comportamento di maschi di A. lineatella di differenti età in risposta al feromone emesso da femmine vergini di tre giorni di età e al feromone emesso da erogatori di materiale plastico contenenti differenti miscele di feromone sintetico. Sono stati condotti studi per verificare l’influenza del contenuto di alcol ((E)5-10:OH) nella miscela feromonica sulla capacità di inibizione degli accoppiamenti, sottoponendo gli insetti a differenti concentrazioni di feromone in modo da verificare eventuali differenze di attività delle diverse miscele, differenze che emergerebbero con evidenza maggiore alle minori concentrazioni. Alcune prove sono state effettuate anche con differenti densità di popolazione, poiché una maggiore densità di popolazione determina una maggiore probabilità di accoppiamento, evidenziando più chiaramente i limiti di efficacia della miscela utilizzata. Inoltre sono state effettuate prove di campo per confrontare due modelli di erogatore per la confusione sessuale di anarsia contenenti miscele con differenti percentuali di alcol Inoltre, poiché nei pescheti la presenza di A. lineatella è pressoché sempre associata a quella di Cydia molesta e l’applicazione del metodo della confusione deve spesso essere applicato per controllare entrambi gli insetti, può risultare vantaggioso disporre di un unico erogatore contenente entrambi i feromoni; è stato quindi valutato un erogatore contenente una miscela dei due feromoni per verificare eventuali interazioni che possano ridurre l’efficacia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato considera anzitutto la genesi dell'istituto, e con chiarezza analizza il percorso di affioramento della figura del distacco nell'impiego pubblico rimarcando affinità e differenze con ipotesi similari di temporanea dissociazione tra datore di lavoro e fruitore della prestazione. Nell'operare gli opportuni distinguo, il dott. Tortini si confronta con la fattispecie tipica del lavoro subordinato e con il divieto di dissociazione che ad essa sarebbe sotteso, anche alla luce della legge 1369 del 1960 sul divieto di interposizione. Gli elementi caratterizzanti il distacco sono poi esposti analizzando con acutezza i più rilevanti orientamenti emersi nella giurisprudenza di merito e di legittimità , in specie con riguardo alla prassi invalsa nei gruppi di società  di dirigere la prestazione di lavoro a favore di società  collegate o controllate dalla società  datrice di lavoro. In tal senso l'elaborato prende posizione in ordine alla necessaria temporaneità  dell'interesse del distaccante, nonchè all'inclusione del distacco nell'ambito del potere direttivo-organizzativo del datore di lavoro, ciò che esclude la necessità  del consenso del lavoratore distaccato. Nel secondo capitolo il dott. Tortini si confronta con il quadro delle libertà  fondamentali del diritto comunitario, ed in particolare con la libera prestazione di servizi, analizzando profili essenziali quali la natura autonoma, la transnazionalità  e la temporaneità  del servizio prestato. Con ampi riferimenti alla dottrina, anche comparata, in argomento, il capitolo delinea le possibili forme di interazione tra gli ordinamenti nazionali all'interno dell'Unione europea ed individua, in alternativa, tre modelli di coordinamento tra le esigenze liberalizzanti tipiche del mercato unico e le prerogative nazionali di tipo protezionistico che si manifestano qualora un servizio venga prestato in uno Stato membro diverso da quello in cui ha sede il prestatore: host state control, home state control e controllo sovranazionale. L'analisi si rivela essenziale al fine di delineare le ragioni della più recente giurisprudenza della Corte di giustizia in tema di appalti cross-border e libera circolazione dei lavoratori, e dimostra un sostanziale "slittamento" della base giuridica mediante la quale il diritto comunitario regola il fenomeno della prestazione di lavoro transnazionale, dall'art. 39 all'art. 49 TCE. Il terzo capitolo confronta l'impianto teorico ricavabile dai principi del Trattato con la Direttiva 96/71 sul distacco ed i relativi provvedimenti attuativi (d.lgs. n. 72/2000 e art. 30, d.lgs. n. 276/2003). In particolare, vengono analizzate le ipotesi limitrofe alla nozione di distacco ricavabile dal diritto comunitario, accomunate dalla dissociazione tra datore di lavoro ed utilizzatore della prestazione, ma distinguibili in base alla natura del rapporto contrattuale tra impresa distaccante ed impresa distaccataria. La funzione principale della Direttiva comunitaria in argomento viene individuata dal dott. Tortini nella predisposizione di una base inderogabile di diritti che devono essere, in ogni caso, assicurati al lavoratore oggetto del distacco. Questa base, denominata hard core della tutela, deve essere garantita, all'interno del singolo Stato membro, dalla contrattazione collettiva. Nell'ordinamento italiano, la disciplina del distacco contenuta nella Direttiva viene attuata con il d.lgs. n. 72/2000 che, come opportunamente segnalato dal dott. Tortini, contiene una serie di incongruenze e di lacune. Fra tutte, si rimarca come la stessa Commissione abbia rilevato uno scostamento tra le due discipline, dato che la legge italiana estende surrettiziamente ai lavoratori distaccati tutte le disposizioni legislative e/o i contratti collettivi che disciplinano le condizioni di lavoro, operazione non consentita dal la Direttiva 76/91. E' in specie il riferimento al contratto collettivo stipulato dalle organizzazioni comparativamente più rappresentative ad essere criticato dall'elaborato, in quanto finisce con il trasformare l'art. 3.1 del D. Lgs. 72/2000 in una discriminazione fondata sulla nazionalità  e rischia di creare maggiori difficoltà  e più oneri per gli imprenditori stranieri che intendano erogare servizi sul territorio nazionale. A conclusione della tesi, il dott. Tortini esamina la nozione di distacco introdotta ad opera dell'art. 30, d.lgs. n. 276/2003, ed enuclea gli elementi caratterizzanti dell'istituto, individuati nell'interesse del distaccante e nella temporaneità  dell'assegnazione, definita «l'in sè» dell'interesse stesso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I viaggi e gli studi compiuti in Croazia, Montenegro e Bosnia Erzegovina in occasione della Tesi di Laurea hanno costituito l’occasione per comprendere quanto sia consistente il retaggio di Roma antica sulla sponda orientale dell’Adriatico. Nello stesso tempo si è potuto constatare che, per diversi motivi, dal punto di vista prettamente scientifico, la ricchezza di questo patrimonio archeologico aveva sino allora trovato soltanto poche occasioni di studio. Da qui la necessità di provvedere a un quadro completo e generale relativo alla presenza romana in un territorio come quello della provincia romana di Dalmatia che, pur considerando la sua molteplicità geografica, etnica, economica, culturale, sociale e politica, ha trovato, grazie all’intervento di Roma, una sua dimensione unitaria, un comune denominatore, tanto da farne una provincia che ebbe un ruolo fondamentale nella storia dell’Impero. Il lavoro prende le mosse da una considerazione preliminare e generale, che ne costituisce quasi lo spunto metodologico più determinante: la trasmissione della cultura e dei modelli di vita da parte di Roma alle altre popolazioni ha creato un modello in virtù del quale l’imperialismo romano si è in certo modo adattato alle diverse culture incontrate ed assimilate, dando vita ad una rete di culture unite da elementi comuni, ma anche profondamente diversificate per sintesi originali. Quella che pare essere la chiave di lettura impiegata è la struttura di un impero a forma di “rete” con forti elementi di coesione, ma allo stesso tempo dotato di ampi margini di autonomia. E questo a cominciare dall’analisi dei fattori che aprirono il cammino dell’afflusso romano in Dalmatia e nello stesso tempo permisero i contatti con il territorio italico. La ricerca ne analizza quindi i fattori:il diretto controllo militare, la costruzione di una rete viaria, l’estensione della cittadinanza romana, lo sviluppo della vita locale attraverso la formazione di una rete di municipi, i contatti economici e l’immigrazione di genti romanizzate. L’analisi ha posto in evidenza una provincia caratterizzata da notevoli contraddizioni, che ne condizionarono – presso entrambi i versanti del Velebit e delle Alpi Dinariche – lo sviluppo economico, sociale, culturale e urbanistico. Le profonde differenze strutturali tra questi due territori rimasero sempre presenti: la zona costiera divenne, sotto tutti i punti di vista, una sorta di continuazione dell’Italia, mntre quella continentale non progredì di pari passo. Eppure l’influenza romana si diffuse anche in questa, così che essa si pote conformare, in una certa misura, alla zona litoranea. Come si può dedurre dal fatto che il severo controllo militare divenne superfluo e che anche questa regione fu dotata progressivamente di centri amministrati da un gruppo dirigente compiutamente integrato nella cultura romana. Oltre all’analisi di tutto ciò che rientra nel processo di acculturazione dei nuovi territori, l’obiettivo principale del lavoro è l’analisi di uno degli elementi più importanti che la dominazione romana apportò nei territori conquistati, ovvero la creazione di città. In questo ambito relativamente periferico dell’Impero, qual è il territorio della provincia romana della Dalmatia, è stato dunque possibile analizzare le modalità di creazione di nuovi centri e di adattamento, da parte di Roma, ai caratteri locali dell’insediamento, nonché ai condizionamenti ambientali, evidenziando analogie e differenze tra le città fondate. Prima dell’avvento di Roma, nessuna delle regioni entrate a far parte dei territori della Dalmatia romana, con la sola eccezione della Liburnia, diede origine a centri di vero e proprio potere politico-economico, come ad esempio le città greche del Mediterraneo orientale, tali da continuare un loro sviluppo all’interno della provincia romana. In altri termini: non si hanno testimonianze di insediamenti autoctoni importanti che si siano trasformati in città sul modello dei centri provinciali romani, senza aver subito cambiamenti radicali quali una nuova pianificazione urbana o una riorganizzazione del modello di vita locale. Questo non significa che la struttura politico-sociale delle diverse tribù sia stata cambiata in modo drastico: almeno nelle modeste “città” autoctone, nelle quali le famiglie appaiono con la cittadinanza romana, assieme agli ordinamenti del diritto municipale, esse semplicemente continuarono ad avere il ruolo che i loro antenati mantennero per generazioni all’interno della propria comunità, prima della conquista romana. Il lavoro mette compiutamente in luce come lo sviluppo delle città nella provincia abbia risentito fortemente dello scarso progresso politico, sociale ed economico che conobbero le tribù e le popolazioni durante la fase pre-romana. La colonizzazione greca, troppo modesta, non riuscì a far compiere quel salto qualitativo ai centri autoctoni, che rimasero sostanzialmente privi di concetti basilari di urbanistica, anche se è possibile notare, almeno nei centri costieri, l’adozione di tecniche evolute, ad esempio nella costruzione delle mura. In conclusione questo lavoro chiarisce analiticamente, con la raccolta di un’infinità di dati (archeologici e topografici, materiali ed epigrafici, e desunti dalle fonti storiche), come la formazione della città e l’urbanizzazione della sponda orientale dell’adriatico sia un fenomeno prettamente romano, pur differenziato, nelle sue dinamiche storiche, quasi caso per caso. I dati offerti dalla topografia delle città della Dalmatia, malgrado la scarsità di esempi ben documentati, sembrano confermare il principio della regolarità degli impianti urbani. Una griglia ortogonale severamente applicata la si individua innanzi tutto nelle città pianificate di Iader, Aequum e, probabilmente, anche a Salona. In primis nelle colonie, quindi, ma non esclusivamente. Anche numerosi municipi sviluppatisi da insediamenti di origine autoctona hanno espresso molto presto la tendenza allo sviluppo di un sistema ortogonale regolare, se non in tutta l’area urbana, almeno nei settori di più possibile applicazione. Ne sono un esempio Aenona, Arba, Argiruntum, Doclea, Narona ed altri. La mancanza di un’organizzazione spaziale regolare non ha tuttavia compromesso l’omogeneità di un’attrezzatura urbana tesa alla normalizzazione, in cui i componenti più importanti, forum e suoi annessi, complessi termali, templi dinastici e capitolia, si avviano a diventare canonici. Le differenze più sensibili, che pure non mancano, sembrano dipendere dalle abitudini delle diverse etnie, dai condizionamenti topografici e dalla disponibilità finanziaria dei notabili. Una città romana non può prendere corpo in tutta la sua pienezza solo per la volontà del potere centrale. Un progetto urbanistico resta un fatto teorico finché non si realizzano le condizioni per cui si fondano due fenomeni importantissimi: uno socio-culturale, che consiste nell’emergenza di una classe di notabili “fortunati” desiderosi di dare a Roma dimostrazioni di lealtà, pronti a rispondere a qualsiasi sollecitazione da parte del potere centrale e addirittura ad anticiparlo; l’altro politico-amministrativo, che riguarda il sistema instaurato da Roma, grazie al quale i suddetti notabili possono godere di un certo potere e muoversi in vista della promozione personale nell’ambito della propria città. Aiuti provenienti dagli imperatori o da governatori provinciali, per quanto consistenti, rimangono un fatto non sistematico se non imprevedibile, e rappresentano comunque un episodio circoscritto. Anche se qualche città risulta in grado di costruire pecunia publica alcuni importanti edifici del quadro monumentale, il ruolo del finanziamento pubblico resta relativamente modesto. Quando la documentazione epigrafica esiste, si rivela che sono i notabili locali i maggiori responsabili della costruzione delle opere pubbliche. Sebbene le testimonianze epigrafiche siano scarse e, per la Dalmatia non sia possibile formulare un quadro completo delle committenze che favorirono materialmente lo sviluppo architettonico ed artistico di molti complessi monumentali, tuttavia è possibile osservare e riconoscere alcuni aspetti significativi e peculiari della provincia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mostra è diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo è piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta l’ingresso, nella scena dell’arte, dell’area del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, ‘teatralizzando’ il medium della mostra come strumento di potere e introducendo un nuovo “stile di presentazione” dei lavori, un display ‘dematerializzato” che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale all’interno del sistema dell’arte. Lo studio delle radici di questo cambiamento, ossia l’emergere di due tipi di autorialità: il curatore indipendente e l’artista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca è stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie – assumendo materiali e metodologie provenienti, come già dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata dell’oggetto di studio, con un atteggiamento che si può definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: l’emergere e l’affermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Musée d’Art Moderne, Départment des Aigles, analizzano la struttura della logica espositiva come opera d’arte. Nel secondo capitolo l’indagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra l’arte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalità di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato all’esposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, così come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si ‘postulavano’ le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola ‘curatori’ e si propongono come ‘organizzatori’). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dell’ideologia, l’apertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono l’Europa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dall’analisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di un’esposizione: Les Immatériaux, entrambe al Pompidou. Proseguendo nell’analisi dell’ampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dell’espansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: l’inclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione è il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee è non essere più conformi alle tre unità classiche della modernità: unità di tempo, di spazio e di narrazione. L’episodio più emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore è stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralità di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale all’altezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dell’estetico: dalla mostra laboratorio alla mostra come archivio, l’evento si svolge nel museo ma anche nella città, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta l’ultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50° Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric à brac; la “Scuola” di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento più analitico con questa particolare forma espressiva. Qual è l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos’è la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? L’arte del display: ipotesi critiche, prospettive e sviluppi recenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca oggetto della tesi dottorale ha riguardato l’analisi della problematica relativa ai cambiamenti provocati dalla diversificazione delle attività aziendali bancarie nell'ottica tributaria. Si è individuato nella composizione del reddito imponibile il fulcro centrale del lavoro. Data la grande importanza del mercato finanziario la presente ricerca si è proposta una valutazione dell’attività bancaria tradizionale, facendo un’analisi della relativa fiscalità. In particolare si è cercato di evidenziare il momento in cui la banca è diventata un’azienda molto più complessa e moderna di quella che era originariamente. Tale cambiamento ha così richiesto un corrispondente sviluppo della tecnica giuridica tributaria di riferimento. Si sono altresì analizzate le fasi della implementazione e dello sviluppo nell’ordinamento tributario italiano ed europeo (analizzando così le difficoltà di adattamento per i modelli di Civil Law e Common Law) dell'armonizzazione giuridico/contabile europea e dell’adozione dei principi IAS/IFRS. A tal fine si sono ripercorse le fasi anteriori all’adozione dei menzionati principi e la loro evoluzione e, nel farlo, si sono fissati i punti ove sembra sia necessario un ripensamento da parte del legislatore comunitario. Il tutto è stato sviluppato senza trascurare la giurisprudenza nazionale e della Corte di Giustizia europea, in modo tale da tentare di individuare le soluzioni alle nuove sfide che il diritto tributario comunitario si trova a fronteggiare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto del lavoro si sostanzia nella verifica del grado di giustiziabilità che i diritti sociali ricevono nell’ordinamento dell’Unione europea. L’indagine si articola in tre capitoli. Il primo è dedicato ad una sintetica ricostruzione dei modelli di welfare state riconosciuti dagli ordinamenti dei diversi paesi membri dell’Unione attraverso cui, la candidata enuclea un insieme di diritti sociali che ricevono tutela in tutti gli ordinamenti nazionali. L’esposizione prosegue, con la ricostruzione dell’evoluzione dei Trattati istitutivi dell’Unione e l’inclusione della sfera sociale tra gli obiettivi di questa. In particolare, il secondo capitolo esamina la giurisprudenza della Corte di Giustizia in relazione alle materie sociali, nonché l’inclusione dei diritti sociali nel testo della Carta dei diritti fondamentali. L’analisi si sofferma sulle tecniche normative adottate nell’area della politica sociale, evidenziando la tendenza ad un approccio di tipo “soft” piuttosto che attraverso il classico metodo comunitario. Esaurita questa analisi il terzo capitolo analizza i rapporti tra il diritto dell’Ue e quello della CEDU in materia di diritti sociali, evidenziano il diverso approccio utilizzato dalle due istanze sovranazionali nella tutela di questi diritti. Sulla base del lavoro svolto si conclude per una sostanziale mancanza di giustiziabilità dei diritti sociali in ambito dell’Unione. In particolare i punti deboli dell’Europa sociale vengono individuati in: un approccio regolativo alla dimensione sociale di tipo sempre più soft; la permanenza di alcuni deficit di competenze; la mancata indicazione di criteri di bilanciamento tra diritti sociali e libertà economiche e dalla compresenza delle due nozioni di economia sociale e di economia di mercato. Le conclusioni mostrano come l’assenza di competenze esclusive dell’Unione in materia di politica sociale non consenta una uniformazione/armonizzazione delle politiche sociali interne, che si riflette nell’incapacità dei modelli sociali nazionali di assorbire i grandi mutamenti macro economici che si sono avuti negli ultimi vent’anni, sia a livello sovranazionale che internazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro mira ad analizzare l’organizzazione della gestione aeroportuale come venutasi a delineare a seguito dei processi di privatizzazione nella gestione stessa e di liberalizzazione nella prestazione dei servizi nonché ad esaminare gli effetti di tali processi sulla concorrenza tra aeroporti. Per affrontare tali profili di ricerca, il lavoro è suddiviso in quattro capitoli. Nel primo capitolo viene analizzata l’organizzazione amministrativa dell’aviazione civile e quindi i principali soggetti che operano e/o interagiscono nel mercato aeroportuale e le relative competenze. Nel secondo capitolo si analizza il ruolo del gestore aeroportuale quale soggetto a cui è affidato il compito di amministrare e gestire le infrastrutture aeroportuali e di coordinare e controllare le attività dei vari operatori privati presenti nello scalo. Pertanto si prenderà in esame l’evoluzione dei modelli di gestione aeroportuale, il rapporto tra concessionario e concedente, la qualificazione dell’attività di gestione dell’infrastruttura come servizio pubblico e la regolazione pubblicistica della stessa, volta a correggere le imperfezioni che possono distorcere il normale funzionamento dei meccanismi di mercato e a perseguire il benessere sociale. Nel terzo capitolo, si affronta il tema della liberalizzazione dei servizi, in particolari aerei e c.d. di handling. Infine, nel quarto e ultimo capitolo, si studia la concorrenza tra aeroporti e la sua interrelazione con l’infrastruttura ferroviaria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni le istituzioni e la regolamentazione hanno svolto un ruolo sempre più importante nell’analisi della crescita economica. Tuttavia, non è facile interpretare le istituzioni e gli effetti dei regolamenti sulla crescita attraverso indicatori che tendono a “misurare” le istituzioni. Lo scopo di questa ricerca è analizzare la relazione di lungo periodo tra la crescita economica e la regolamentazione e il ruolo della regolamentazione antitrust sulla crescita economica. La stima econometrica dei modelli di crescita con la concorrenza e gli indicatori di potere di mercato si base su un dataset appositamente costruito che copre 211 Paesi, su un arco temporale massimo di 50 anni (da 1960 a 2009). In particolare, cerchiamo di identificare un quadro analitico volto a integrare l’analisi istituzionale ed economica al fine di valutare il ruolo della regolamentazione e, più in generale, il ruolo delle istituzioni nella crescita economica. Dopo una revisione della letteratura teorica ed empirica sulla crescita e le istituzioni, vi presentiamo l’analisi dell'impatto normativo (RIA) in materia di concorrenza, e analizziamo le principali misure di regolamentazione, la governance e le misure antitrust. Per rispondere alla nostra domanda di ricerca si stimano modelli di crescita prendendo in considerazione tre diverse misure di regolamentazione: la Regulation Impact (RI), la Governance (GOV), e la libertà economica (LIB). Nel modello a effetti fissi, RI, gli effetti della legislazione antitrust sulla crescita economica sono significativi e positivi, e gli effetti di durata antitrust sono significativi, ma negativi. Nel pannel dinamico, GOV, gli effetti dell’indicatore di governance sulla crescita sono notevoli, ma negativo. Nel pannel dinamico, LIB, gli effetti della LIB sono significativi e negativi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oncolytic virotherapy exploits the ability of viruses to infect and kill cells. It is suitable as treatment for tumors that are not accessible by surgery and/or respond poorly to the current therapeutic approach. HSV is a promising oncolytic agent. It has a large genome size able to accommodate large transgenes and some attenuated oncolytic HSVs (oHSV) are already in clinical trials phase I and II. The aim of this thesis was the generation of HSV-1 retargeted to tumor-specific receptors and detargeted from HSV natural receptors, HVEM and Nectin-1. The retargeting was achieved by inserting a specific single chain antibody (scFv) for the tumor receptor selected inside the HSV glycoprotein gD. In this research three tumor receptors were considered: epidermal growth factor receptor 2 (HER2) overexpressed in 25-30% of breast and ovarian cancers and gliomas, prostate specific membrane antigen (PSMA) expressed in prostate carcinomas and in neovascolature of solid tumors; and epidermal growth factor receptor variant III (EGFRvIII). In vivo studies on HER2 retargeted viruses R-LM113 and R-LM249 have demonstrated their high safety profile. For R-LM249 the antitumor efficacy has been highlighted by target-specific inhibition of the growth of human tumors in models of HER2-positive breast and ovarian cancer in nude mice. In a murine model of HER2-positive glioma in nude mice, R-LM113 was able to significantly increase the survival time of treated mice compared to control. Up to now, PSMA and EGFRvIII viruses (R-LM593 and R-LM613) are only characterized in vitro, confirming the specific retargeting to selected targets. This strategy has proved to be generally applicable to a broad spectrum of receptors for which a single chain antibody is available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’introduzione dei costumi tecnici nel nuoto ha portato miglioramenti senza precedenti sulla prestazione. I miglioramenti nella velocità di nuoto sono stati attribuiti dalla letteratura a riduzioni nelle resistenze idrodinamiche sul nuotatore. Tuttavia, gli effetti specifici dovuti all’utilizzo di questo tipo di costume non sono ancora completamente chiariti. Questa tesi aveva l’obiettivo di indagare gli effetti del costume tecnico sul galleggiamento statico, sulla posizione del corpo e sulla resistenza idrodinamica in avanzamento passivo. Nello studio preliminare sono stati misurati la spinta idrostatica, i volumi polmonari dinamici e la circonferenza toracica di 9 nuotatori che indossavano un costume tradizionale o un costume tecnico in gomma sintetica. Indossare il costume tecnico ha determinato una riduzione significativa del galleggiamento statico, e la compressione toracica causata da questo tipo di costume potrebbe avere una relazione con la significativa riduzione dei volumi polmonari misurati quando il nuotatore indossa questo tipo di costume. Un successiva analisi prevedeva il traino passivo di 14 nuotatori che mantenevano la miglior posizione idrodinamica di scivolamento indossando un costume tradizionale, tecnico in tessuto e tecnico in gomma. La posizione del corpo in avanzamento è stata misurata con un’analisi cinematica. La resistenza passiva indossando i costumi tecnici è risultata significativamente minore per entrambi i costumi tecnici rispetto alla prova con costume tradizionale. L’analisi condotta attraverso modelli di regressione lineari ha mostrato che una parte della riduzione della resistenza passiva era legata a proprietà intrinseche dei costumi tecnici. Tuttavia, anche l’area di impatto frontale determinata dall’inclinazione del tronco del soggetto in scivolamento e l’inclinazione degli arti inferiori hanno mostrato una marcata influenza sulla resistenza idrodinamica passiva. Pertanto, la riduzione di resistenza idrodinamica durante lo scivolamento passivo effettuato con costume tecnico da nuoto è attribuibile, oltre all’effetto del materiale di composizione del costume, ad una variazione della posizione del corpo del nuotatore.