926 resultados para dissipatori fluido viscosi, distribuzione proprietà di smorzamento, analisi non lineari
Resumo:
Negli ultimi anni, parallelamente all’espansione del settore biologico, si è assistito a un crescente interesse per i modelli alternativi di garanzia dell’integrità e della genuinità dei prodotti biologici. Gruppi di piccoli agricoltori di tutto il mondo hanno iniziato a sviluppare approcci alternativi per affrontare i problemi connessi alla certificazione di terza parte. Queste pratiche sono note come Sistemi di Garanzia Partecipativa (PGS). Tali modelli: (i) si basano sugli standard di certificazione biologica dell’IFOAM, (ii) riguardano il complesso dei produttori di una comunità rurale, (iii) comportano l’inclusione di una grande varietà di attori e (iv) hanno lo scopo di ridurre al minimo burocrazia e costi semplificando le procedure di verifica e incorporando un elemento di educazione ambientale e sociale sia per i produttori sia per i consumatori. Gli obiettivi di questo lavoro di ricerca: • descrivere il funzionamento dei sistemi di garanzia partecipativa; • indicare i vantaggi della loro adozione nei Paesi in via di sviluppo e non; • illustrare il caso della Rede Ecovida de Agroecologia (Brasile); • offrire uno spunto di riflessione che riguarda il consumatore e la relativa fiducia nel modello PGS. L’impianto teorico fa riferimento alla Teoria delle Convenzioni. Sulla base del quadro teorico è stato costruito un questionario per i consumatori con lo scopo di testare l’appropriatezza delle ipotesi teoriche. I risultati finali riguardano la stima del livello di conoscenza attuale, la fiducia e la volontà d’acquisto dei prodotti PGS da parte dei consumatori nelle aree considerate. Sulla base di questa ricerca sarà possibile adattare ed esportare il modello empirico in altri paesi che presentano economie diverse per cercare di comprendere il potenziale campo di applicazione dei sistemi di garanzia partecipativa.
Resumo:
Il concetto di contaminazione fra architettura ed arti plastiche e figurative è molto antico. La dicotomia arte-architettura, sancita in via definitiva con il moderno museo di spoliazione napoleonica, non può che essere considerata una variazione neo-tecnicista sulla quale, non sempre giustamente, sono andati assestandosi gli insegnamenti delle scuole politecniche. Non così è sempre stato. Come il tempio greco può essere considerato un’opera plastica nel suo complesso, esempio tra i primi di fusione tra arte e architettura, moltissimi sono gli esempi che hanno guidato la direzione della ricerca che si è intesa perseguire. Molti sono gli esempi del passato che ci presentano figure di architetto-artista: un esempio fra tutti Michelangelo Buonarroti; come per altro non è nuovo, per l’artista puro, cimentarsi nella progettazione dello spazio architettonico o urbano, o per l'architetto essere coinvolto dalle indagini della ricerca artistica a lui contemporanea dalla quale trarre suggestioni culturali. Le rappresentazioni dei linguaggi visivi sono il frutto di contaminazioni che avvengono su diversi livelli e in più direzioni. Spesso le ricerche artistiche più significative hanno anticipato o influenzato il mondo del design, dell’architettura, della comunicazione. L’intenzione della ricerca è stata quindi approfondire, attraverso un viaggio nel Novecento, con particolare attenzione al Secondo Dopoguerra, i fenomeni culturali che hanno prodotto i più significativi sviluppi stilistici nell’ambito della ricerca e del rinnovo del linguaggio architettonico. Il compito, parafrasando Leonardo Benevolo, non è stato quello di elencare le singole battute della discussione ma di riconoscere gli interventi fruttuosi a lunga scadenza. Mutuando gli insegnamenti della scuola del Bauhaus, arte e architettura sono state affiancate perché considerate espressioni strettamente relazionate di coevi fenomeni culturali. L’obiettivo ha puntato all’individuazione dei meccanismi delle interazioni tra discipline, cercando di delineare il profilo della complessità dell’espressione del contemporaneo in architettura.
Resumo:
The aim of the thesis is to investigate the topic of semantic under-determinacy, i.e. the failure of the semantic content of certain expressions to determine a truth-evaluable utterance content. In the first part of the thesis, I engage with the problem of setting apart semantic under-determinacy as opposed to other phenomena such as ambiguity, vagueness, indexicality. As I will argue, the feature that distinguishes semantic under-determinacy from these phenomena is its being explainable solely in terms of under-articulation. In the second part of the thesis, I discuss the topic of how communication is possible, despite the semantic under-determinacy of language. I discuss a number of answers that have been offered: (i) the Radical Contextualist explanation which emphasises the role of pragmatic processes in utterance comprehension; (ii) the Indexicalist explanation in terms of hidden syntactic positions; (iii) the Relativist account, which regards sentences as true or false relative to extra coordinates in the circumstances of evaluation (besides possible worlds). In the final chapter, I propose an account of the comprehension of utterances of semantically under-determined sentences in terms of conceptual constraints, i.e. ways of organising information which regulate thought and discourse on certain matters. Conceptual constraints help the hearer to work out the truth-conditions of an utterance of a semantically under-determined sentence. Their role is clearly semantic, in that they contribute to “what is said” (rather than to “what is implied”); however, they do not respond to any syntactic constraint. The view I propose therefore differs, on the one hand, from Radical Contextualism, because it stresses the role of semantic-governed processes as opposed to pragmatics-governed processes; on the other hand, it differs from Indexicalism in its not endorsing any commitment as to hidden syntactic positions; and it differs from Relativism in that it maintains a monadic notion if truth.
Resumo:
La ricerca affronta in modo unitario e nell’ottica europea i multiformi fenomeni della doppia imposizione economica e giuridica, assumendo come paradigma iniziale la tassazione dei dividendi cross-border. Definito lo statuto giuridico della doppia imposizione, se ne motiva la contrarietà all’ordinamento europeo e si indagano gli strumenti comunitari per raggiungere l’obiettivo europeo della sua eliminazione. In assenza di un’armonizzazione positiva, il risultato sostanziale viene raggiunto grazie all’integrazione negativa. Si dimostra che il riserbo della Corte di Giustizia di fronte a opzioni di politica fiscale è soltanto un’impostazione di facciata, valorizzando le aperture giurisprudenziali per il suo superamento. Questi, in sintesi, i passaggi fondamentali. Si parte dall’evoluzione delle libertà fondamentali in diritti di rango costituzionale, che ne trasforma il contenuto economico e la portata giuridica, attribuendo portata costituzionale ai valori di neutralità e non restrizione. Si evidenzia quindi il passaggio dal divieto di discriminazioni al divieto di restrizioni, constatando il fallimento del tentativo di configurare il divieto di doppia imposizione come principio autonomo dell’ordinamento europeo. Contemporaneamente, però, diventa opportuno riesaminare la distinzione tra doppia imposizione economica e giuridica, e impostare un unico inquadramento teorico della doppia imposizione come ipotesi paradigmatica di restrizione alle libertà. Conseguentemente, viene razionalizzato l’impianto giurisprudenziale delle cause di giustificazione. Questo consente agevolmente di legittimare scelte comunitarie per la ripartizione dei poteri impositivi tra Stati Membri e l’attribuzione delle responsabilità per l’eliminazione degli effetti della doppia imposizione. In conclusione, dunque, emerge una formulazione europea dell’equilibrato riparto di poteri impositivi a favore dello Stato della fonte. E, accanto ad essa, una concezione comunitaria del principio di capacità contributiva, con implicazioni dirompenti ancora da verificare. Sul piano metodologico, l’analisi si concentra criticamente sull’operato della Corte di Giustizia, svelando punti di forza e di debolezza della sua azione, che ha posto le basi per la risposta europea al problema della doppia imposizione.
Resumo:
This doctoral dissertation presents a new method to asses the influence of clearancein the kinematic pairs on the configuration of planar and spatial mechanisms. The subject has been widely investigated in both past and present scientific literature, and is approached in different ways: a static/kinetostatic way, which looks for the clearance take-up due to the external loads on the mechanism; a probabilistic way, which expresses clearance-due displacements using probability density functions; a dynamic way, which evaluates dynamic effects like the actual forces in the pairs caused by impacts, or the consequent vibrations. This dissertation presents a new method to approach the problem of clearance. The problem is studied from a purely kinematic perspective. With reference to a given mechanism configuration, the pose (position and orientation) error of the mechanism link of interest is expressed as a vector function of the degrees of freedom introduced in each pair by clearance: the presence of clearance in a kinematic pair, in facts, causes the actual pair to have more degrees of freedom than the theoretical clearance-free one. The clearance-due degrees of freedom are bounded by the pair geometry. A proper modelling of clearance-affected pairs allows expressing such bounding through analytical functions. It is then possible to study the problem as a maximization problem, where a continuous function (the pose error of the link of interest) subject to some constraints (the analytical functions bounding clearance- due degrees of freedom) has to be maximize. Revolute, prismatic, cylindrical, and spherical clearance-affected pairs have been analytically modelled; with reference to mechanisms involving such pairs, the solution to the maximization problem has been obtained in a closed form.
Resumo:
La chemioembolizzazione (TACE) è uno dei trattamenti locoregionali più largamente utilizzati nel trattamento dell’epatocarcinoma (HCC). A tutt’oggi però rimangono irrisolte alcune importanti controversie sul suo impiego. Nella presente tesi sono stati analizzati alcuni dei principali oggetti di dibattito quali (1) indicazione al trattamento, (2) trattamenti multipli e schema di ritrattamento e (3) trattamento dei pazienti candidabili a trapianto di fegato. A tal fine sono stati riportati tre studi che hanno analizzato gli argomenti sopradescritti. La TACE viene comunemente eseguita nei pazienti al di fuori delle raccomandazioni delle linee guida tra cui i pazienti con nodulo singolo, i pazienti con trombosi portale e con performance status (PS) compromesso. Dallo studio 1 è emerso che la TACE può essere considerata una valida opzione terapeutica nei pazienti con HCC singolo non candidabili a trattamenti curativi, che la trombosi portale non neoplastica ed una lieve compromissione del performance status (PS-1) verosimilmente legata alla cirrosi non hanno impatto sulla sopravvivenza post-trattamento. Multipli trattamenti di chemioembolizzazione vengono frequentemente eseguiti ma non esiste a tutt’oggi un numero ottimale di ritrattamenti TACE. Dallo studio 2 è emerso che il trattamento TACE eseguito “on demand” può essere efficacemente ripetuto nei pazienti che non abbiano scompenso funzionale e non siano candidabili a trattamenti curativi anche se solo una piccola percentuale di pazienti selezionati può essere sottoposto a più cicli di trattamento. La TACE è frequentemente impiegata nei pazienti in lista per trapianto di fegato ma non c’è evidenza dell’efficacia di trattamenti ripetuti in questi pazienti. Dallo studio 3 è emerso che il numero di TACE non è significativamente associato né alla necrosi tumorale, né alla recidiva né alla sopravvivenza post-trapianto. Un tempo d’attesa prima del trapianto ≤6 mesi è invece risultato essere fattore predittivo indipendente di recidiva riflettendo la possibile maggiore aggressività tumorale in questa classe di pazienti.
Resumo:
Il disagio e le conflittualità sociali presenti nelle nostre città in molteplici casi hanno come teatro le aree verdi e gli spazi non costruiti presenti sul territorio urbano, percepiti spesso da un lato come luoghi non controllati e quindi conquistabili, dall’altro lato, come luoghi trascurati e quindi non sicuri, infrequentabili. Uno sguardo complessivo a queste aree che ne ribalti la prospettiva valorizzandone le potenzialità, può portare ad un progetto coordinato in cui si cerchi di incrementare e sostenere alcune funzioni ritenute capaci di superare le criticità presenti. In quest’ottica un progetto complessivo di paesaggio che non consideri il non costruito come una spazio residuale, ma come un elemento capace di una relazione attiva con il contesto urbano, può contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali, al miglioramento dell’offerta di luoghi di ritrovo, all’aumento della sicurezza urbana. Negli ultimi anni, la sensibilizzazione nei confronti dei problemi connessi con la salvaguardia dell’ambiente ha portato a un considerevole incremento delle aree protette e delle zone destinate a verde all’interno delle aree urbanizzate. Spesso però si considerano queste zone, in particolare i parchi e le riserve, come luoghi non totalmente fruibili dalla popolazione, anche al di là delle specifiche e corrette esigenze di conservazione. Questa impostazione rischia di mettere in crisi anche attività economiche orientate alla gestione sostenibile del territorio come nel caso dell’agricoltura. In realtà, uno degli errori che si commette più di frequente è quello di considerare le aree verdi e quelle antropizzate come entità fini a sé stesse mentre una positiva coesistenza può essere realizzata solo se si consente una loro positiva interazione dinamica, coniugando esigenze di conservazione e salvaguardia delle attività sociali ed economiche e fornendo stimoli alla riconversione delle attività non compatibili con l’ambiente. Un mezzo per perseguire tale scopo è, sicuramente, quello di proporre ai comuni forme alternative di difesa e gestione dell’ambiente, valorizzando la naturale vocazione del territorio. Vista la notevole incidenza percentuale sulla superficie complessiva, risulta di particolare importanza la tutela e la rivalutazione delle realtà rurali che, ormai da lungo tempo, subiscono l’inarrestabile fenomeno dell’espansione edilizia e sono costrette ad una difficile convivenza con la periferia urbana.
Resumo:
Il dolore non è solo una conseguenza della malattia ma un fattore patogeno che è di per se stesso in grado di perpetuare il danno all’organismo. Il suo trattamento non è quindi solo un atto di umanità ma un contributo ad arrestare la malattia e restituire la salute al paziente. Tra i farmaci più popolari per la terapia del dolore negli animali da affezione si trova la buprenorfina. Questa molecola viene impiegata con successo da anni nel cane e nel gatto per motivi riconducibili, oltre che alla sua efficacia (la sua potenza è diverse volte quella della morfina), alla lunga durata d’azione e alla scarsità degli effetti collaterali. Nonostante l’ampia diffusione e longevità del suo utilizzo, però, sappiamo poco della farmacocinetica di questa molecola negli animali da affezione; i dosaggi clinicamente impiegati sono di fatto estrapolati dagli studi nell’uomo oppure basati su semplici osservazioni degli effetti; i pochi dati farmacocinetici ottenuti nel cane fanno riferimento a singoli boli di dosi che non sempre corrispondono a quelle clinicamente impiegate. Nonostante la buprenorfina trovi il suo principale impiego nelle somministrazioni protratte a lungo (durante il periodo post-operatorio o la degenza ospedaliera) non è mai stato indagato il profilo farmacocinetico della molecola somministrata a boli ripetuti o come infusione continua. Il nostro studio si pone come obiettivo di indagare la farmacocinetica della buprenorfina somministrata come bolo di carico seguito da un’infusione costante a dosaggi considerati clinici in cani sani nel periodo post operatorio. Lo scopo ultimo è quello di sviluppare un protocollo per la somministrazione di questa molecola in modo prolungato in pazienti degenti ed addolorati per poi, in futuro, confrontare la somministrazione come infusione continua con i tradizionali boli ripetuti. Per lo studio sono state utilizzate giovani cagne adulte di taglia media o grande sottoposte ad intervento di ovariectomia.
Resumo:
Negli anni Ottanta si assiste tanto nel vecchio quanto nel nuovo continente alla rinascita del movimento antinucleare. Mentre in Europa l’origine di questa ondata di proteste antinucleari è collegata alla “doppia decisione” NATO del 1979, negli Stati Uniti la genesi si colloca nel contesto dalla mobilitazione dei gruppi ambientalisti in seguito all’incidente alla centrale nucleare di Three Mile Island. Dopo l’elezione di Ronald Reagan, alle proteste contro le applicazioni pacifiche dell’atomo si affiancarono quelle contro la politica nucleare del Paese. La retorica di Reagan, il massiccio piano di riarmo, unitamente al rinnovato deteriorarsi delle relazioni tra USA e URSS contribuirono a diffondere nell’opinione pubblica la sensazione che l’amministrazione Reagan, almeno da un punto di vista teorico, non avesse escluso dalle sue opzioni il ricorso alle armi nucleari nel caso di un confronto con l’URSS. I timori legati a questa percezione produssero una nuova ondata di proteste che assunsero dimensioni di massa grazie alla mobilitazione provocata dalla Nuclear Weapons Freeze Campaign (NWFC). Il target della NWFC era l’ampio programma di riarmo nucleare sostenuto da Reagan, che secondo gli attivisti nucleari, in un quadro di crescenti tensioni internazionali, avrebbe fatto aumentare le possibilità di uno scontro atomico. Per evitare lo scenario dell’olocausto nucleare, la NWFC proponeva «un congelamento bilaterale e verificabile del collaudo, dell’installazione e della produzione di armi nucleari». L’idea del nuclear freeze, che era concepito come un passo per fermare la spirale del riarmo e tentare successivamente di negoziare riduzioni negli arsenali delle due superpotenze, riscosse un tale consenso nell’opinione pubblica americana da indurre l’amministrazione Reagan a formulare una risposta specifica. Durante la primavera del 1982 fu, infatti, creato un gruppo interdipartimentale ad hoc, l’Arms Control Information Policy Group, con il compito di arginare l’influenza della NWFC sull’opinione pubblica americana e formulare una risposta coerente alle critiche del movimento antinucleare.
Resumo:
Oceanic islands can be divided, according to their origin, in volcanic and tectonic. Volcanic islands are due to excess volcanism. Tectonic islands are mainly formed due to vertical tectonic motions of blocks of oceanic lithosphere along transverse ridges flanking transform faults at slow and ultraslow mid-ocean ridges. Vertical tectonic motions are due to a reorganization of the geometry of the transform plate boundary, with the transition from a transcurrent tectonics to a transtensive and/or transpressive tectonics, with the formation of the transverse ridges. Tectonic islands can be located also at the ridge–transform intersection: in this case the uplift is due by the movement of the long-lived detachment faults located along the flanks of the mid-ocean ridges. The "Vema" paleoisland (equatorial Atlantic) is at the summit of the southern transverse ridge of the Vema transform. It is now 450 m bsl and it is capped by a carbonate platform 500 m-thick, dated by 87Sr/86Sr at 10 Ma. Three tectonic paleoislands are on the summit of the transverse ridge flanking the Romanche megatrasform (equatorial Atlantic). They are now about 1,000 m bsl and they are formed by 300 m-thick carbonate platforms dated by 87Sr/86Sr, between 11 and 6 Ma. The tectonic paleoisland “Atlantis Bank" is located in the South-Western Indian Ridge, along the Atlantis II transform, and it is today 700 m bsl. The only modern example of oceanic tectonics island is the St. Paul Rocks (equatorial Atlantic), located along the St. Paul transform. This archipelago is the top of a peridotitic massif that it is now a left overstep undergoing transpression. Oceanic volcanic islands are characterized by rapid growth and subsequent thermal subsidence and drowning; in contrast, oceanic tectonic islands may have one or more stages of emersion related to vertical tectonic events along the large oceanic fracture zones.
Resumo:
La ricerca si è focalizzata su due degli aspetti di interesse odontoiatrico più diffusi: la carie dentaria e la parodontite cronica. Il problema della carie dentaria è stato studiato in una popolazione di 39 soggetti affetti da cardiopatia congenita in cui la scarsa igiene orale è fattore di rischio per problematiche di salute generale e soprattutto per lo sviluppo di endocardite infettiva. I dati osservati e confrontati con quelli di un omogeneo gruppo di controllo dimostrano che nella dentatura decidua questi bambini hanno più denti cariati, come dimostrato dalla significativa differenza dell'indice dmft. Nella dentatura permanente non si osservano differenze tra i due gruppi. La carica microbica totale rilevata nella saliva e la presenza di Streptococcus mutans non mostrano differenze tra i due gruppi. I problemi di parodontite cronica sono stati studiati in un gruppo di 352 soggetti italiani adulti in cui si è definita la prevalenza dei 6 più importanti patogeni parodontali e la possibile correlazione con parametri clinici (pus, sanguinamento al sondaggio - BOP, profondità di sondaggio della tasca parodontale – PPD). Tra le 6 specie batteriche ricercate, quello di più frequente riscontro è stato Fusobacterium nucleatum (95%), mentre quello con carica batterica più alta è stato Tannerella forsythia. La carica batterica di Porphyromonas gingivalis, Treponema denticola, Tannerella forsythia e Fusobacterium nucleatum ha mostrato una correlazione diretta con il BOP e la presenza di pus. Inoltre, si è riscontrato che la carica batterica di tutte le specie (tranne Aggregatibacterium actinomycetemcomitans) aumenta all'aumentare del PPD. Tra le variabili studiate, PPD rappresenta il più importante fattore di rischio per la presenza di parodontopatogeni, mentre BOP è un indicatore di rischio per la ricerca del complesso rosso.
Resumo:
Studio della ipersostentazione di un velivolo non convenzionale degli anni ‘40, il Vought V-173 Flying Pancake. Per realizzare l’intero lavoro si sono adoperati dei software di fluidodinamica computazionale come Flow Simulation di SolidWorks e il programma JavaFoil, inoltre, si è scelto l’ambiente Matlab di supporto ai calcoli e per rappresentare i risultati ottenuti a seguito delle simulazioni, realizzando script e funzioni per l’approssimazione di questi e la loro successiva raffigurazione grafica. In particolar modo, a partire dal modello tridimensionale in SolidWorks del V-173 si sono ricreate le curve CL-α e CD-α a partire dai punti ottenuti dalle simulazioni per diverse configurazioni del velivolo. In una prima fase si è valutata l’aerodinamica del velivolo ‘pulito’ senza la presenza delle eliche e di ipersostentatori, successivamente si sono seguite due strade diverse per valutare il comportamento del velivolo: nel primo caso si sono eseguiti studi dell’aerodinamica del Pancake in presenza degli ipersostentatori già presenti sul velivolo (i plain flap), proponendo soluzioni alternative per migliorare l’ipersostentazione del V-173 tramite spillamenti (slots) e diverse configurazioni di vortex generator che energizzassero lo strato limite e ottimizzassero le prestazioni del velivolo con particolare attenzione alla fase di atterraggio. In secondo luogo, tenendo in considerazione che il Pancake è un aeroplano bielica, si è voluta studiare l’influenza delle due eliche sulla sua aerodinamica: dopo aver riprodotto nel modo più verosimile entrambe le eliche utilizzando SolidWorks si è fatto uno studio di massima ricavando risultati che potessero indicare la compatibilità tra elica e velivolo a seguito dei risultati sperimentali ottenuti con Flow Simulation.
Resumo:
La sempre maggiore importanza data al luogo, soprattutto dalla normativa attraverso il codice dei Beni Culturali e del Paesaggio, obbliga i progettisti a prestare maggiore attenzione al contesto in cui operano. I luoghi non possono più essere concepiti come spazi neutri capaci di accogliere qualsiasi forma di progetto, ma devono essere studiati e compresi nella loro essenza più profonda. In aiuto viene il concetto di Genius loci che fin dall'epoca romana soprassedeva i luoghi obbligando l'uomo a scendere a patti con esso prima di qualsiasi pratica progettuale. Nel tempo questo concetto si è trasformato ed ha mutato di senso, andando a coincidere con l'identità propria di un determinato luogo. Per luogo si intende una somma complessa di più elementi non scindibili e in rapporto tra loro nel costruirne l'identità specifica. Capire e rispettare l'identità di un luogo significa capire e rispettare il Genius loci. Filo conduttore di questa disamina è il saggio di Christian Norberg-Schulz “Genius loci. Paesaggio ambiente architettura”, in cui i temi del luogo e dell‟identità vengono trattati principalmente in chiave architettonica. Partendo da questo ho cercato di mettere in evidenza questi concetti in tre progetti sviluppati a scale diverse, evidenziandone l‟applicazione e le problematiche in tre ambiti differenti. I progetti presi in esame sono: in ambito rurale, l‟ecovillaggio sviluppato a San Biagio; in ambito urbano, la riqualificazione di un‟area industriale a Forlimpopoli; in ambito metropolitano, il progetto di abitazioni collettive a Bogotá.
Resumo:
L’elaborato costituisce la fase di approfondimento conclusivo del lavoro scientifico svolto negli anni precedenti. In quest’ottica, a circa tre anni dalla sua entrata in vigore, esso risulta prevalentemente incentrato sull’analisi delle principali innovazioni imposte dalla legge 30 dicembre 2010, n . 240, recante "Norme in materia di organizzazione delle università, di personale accademico e reclutamento, nonché delega al Governo per incentivare la qualità e l'efficienza del sistema universitario", nel tentativo di individuare quali soluzioni ,più o meno differenziate in base alle specificità delle diverse realtà, gli atenei italiani abbiano prefigurato mediante la revisione dei propri statuti, organi e strutture, al fine di rispettare ed attuare il dettato legislativo e non comprimere i propri spazi di autonomia. Contemporaneamente, esso approfondisce l’orientamento della giurisprudenza amministrativa in materia, la quale proprio nel corso di quest’anno ha avuto più di un’occasione di pronunciarsi in merito, per effetto dell’impugnazione ministeriale di molti dei nuovi statuti di autonomia. Infine, non viene tralasciata l’analisi dei profili e aspetti del sistema universitario italiano non intaccati dal cambiamento, ai fini del loro coordinamento con quelli riformati, cercando di percorrere parallelamente più strade: dalla ricognizione e lo studio dei più autorevoli contributi che la dottrina ha recentemente elaborato in materia, all’inquadramento delle scelte effettuate in sede di attuazione dai singoli atenei, anche alla luce dei decreti applicativi emanati. Il tutto al fine di individuare, anche grazie a studi di tipo comparato, con particolare riferimento all’ordinamento spagnolo, nuove soluzioni per il sistema universitario che, senza la pretesa di giungere a percorsi di cambiamento validamente applicabili per tutti gli atenei, possano risultare utili alla definizione di principi e modelli base, nel pieno rispetto del dettato costituzionale e dei parametri individuati a livello europeo con il processo di Bologna e la strategia di Lisbona.
Resumo:
La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.