1000 resultados para gruppi di isometrie dei fregi cristallografici piani Escher


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti ottiche, grazie alla loro elevata capacità, hanno acquisito sempre maggiore importanza negli ultimi anni, sia per via del crescente volume di dati scambiati, legato soprattutto alla larga diffusione di Internet, sia per la necessità di comunicazioni in tempo reale. Dati i (relativamente) lunghi tempi di adattamento, questa tecnologia nativamente non è quella ottimale per il trasporto di un traffico a burst, tipico delle telecomunicazioni odierne. Le reti ibride cercano, quindi, di coniugare al meglio le potenzialità della commutazione ottica di circuito e della commutazione ottica a pacchetto. In questo lavoro, in particolare, ci si è concentrati su un'architettura di rete ibrida denominata 3LIHON (3-Level Integrated Hybrid Optical Network). Essa prevede tre distinti livelli di qualità di servizio (QoS) per soddisfare differenti necessità: - Guaranteed Service Type (GST): simile ad un servizio a commutazione di circuito, non ammette perdita di dati. - Statistically Multiplexed Real Time (SM/RT): simile ad un servizio a commutazione di pacchetto, garantisce ritardo nullo o molto basso all'interno della rete, permette un piccolo tasso di perdita di dati e ammette la contesa della banda. - Statistically Multiplexed Best Effort (SM/BE): simile ad un servizio a commutazione di pacchetto, non garantisce alcun ritardo tra i nodi ed ammette un basso tasso di perdita dei dati. In un nodo 3LIHON, il traffico SM/BE impossibile da servire, a causa ad es. dell'interruzione da parte di pacchetti aventi un livello di QoS più prioritario, viene irrimediabilmente perso. Questo implica anche lo spreco del tempo e delle risorse impiegati per trasmettere un pacchetto SM/BE fino alla sua interruzione. Nel presente lavoro si è cercato di limitare, per quanto possibile, questo comportamento sconveniente, adottando e comparando tre strategie, che hanno portato alla modifica del nodo 3LIHON standard ed alla nascita di tre sue varianti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi descrive le fasi della progettazione e dell'implementazione di una applicazione mobile per il supporto alla didattica del corso di Programmazione del CdL di Ingegneria e Scienze Informatiche del Campus di Cesena. Il progetto ha lo scopo di mettere a disposizione degli studenti e dei docenti una applicazione per dispositivi Android che permetta di usufruire dei servizi attualmente forniti dal portale ufficiale del corso. Le funzionalità principali consistono nell'accesso ai materiali didattici e nella gestione delle consegne di esercizi propedeutici alla prova finale per quanto concerne gli studenti; ai professori è invece fornita la possibilità di eseguire la correzione degli elaborati e seguirne lo stato di avanzamento. Visto l'elevato numero di utenti che utilizzava il portale esistente tramite tablet e smartphone si è ritenuto necessario lo sviluppo di questo prodotto che possa fornire una user experience ottimizzata per questi dispositivi. Durante la progettazione è stata data particolare importanza all'ottimizzazione delle prestazioni, sfruttando gli strumenti più recenti forniti agli sviluppatori, e alla conformità con i principali design pattern della programmazione per dispositivi Android. Allo scopo di fornire un prodotto utilizzabile dalla maggior parte dell'utenza potenziale, si è inoltre data priorità alla compatibilità con tutti i dispositivi e le versioni del sistema operativo, senza rinunciare ad alcuna funzionalità. Il risultato del lavoro consiste in un prototipo pienamente funzionante e utilizzabile che mira a fornire una base stabile su cui eseguire future evoluzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La conoscenza del sistema nervoso centrale dei Cetacei si limita alla morfologia esterna, mentre la storia evolutiva, invece, è ben documentata. Il sistema nervoso centrale, che funziona da interfaccia tra il corpo dell’animale e l’ambiente circostante, integra le informazioni afferenti in una reazione adatta alla sopravvivenza dell’individuo. L’aumento o la diminuzione delle aree cerebrali dipende dall’implicazione funzionale che esse hanno per l’organismo e, nel tursiope, quelle particolarmente sviluppate sono connesse alla trasmissione ed elaborazione delle informazioni acustiche comprendendo le cortecce acustiche, il pulvinar, il nucleo genicolato mediale, il collicolo caudale ed alcuni nuclei pontini. Esse sono basilari per la sopravvivenza nell’ ambiente acquatico. Questo studio si è occupato di delineare le caratteristiche citoarchitettoniche (con riferimento alla morfologia ed alle dimensioni dei neuroni) e l'espressione della calbindina-D28k del corpo genicolato mediale, importante centro di integrazione delle informazioni acustiche. Le sue caratteristiche morfofunzionali sono state studiate soprattutto nei Roditori, nei Carnivori e nei Primati, ed è emersa la presenza di tre aree citoarchitettoniche: nucleo dorsale (MGd), nucleo ventrale (MGv) e nucleo mediale (MGm). Nel tursiope, in base alla densità di distribuzione dei neuroni, si possono evidenziare, invece, due nuclei principali: il ventro-laterale ed il dorso-mediale. Nel primo nucleo i neuroni presenti appaiono più densamente stipati che nel secondo. Nel corpo genicolato mediale di tursiope, come nei Chirotteri, le cellule calbindina-D28k-immunoreattive sono distribuite in maniera diffusa ed uniforme. Tali cellule ricevono informazioni modulatorie afferenti soprattutto dalla corteccia cerebrale; di conseguenza è possibile ipotizzare come le infomazioni modulatorie che dalla neocorteccia si portano al corpo genicolato mediale non terminino in aree specifiche, come accade in molti Mammiferi terrestri, ma si distribuiscano in maniera diffusa a tutto il corpo. Tale caratteristica anatomica potrebbe indicare la presenza di un maggior controllo modulatorio, eventualmente correlato al fenomeno dell’ecolocazione, operato dalla corteccia cerebrale sul corpo genicolato mediale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati sottili film di ossido di alluminio, Al2O3, (di spessore compreso tra 3-30 nm) su un substrato di FZ-Si drogato p. La deposizione è avvenuta mediante plasma ALD (Atomic Layer Depostion). La tecnica spettroscopica EPR (Electron Paramagnetic Resonance) è stata utilizzata per studiare l’interfaccia Si/Al2O3 con lo scopo di scoprire l’origine della formazione di densità di carica negativa Qf all’interfaccia: tale carica negativa induce una passivazione per effetto di campo ed è quindi la ragione per cui il dielettrico Al2O3 risulta essere un ottimo materiale passivante. Si è deciso di variare alcuni parametri, come lo spessore dello strato di Al2O3, lo spessore dello strato intermedio di ossido di silicio, depositato mediante ossidazione termica (dry thermal oxidation), e la superficie del substrato di silicio. Sono stati realizzati cinque differenti gruppi di campioni: per ciascuno di essi sono state impiegate varie tecniche di caratterizzazione, come la QSSPC (Quasi Steady State Photoconuctance) e la tecnica di spettroscopia ottica SE (spettroscopic ellipsometry). Per ogni gruppo sono stati riportati gli spettri EPR ottenuti ed i rispettivi fit, da cui è stato possibile risalire ai fattori giromagnetici di spin g, riportati in tabelle con le loro possibili attribuzioni. E’ stato dimostrato che la presenza di uno strato di ossido di silicio tra il substrato di silicio e lo strato di ossido di alluminio risulta essere fondamentale per la formazione di densità di carica negativa all’interfaccia: aumentando lo spessore dello strato di SiOx (nel range 1-30 nm) si assiste ad una diminuzione di carica negativa Qf. Analizzando gli spettri EPR, è stato possibile concludere che all’interfaccia Si/Al2O3 sono presenti difetti caratteristici dell’interfaccia Si/SiOx. Le nostre osservazioni, dunque, sono coerenti con la formazione di uno strato di ossido di silicio tra Si e Al2O3.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ho studiato la possibilità di soluzione per il problema cosmologico dei moduli (CMP) presente a causa della compattificazione delle dimensioni extra tramite un periodo di inflazione a basse energie (Thermal Inflation). L'elaborato consta di cinque capitoli. Il primo introduce il lettore alla problematica dei moduli partendo dalla teoria Kaluza-Klein. Il secondo riguarda interamente il CMP e altri problemi cosmologici associati ai moduli. Nel terzo viene descritta la thermal inflation e le condizioni di funzionamento. Nel quarto capitolo viene preso in esame il problema di stabilizzazione dei moduli nella teoria di stringa tipo IIB: vengono descritti sia il meccanismo KKTL che il LVS. L'ultimo capitolo consiste nel calcolo della diluizione dei moduli, enunciata prima in un contesto generale e infine applicata al LVS, tramite la thermal inflation. Viene altresì presa in esame la possibilità di due epoche di thermal inflation, al fine di ottenere una diluizione più efficiente dei moduli. In LVS sono presenti due moduli, differenti per massa e vita media. Il più leggero è soggetto al CMP e si trova che, anche dopo due periodi di thermal inflation vi è ancora un numero eccessivo di tali campi, in quanto se da un lato la thermal inflation ne diliusca la densità iniziale, dall'altro ne causa una forte riproduzione, dovuta essenzialmente alle caratteristiche del modulo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Implementazione mediante librerie MPI di un algoritmo genetico parallelo per risolvere il problema sulla k-colorabilità. La tesi descrive la versione sequenziale dell'algoritmo genetico di riferimento e l'implementazione della sua versione parallela. Vi è una fase di analisi dei risultati ottenuti dai test effettuati su una macchina ad architettura parallela.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato si propone di analizzare il ruolo di CONSIP, centrale di committenza nazionale per gli acquisti di beni e servizi per la pubblica amministrazione, nell’ambito del Programma di razionalizzazione degli acquisti, con particolare attenzione ai vantaggi ed alle criticità emerse nell’attuazione del sistema di centralizzazione. Il corpo del testo, articolato per capitoli, è preceduto da un Glossario contenente le definizioni e la specificazione di alcuni dei concetti trattati. In appendice sono state inserite le sintesi di tre ricerche, ritenute di interesse per approfondire l’argomento trattato. Il Capitolo 1 descrive l’evoluzione del ruolo e delle attività assegnate a CONSIP in relazione alle modifiche intervenute nel contesto normativo di riferimento. Nel Capitolo 2 vengono trattate in dettaglio le attività di CONSIP, con particolare riguardo al ruolo strategico che la stessa è chiamata a svolgere nel sistema nazionale di e-Procurement e nell’ambito del Programma di razionalizzazione degli acquisti, anche in funzione delle misure previste dalle recenti norme in tema di spending review. Nel Capitolo 3 sono descritti gli strumenti che CONSIP mette a disposizione delle pubbliche amministrazioni, attraverso la piattaforma informatica www.acquistinretepa.it, appositamente predisposta per l’attuazione del Programma di cui al Capitolo precedente, con particolare attenzione al sistema delle convenzioni. Il Capitolo 4 è dedicato all’analisi dei vantaggi e delle criticità riguardanti l’attuazione del Programma di razionalizzazione degli acquisti, con riferimento al sistema di centralizzazione ed all’utilizzo degli strumenti CONSIP, nell’ambito del processo di approvvigionamento delle pubbliche amministrazioni (public procurement). Infine, il Capitolo 5 propone l’esperienza del Progetto di razionalizzazione degli acquisti informatici del Comune di Bologna come caso da cui trarre spunti di riflessione sull’impatto, anche interno, alla singola amministrazione, della centralizzazione degli acquisti e dell’utilizzo delle convenzioni e del mercato elettronico (MEPA) messi a disposizione da CONSIP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Poliidrossialcanoati (PHA) sono poliesteri completamente biodegradabili, prodotti da microrganismi come fonte di energia e di carbonio per la sintesi di nuovo materiale cellulare, utilizzando come substrato materie prime rinnovabili. Questi poliesteri sono considerati potenziali candidati per la sostituzione delle materie plastiche convenzionali. Tuttavia, i più alti costi di produzione dei PHA in confronto a quelli delle materie plastiche derivanti dal petrolio, rappresentano il principale ostacolo per la parziale sostituzione di questi ultimi con i biopolimeri. Gli alti costi sono principalmente dovuti all'utilizzo di colture microbiche pure (in cui sia presente un solo ceppo batterico) e substrati puri e costosi. Nell'ultimo decennio è stato sviluppato un processo di produzione a tre stadi alternativo e potenzialmente a minor costo, basato sull'utilizzo di colture microbiche miste (Mixed Microbials Culture, MMC) e una varietà di substrati organici a costo contenuto o nullo, quali alcuni rifiuti dell’industria agro-alimentare. Il presente studio si è concentrato sulla prima fase del processo di produzione dei PHA da colture miste, la fermentazione acidogenica, utilizzando siero di latte come fonte di carbonio per produrre acidi organici. In particolare questo lavoro ha avuto come obiettivo quello di studiare come diverse condizioni operative utilizzate nella fase di fermentazione acidogenica possono influenzare la concentrazione e il profilo degli acidi organici prodotti. Sono stati valutati anche gli effetti dei diversi profili degli acidi organici sulla fase di selezione della coltura microbica, in termini di capacità di stoccaggio di PHA e composizione polimerica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro intende dimostrare che lo sviluppo giurisprudenziale del principio di equilibrio istituzionale, il rapporto tra detto principio e il principio di leale cooperazione, il riconoscimento istituzionale e giurisprudenziale dell’importanza della scelta della base giuridica nella tutela dell’equilibrio istituzionale hanno concorso a determinare la dinamicità dell’evoluzione dell’assetto interistituzionale della Comunità e dell’Unione. Focalizzata l’attenzione sulle nuove basi giuridiche introdotte dal Trattato di Lisbona, sono stati definiti gli assetti del nuovo equilibrio istituzionale analizzando, da un lato, il nuovo quadro istituzionale definito dal titolo III del Trattato sull’Unione europea e, in particolare la “costituzionalizzazione” del principio orizzontale di leale cooperazione. In conclusione, si rileva che con l´entrata in vigore del Trattato di Lisbona le dimensioni politica e giuridica dell’equilibrio istituzionale sono state interessate da due mutamenti di ampia portata. In primo luogo, il completamento del processo di revisione dei trattati apertosi con la dichiarazione di Laeken ha definito un nuovo quadro istituzionale, che si è riflesso in rinnovati meccanismi di funzionamento dell’architettura istituzionale. In secondo luogo, la risposta dell’Unione alla crisi economica e finanziaria ha messo al centro dell’agenda il suo bilancio, la programmazione pluriennale e l’Unione economica. Nel primo caso un’analisi dell’articolo 295 TFUE ha costituito la base di una riflessione sulle modalità di codificazione delle relazioni istituzionali attraverso accordi e sul rapporto tra questi ultimi e il titolo III TUE. Si è rilevata, in particolare, un’incongruenza tra gli obblighi di leale cooperazione orizzontale sanciti dall’articolo 13(2) TUE e gli strumenti finalizzati alla loro istituzionalizzazione. Nel secondo caso, invece, è stato evidenziato come il preminente ruolo del Consiglio europeo, al quale il Trattato di Lisbona ha riconosciuto lo status d'istituzione, abbia modificato gli equilibri, determinando un ritorno del ricorso all’integrazione differenziata rispetto a politiche disciplinate dai Trattati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attraverso un excursus storico, teorico e metodologico, questa tesi di dottorato analizza la nascita, gli sviluppi e l’attuale dimensione costitutivo-identitaria dei Performance Studies, un ambito di ricerca accademica che, nato negli Stati Uniti alla fine degli anni Settanta, ha sempre palesato una natura restia nei confronti di qualunque tentativo definitorio. Se i Performance Studies concepiscono la performance sia come oggetto d’analisi sia come lente metodologica, e se, come evidenziato da Richard Schechner, praticamente tutto può essere “elevato a performance” e quindi indagato secondo le categorie analitiche di questa disciplina, ecco allora che, con uno slittamento transitivo e “meta-metodologico”, questa ricerca dottorale ha scelto come proprio oggetto di studio i Performance Studies stessi, osservandoli “as performance” e avvalendosi degli strumenti metodologici suggeriti dal suo stesso oggetto d’analisi. Questo lavoro indaga come l’oggetto di studio dei Performance Studies sia, seguendo la teoria schechneriana, il “behaved behavior”, e dunque come di conseguenza, il repertorio, prima ancora che l’archivio, possa essere considerato il fedele custode delle “pratiche incorporate”. Soffermandosi su esempi di “reenactment” performativo come quelli messi in atto da Marina Abramović e Clifford Owens, così come sui tentativi condotti dalla sezione dell’Intangible Cultural Heritage dell’UNESCO, suggerisce validi esempi di “archiviazione” della performance. L’elaborato prende poi in esame casi che esemplificano la proficua identificazione tra “studiare performance” e “fare performance”, sottolinea il ruolo cruciale e imprenscindibile determinato dal lavoro di ricerca sul campo inteso come “osservazione partecipante”, ed evidenzia il costante coinvolgimento sociale e politico assunto dai Performance Studies. Questa dissertazione affronta e supporta l’efficacia dei Performance Studies nel proporsi come uno strumento innovativo in grado di analizzare un mondo sempre più performativo nelle sue dinamiche. La loro natura tanto interdisciplinare quanto interculturale sembra farne una lente adeguata attraverso cui promuovere livelli diversi di performance dialogica tra culture localmente distinte ma globalmente assimilabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box.  Output: dato proveniente dal sensore ottico (lettura espressa in mV)  Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato costituisce la fase di approfondimento conclusivo del lavoro scientifico svolto negli anni precedenti. In quest’ottica, a circa tre anni dalla sua entrata in vigore, esso risulta prevalentemente incentrato sull’analisi delle principali innovazioni imposte dalla legge 30 dicembre 2010, n . 240, recante "Norme in materia di organizzazione delle università, di personale accademico e reclutamento, nonché delega al Governo per incentivare la qualità e l'efficienza del sistema universitario", nel tentativo di individuare quali soluzioni ,più o meno differenziate in base alle specificità delle diverse realtà, gli atenei italiani abbiano prefigurato mediante la revisione dei propri statuti, organi e strutture, al fine di rispettare ed attuare il dettato legislativo e non comprimere i propri spazi di autonomia. Contemporaneamente, esso approfondisce l’orientamento della giurisprudenza amministrativa in materia, la quale proprio nel corso di quest’anno ha avuto più di un’occasione di pronunciarsi in merito, per effetto dell’impugnazione ministeriale di molti dei nuovi statuti di autonomia. Infine, non viene tralasciata l’analisi dei profili e aspetti del sistema universitario italiano non intaccati dal cambiamento, ai fini del loro coordinamento con quelli riformati, cercando di percorrere parallelamente più strade: dalla ricognizione e lo studio dei più autorevoli contributi che la dottrina ha recentemente elaborato in materia, all’inquadramento delle scelte effettuate in sede di attuazione dai singoli atenei, anche alla luce dei decreti applicativi emanati. Il tutto al fine di individuare, anche grazie a studi di tipo comparato, con particolare riferimento all’ordinamento spagnolo, nuove soluzioni per il sistema universitario che, senza la pretesa di giungere a percorsi di cambiamento validamente applicabili per tutti gli atenei, possano risultare utili alla definizione di principi e modelli base, nel pieno rispetto del dettato costituzionale e dei parametri individuati a livello europeo con il processo di Bologna e la strategia di Lisbona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di ricerca che si presenta è suddiviso in tre capitoli nei quali, da altrettanti punti di osservazione, è analizzato il tema della instabilità del lavoro. Nel primo capitolo, il candidato evidenzia le cause che hanno determinato il vorticoso aumento di utilizzo dei contratti di lavoro flessibili e, a tal proposito, da un prospettiva extra-nazionale, analizza le direttive europee e, i principi comuni e le guidelines che, nel percorso di sviluppo della strategia europea per l’occupazione, hanno posto la flexicurity come modello di mercato europeo tipico; dalla medesima prospettiva, prendendo spunto dai cambiamenti del mercato globale, si pone attenzione all’analisi economica del diritto del lavoro e, in particolare, alle conseguenze che le trasformazioni economiche generano sulla capacità di questa materia di tenere elevato il grado di sicurezza occupazionale connesso alla stipula dei contratti di lavoro. Il secondo capitolo è dedicato al ruolo svolto in Italia dai sindacati sul tema della flessibilità. In tal senso, l’autore evidenzia come la funzione “istituzionale” cui sono chiamate anche le organizzazioni dei lavoratori abbia caratterizzato le scelte di politica sindacale in materia di lavori temporanei; è così preso in esame il concetto di flessibilità “contrattata”, come già emerso in dottrina, e si teorizza la differenza tra rinvii “aperti” e rinvii “chiusi”, quali differenti forme di delega di potere normativo alle parti sociali in materia di flessibilità. Nel terzo ed ultimo capitolo l’autore tenta di evidenziare i vantaggi e le funzioni che derivano dall’utilizzo del contratto a termine, quale principale forma di impiego flessibile del nostro mercato del lavoro. Premessi tali benefici viene formulato un giudizio critico rispetto al grado di liberalizzazione che, con le ultime riforme, è stato ammesso per questo istituto sempre più strumento di arbitrio del datore di lavoro nella scelta della durata e delle condizioni di svolgimento della prestazione di lavoro.