989 resultados para Diffusione non lineare, filtraggio, denoising, EDP, PDE, differenze finite, schemi numerici


Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we present an extension to the nonplanar case of the asymmetric expansion of the averaged resonant disturbing function of Ferraz-Mello & Sato (1989, A&A 225, 541-547). Comparions with the exact averaged disturbing function are also presented. The expansion gives a good approximation of the exact function in a wide region around the center of expansion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper a new partial differential equation based method is presented with a view to denoising images having textures. The proposed model combines a nonlinear anisotropic diffusion filter with recent harmonic analysis techniques. A wave atom shrinkage allied to detection by gradient technique is used to guide the diffusion process so as to smooth and maintain essential image characteristics. Two forcing terms are used to maintain and improve edges, boundaries and oscillatory features of an image having irregular details and texture. Experimental results show the performance of our model for texture preserving denoising when compared to recent methods in literature. © 2009 IEEE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A model of energy harvester based on a simple portal frame structure is presented. The system is considered to be non-ideal system (NIS) due to interaction with the energy source, a DC motor with limited power supply and the system structure. The nonlinearities present in the piezoelectric material are considered in the piezoelectric coupling mathematical model. The system is a bi-stable Duffing oscillator presenting a chaotic behavior. Analyzing the average power variation, and bifurcation diagrams, the value of the control variable that optimizes power or average value that stabilizes the chaotic system in the periodic orbit is determined. The control sensitivity is determined to parametric errors in the damping and stiffness parameters of the portal frame. The proposed passive control technique uses a simple pendulum to tuned to the vibration of the structure to improve the energy harvesting. The results show that with the implementation of the control strategy it is possible to eliminate the need for active or semi active control, usually more complex. The control also provides a way to regulate the energy captured to a desired operating frequency. © 2013 EDP Sciences and Springer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo é sobre O Plano de Desenvolvimento da Educação (PDE/MEC), lançado no segundo mandato do Governo Lula (2006-2010). A sua efetivação se deu por meio do Plano de Ações Articuladas (PAR) no município de São Miguel do Guamá (Pará). Nosso objetivo é compreender e analisar como o PDE se implanta e vem se efetivando através da Secretaria Municipal de Educação de São Miguel do Guamá enfatizando o regime de colaboração na promoção de Políticas Públicas Educacionais no município no período de 2008 a 2011. A metodologia utilizada nessa pesquisa é qualitativa para isso utilizamos a revisão bibliográfica para a sustentação da temática no trabalho empírico e de analise documental, de entrevista semiestruturada e observação não participante. O PAR se constitui enquanto ferramenta de planejamento e ações que tem como propósito melhorar a qualidade da educação, permitindo uma relação direta entre Governo Federal e Governo Municipal. Em São Miguel do Guamá, o PAR segundo os entrevistados representou um avanço considerável na qualidade da educação, pela oferta de cursos e pela disponibilização de recursos técnicos e financeiros para as escolas, ao mesmo tempo que levou a SEMED ao planejamento e aplicação do Projeto Político Pedagógico das escolas, porém, esses avanços se desenvolveram por meio de imposição do Governo Federal ao Governo Municipal, devido o seu baixo IDEB e culminou em perda de autonomia municipal e adoção de medidas involuntárias por parte da comunidade escolar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricerca ha perseguito l’obiettivo di individuare e definire il potere di un ente territoriale di sostituire, tramite i suoi organi o atti, quelli ordinari degli enti territoriali minori, per assumere ed esercitare compiutamente, in situazioni straordinarie, le funzioni proprie di questi. Dogmaticamente potremmo distinguere due generali categorie di sostituzione: quella amministrativa e quella legislativa, a seconda dell’attività giuridica nella quale il sostituto interviene. Nonostante tale distinzione riguardi in generale il rapporto tra organi o enti della stessa o di differenti amministrazioni, con eguale o diverso grado di autonomia; la ricerca ha mirato ad analizzare le due summenzionate categorie con stretto riferimento agli enti territoriali. I presupposti, l’oggetto e le modalità di esercizio avrebbero consentito ovviamente di sottocatalogare le due generali categorie di sostituzione, ma un’indagine volta a individuare e classificare ogni fattispecie di attività sostitutiva, più che un’attività complessa, è sembrata risultare di scarsa utilità. Più proficuo è parso il tentativo di ricostruire la storia e l’evoluzione del menzionato istituto, al fine di definire e comprendere i meccanismi che consentono l’attività sostitutiva. Nel corso della ricostruzione non si è potuto trascurare che, all’interno dell’ordinamento italiano, l’istituto della sostituzione è nato nel diritto amministrativo tra le fattispecie che regolavano l’esercizio della funzione amministrativa indiretta. La dottrina del tempo collocava la potestà sostitutiva nella generale categoria dei controlli. La sostituzione, infatti, non avrebbe avuto quel valore creativo e propulsivo, nel mondo dell’effettualità giuridica, quell’energia dinamica ed innovatrice delle potestà attive. La sostituzione rappresentava non solo la conseguenza, ma anche la continuazione del controllo. Le fattispecie, che la menzionata dottrina analizzava, rientravano principalmente all’interno di due categorie di sostituzione: quella disposta a favore dello Stato contro gli inadempimenti degli enti autarchici – principalmente il comune – nonché la sostituzione operata all’interno dell’organizzazione amministrativa dal superiore gerarchico nei confronti del subordinato. Già in epoca unitaria era possibile rinvenire poteri sostitutivi tra enti, la prima vera fattispecie di potestà sostitutiva, era presente nella disciplina disposta da diverse fattispecie dell'allegato A della legge 20 marzo 1856 n. 2248, sull'unificazione amministrativa del Regno. Tentativo del candidato è stato quello, quindi, di ricostruire l'evoluzione delle fattispecie sostitutive nella stratificazione normativa che seguì con il T.U. della legge Comunale e Provinciale R.D. 4 febbraio 1915 e le successive variazioni tra cui il R.D.L. 30 dicembre 1923. Gli istituti sostitutivi vennero meno (di fatto) con il consolidarsi del regime fascista. Il fascismo, che in un primo momento aveva agitato la bandiera delle autonomie locali, non tardò, come noto, una volta giunto al potere, a seguire la sua vera vocazione, dichiarandosi ostile a ogni proposito di decentramento e rafforzando, con la moltiplicazione dei controlli e la soppressione del principio elettivo, la già stretta dipendenza delle comunità locali dallo Stato. Vennero meno i consigli liberamente eletti e al loro posto furono insediati nel 1926 i Podestà e i Consultori per le Amministrazioni comunali; nel 1928 i Presidi e i Rettorati per le Amministrazioni Provinciali, tutti organi nominati direttamente o indirettamente dall’Amministrazione centrale. In uno scenario di questo tipo i termini autarchia e autonomia risultano palesemente dissonanti e gli istituti di coordinamento tra Stato ed enti locali furono ad esso adeguati; in tale ordinamento, infatti, la sostituzione (pur essendo ancora presenti istituti disciplinanti fattispecie surrogatorie) si presentò come un semplice rapporto interno tra organi diversi, di uno stesso unico potere e non come esso è in realtà, anello di collegamento tra soggetti differenti con fini comuni (Stato - Enti autarchici); per semplificare, potremmo chiederci, in un sistema totalitario come quello fascista, in cui tutti gli interessi sono affidati all’amministrazione centrale, chi dovrebbe essere il sostituito. Il potere sostitutivo (in senso proprio) ebbe una riviviscenza nella normativa post-bellica, come reazione alla triste parentesi aperta dal fascismo, che mise a nudo i mali e gli abusi dell’accentramento statale. La suddetta normativa iniziò una riforma in favore delle autonomie locali; infatti, come noto, tutti i partiti politici assunsero posizione in favore di una maggiore autonomia degli enti territoriali minori e ripresero le proposte dei primi anni dell’Unità di Italia avanzate dal Minghetti, il quale sentiva l’esigenza dell’istituzione di un ente intermedio tra Stato e Province, a cui affidare interessi territorialmente limitati: la Regione appunto. Emerge piuttosto chiaramente dalla ricerca che la storia politica e l’evoluzione del diritto pubblico documentano come ad una sempre minore autonomia locale nelle politiche accentratrici dello Stato unitario prima, e totalitario poi, corrisponda una proporzionale diminuzione di istituti di raccordo come i poteri sostitutivi; al contrario ad una sempre maggiore ed evoluta autonomia dello Stato regionalista della Costituzione del 1948 prima, e della riforma del titolo V oggi, una contestuale evoluzione e diffusione di potestà sostitutive. Pare insomma che le relazioni stato-regioni, regioni-enti locali che la sostituzione presuppone, sembrano rappresentare (ieri come oggi) uno dei modi migliori per comprendere il sistema delle autonomie nell’evoluzione della stato regionale e soprattutto dopo la riforma apportata dalla legge costituzionale 18 ottobre 2001, n. 3. Dalla preliminare indagine storica un altro dato, che pare emergere, sembra essere la constatazione che l'istituto nato e giustificato da esigenze di coerenza e efficienza dell'azione amministrativa sia stato trasferito nell'ambio delle relazioni tra stato e autonomie territoriali. Tale considerazione sembra essere confermata dal proseguo dell’indagine, ed in particolare dai punti di contatto tra presupposti e procedure di sostituzione nell’analisi dell’istituto. Nonostante, infatti, il Costituente non disciplinò poteri sostitutivi dello Stato o delle regioni, al momento di trasferire le competenze amministrative alle regioni la Corte costituzionale rilevò il problema della mancanza di istituti posti a garantire gli interessi pubblici, volti ad ovviare alle eventuali inerzie del nuovo ente territoriale. La presente ricerca ha voluto infatti ricostruire l’ingresso dei poteri sostitutivi nel ordinamento costituzionale, riportando le sentenze del Giudice delle leggi, che a partire dalla sentenza n. 142 del 1972 e dalla connessa pronuncia n. 39 del 1971 sui poteri di indirizzo e coordinamento dello Stato, pur non senza incertezze e difficoltà, ha finito per stabilire un vero e proprio “statuto” della sostituzione con la sentenza n. 177 del 1988, individuando requisiti sostanziali e procedurali, stimolando prima e correggendo successivamente gli interventi del legislatore. Le prime fattispecie sostitutive furono disciplinate con riferimento al rispetto degli obblighi comunitari, ed in particolare con l’art. 27 della legge 9 maggio 1975, n. 153, la quale disciplina, per il rispetto dell’autonomia regionale, venne legittimata dalla stessa Corte nella sentenza n. 182 del 1976. Sempre con riferimento al rispetto degli obblighi comunitari intervenne l’art. 6 c. 3°, D.P.R. 24 luglio 1977, n. 616. La stessa norma va segnalata per introdurre (all’art. 4 c. 3°) una disciplina generale di sostituzione in caso di inadempimento regionale nelle materie delegate dallo Stato. Per il particolare interesse si deve segnalare il D.M. 21 settembre 1984, sostanzialmente recepito dal D.L. 27 giugno 1985, n. 312 (disposizioni urgenti per la tutela delle zone di particolare interesse ambientale), poi convertito in legge 8 agosto 1985, n. 431 c.d. legge Galasso. Tali disposizioni riaccesero il contenzioso sul potere sostitutivo innanzi la Corte Costituzionale, risolto nelle sentt. n. 151 e 153 del 1986. Tali esempi sembrano dimostrare quello che potremmo definire un dialogo tra legislatore e giudice della costituzionalità nella definizione dei poteri sostitutivi; il quale culminò nella già ricordata sent. n. 177 del 1988, nella quale la Corte rilevò che una legge per prevedere un potere sostitutivo costituzionalmente legittimo deve: essere esercitato da parte di un organo di governo; nei confronti di attività prive di discrezionalità nell’an e presentare idonee garanzie procedimentali in conformità al principio di leale collaborazione. Il modello definito dalla Corte costituzionale sembra poi essere stato recepito definitivamente dalla legge 15 marzo 1997, n. 59, la quale per prima ha connesso la potestà sostitutiva con il principio di sussidiarietà. Detta legge sembra rappresentare un punto di svolta nell’indagine condotta perché consente di interpretare al meglio la funzione – che già antecedentemente emergeva dallo studio dei rapporti tra enti territoriali – dei poteri sostitutivi quale attuazione del principio di sussidiarietà. La legge costituzionale 18 ottobre 2001, n. 3, ha disciplinato all’interno della Costituzione ben due fattispecie di poteri sostitutivi all’art. 117 comma 5 e all’art. 120 comma 2. La “lacuna” del 1948 necessitava di essere sanata – in tal senso erano andati anche i precedenti tentativi di riforma costituzionale, basti ricordare l’art. 58 del progetto di revisione costituzionale presentato dalla commissione D’Alema il 4 novembre 1997 – i disposti introdotti dal riformatore costituzionale, però, non possono certo essere apprezzati per la loro chiarezza e completezza. Le due richiamate disposizioni costituzionali, infatti, hanno prodotto numerose letture. Il dibattito ha riguardato principalmente la natura delle due fattispecie sostitutive. In particolare, si è discusso sulla natura legislativa o amministrativa delle potestà surrogatorie e sulla possibilità da parte del legislatore di introdurre o meno la disciplina di ulteriori fattispecie sostitutive rispetto a quelle previste dalla Costituzione. Con particolare riferimento all’art. 120 c. 2 Cost. sembra semplice capire che le difficoltà definitorie siano state dovute all’indeterminatezza della fattispecie, la quale attribuisce al Governo il potere sostitutivo nei confronti degli organi (tutti) delle regioni, province, comuni e città metropolitane. In particolare, la dottrina, che ha attribuito all’art. 120 capoverso la disciplina di un potere sostitutivo sulle potestà legislative delle Regioni, è partita dalla premessa secondo la quale detta norma ha una funzione fondamentale di limite e controllo statale sulle Regioni. La legge 18 ottobre 2001 n. 3 ha, infatti, variato sensibilmente il sistema dei controlli sulle leggi regionali, con la modificazione degli artt. 117 e 127 della Costituzione; pertanto, il sistema dei controlli dopo la riforma del 2001, troverebbe nel potere sostitutivo ex art. 120 la norma di chiusura. Sul tema è insistito un ampio dibattito, al di là di quello che il riformatore costituzionale avrebbe dovuto prevedere, un’obiezione (più delle altre) pare spingere verso l’accoglimento della tesi che propende per la natura amministrativa della fattispecie in oggetto, ovvero la constatazione che il Governo è il soggetto competente, ex art. 120 capoverso Cost., alla sostituzione; quindi, se si intendesse la sostituzione come avente natura legislativa, si dovrebbe ritenere che il Costituente abbia consentito all’Esecutivo, tosto che al Parlamento, l’adozione di leggi statali in sostituzione di quelle regionali. Suddetta conseguenza sembrerebbe comportare una palese violazione dell’assetto costituzionale vigente. Le difficoltà interpretative dell’art. 120 Cost. si sono riversate sulla normativa di attuazione della riforma costituzionale, legge 5 giugno 2003, n. 131. In particolare nell’art. 8, il quale ha mantenuto un dettato estremamente vago e non ha preso una chiara e netta opzione a favore di una della due interpretazione riportate circa la natura della fattispecie attuata, richiamando genericamente che il potere sostitutivo si adotta “Nei casi e per le finalità previsti dall'articolo 120” Cost. Di particolare interesse pare essere, invece, il procedimento disciplinato dal menzionato art. 8, il quale ha riportato una procedura volta ad attuare quelle che sono state le indicazioni della Corte in materia. Analogamente agli anni settanta ed ottanta, le riportate difficoltà interpretative dell’art. 120 Cost. e, più in generale il tema dei poteri sostitutivi dopo la riforma del 2001, sono state risolte e definite dal giudice della costituzionalità. In particolare, la Corte sembra aver palesemente accolto (sent. n. 43 del 2004) la tesi sulla natura amministrativa del potere sostitutivo previsto dall’art. 120 c. 2 Cost. Il giudice delle leggi ha tra l’altro fugato i dubbi di chi, all’indomani della riforma costituzionale del 2001, aveva letto nel potere sostitutivo, attribuito dalla riformata Costituzione al Governo, l’illegittimità di tutte quelle previsioni legislative regionali, che disponevano ipotesi di surrogazione (da parte della regione) nei confronti degli enti locali. La Corte costituzionale, infatti, nella già citata sentenza ha definito “straordinario” il potere di surrogazione attribuito dall’art. 120 Cost. allo Stato, considerando “ordinare” tutte quelle fattispecie sostitutive previste dalla legge (statale e regionale). Particolarmente innovativa è la parte dell'indagine in cui la ricerca ha verificato in concreto la prassi di esercizio della sostituzione statale, da cui sono sembrate emergere numerose tendenze. In primo luogo significativo sembra essere il numero esiguo di sostituzioni amministrative statali nei confronti delle amministrazioni regionali; tale dato sembra dimostrare ed essere causa della scarsa “forza” degli esecutivi che avrebbero dovuto esercitare la sostituzione. Tale conclusione sembra trovare conferma nell'ulteriore dato che sembra emergere ovvero i casi in cui sono stati esercitati i poteri sostitutivi sono avvenuti tutti in materie omogenee (per lo più in materia di tutela ambientale) che rappresentano settori in cui vi sono rilevanti interessi pubblici di particolare risonanza nell'opinione pubblica. Con riferimento alla procedura va enfatizzato il rispetto da parte dell'amministrazione sostituente delle procedure e dei limiti fissati tanto dal legislatore quanto nella giurisprudenza costituzionale al fine di rispettare l'autonomia dell'ente sostituito. Dalla ricerca emerge che non è stato mai esercitato un potere sostitutivo direttamente ex art. 120 Cost., nonostante sia nella quattordicesima (Governo Berlusconi) che nella quindicesima legislatura (Governo Prodi) con decreto sia stata espressamente conferita al Ministro per gli affari regionali la competenza a promuovere l’“esercizio coordinato e coerente dei poteri e rimedi previsti in caso di inerzia o di inadempienza, anche ai fini dell'esercizio del potere sostitutivo del Governo di cui all'art. 120 della Costituzione”. Tale conclusione, però, non lascia perplessi, bensì, piuttosto, sembra rappresentare la conferma della “straordinarietà” della fattispecie sostitutiva costituzionalizzata. Infatti, in via “ordinaria” lo Stato prevede sostituzioni per mezzo di specifiche disposizioni di legge o addirittura per mezzo di decreti legge, come di recente il D.L. 09 ottobre 2006, n. 263 (Misure straordinarie per fronteggiare l'emergenza nel settore dei rifiuti nella regione Campania. Misure per la raccolta differenziata), che ha assegnato al Capo del Dipartimento della protezione civile della Presidenza del Consiglio dei Ministri “le funzioni di Commissario delegato per l'emergenza nel settore dei rifiuti nella regione Campania per il periodo necessario al superamento di tale emergenza e comunque non oltre il 31 dicembre 2007”. Spesso l’aspetto interessante che sembra emergere da tali sostituzioni, disposte per mezzo della decretazione d’urgenza, è rappresentato dalla mancata previsione di diffide o procedure di dialogo, perché giustificate da casi di estrema urgenza, che spesso spingono la regione stessa a richiedere l’intervento di surrogazione. Del resto è stata la stessa Corte costituzionale a legittimare, nei casi di particolare urgenza e necessità, sostituzioni prive di dialogo e strumenti di diffida nella sent. n. 304 del 1987. Particolare attenzione è stata data allo studio dei poteri sostitutivi regionali. Non solo perché meno approfonditi in letteratura, ma per l’ulteriore ragione che tali fattispecie, disciplinate da leggi regionali, descrivono i modelli più diversi e spingono ad analisi di carattere generale in ordine alla struttura ed alla funzione dei poteri sostitutivi. Esse sembrano rappresentare (in molti casi) modelli da seguire dallo stesso legislatore statale, si vedano ad esempio leggi come quella della regione Toscana 31 ottobre 2001, n. 53, artt. 2, 3, 4, 5, 7; legge regione Emilia-Romagna 24 marzo 2004, n. 6, art. 30, le quali recepiscono i principi sviluppati dalla giurisprudenza costituzionale e scandiscono un puntuale procedimento ispirato alla collaborazione ed alla tutela delle attribuzioni degli enti locali. La ricerca di casi di esercizio di poter sostitutivi è stata effettuata anche con riferimento ai poteri sostitutivi regionali. I casi rilevati sono stati numerosi in particolare nella regione Sicilia, ma si segnalano anche casi nelle regioni Basilicata ed Emilia-Romagna. Il dato principale, che sembra emergere, pare essere che alle eterogenee discipline di sostituzione corrispondano eterogenee prassi di esercizio della sostituzione. Infatti, alle puntuali fattispecie di disciplina dei poteri sostitutivi dell’Emilia-Romagna corrispondono prassi volte ad effettuare la sostituzione con un delibera della giunta (organo di governo) motivata, nel rispetto di un ampio termine di diffida, nonché nella ricerca di intese volte ad evitare la sostituzione. Alla generale previsione della regione Sicilia, pare corrispondere un prassi sostitutiva caratterizzata da un provvedimento del dirigente generale all’assessorato per gli enti locali (organo di governo?), per nulla motivato, salvo il richiamo generico alle norme di legge, nonché brevi termini di diffida, che sembrano trovare la loro giustificazione in note o solleciti informati che avvisano l’ente locale della possibile sostituzione. In generale il fatto che in molti casi i poteri sostitutivi siano stimolati per mezzo dell’iniziativa dei privati, sembra dimostrare l’attitudine di tal istituto alla tutela degli interessi dei singoli. I differenti livelli nei quali operano i poteri sostitutivi, il ruolo che la Corte ha assegnato a tali strumenti nell’evoluzione della giurisprudenza costituzionale, nonché i dati emersi dall’indagine dei casi concreti, spingono ad individuare nel potere sostitutivo uno dei principali strumenti di attuazione del principio di sussidiarietà, principio quest’ultimo che sembra rappresentare – assieme ai corollari di proporzionalità, adeguatezza e leale collaborazione – la chiave di lettura della potestà sostitutiva di funzioni amministrative. In tal senso, come detto, pare emergere dall’analisi di casi concreti come il principio di sussidiarietà per mezzo dei poteri sostitutivi concretizzi quel fine, a cui l’art. 118 cost. sembra mirare, di tutela degli interessi pubblici, consentendo all’ente sovraordinato di intervenire laddove l’ente più vicino ai cittadini non riesca. Il principio di sussidiarietà sembra essere la chiave di lettura anche dell’altra categoria della sostituzione legislativa statale. L’impossibilità di trascurare o eliminare l’interesse nazionale, all’interno di un ordinamento regionale fondato sull’art. 5 Cost., sembra aver spino la Corte costituzionale ad individuare una sorta di “potere sostitutivo legislativo”, attraverso il (seppur criticabile) meccanismo introdotto per mezzo della sent. 303 del 2003 e della cosiddetta “chiamata i sussidiarietà”. Del resto adattare i principi enucleati nella giurisprudenza costituzionale a partire dalla sent. n. 117 del 1988 alla chiamata in sussidiarietà e i limiti che dal principio di leale collaborazione derivano, sembra rappresentare un dei modi (a costituzione invariata) per limitare quello che potrebbe rappresentare un meccanismo di rilettura dell’art. 117 Cost. ed ingerenza dello stato nelle competenze della regioni. Nonostante le sensibili differenze non si può negare che lo strumento ideato dalla Corte abbia assunto le vesti della konkurrierende gesetzgebung e, quindi, di fatto, di un meccanismo che senza limiti e procedure potrebbe rappresentare uno strumento di interferenza e sostituzione della stato nelle competenze regionali. Tali limiti e procedure potrebbero essere rinvenuti come detto nelle procedure di sostituzione scandite nelle pronunce del giudice delle leggi. I risultati che si spera emergeranno dalla descritta riflessione intorno ai poteri sostitutivi e il conseguente risultato circa lo stato del regionalismo italiano, non sembrano, però, rappresentare un punto di arrivo, bensì solo di partenza. I poteri sostitutivi potrebbero infatti essere oggetto di futuri interventi di riforma costituzionale, così come lo sono stati in occasione del tentativo di riforma del 2005. Il legislatore costituzionale nel testo di legge costituzionale approvato in seconda votazione a maggioranza assoluta (recante “Modifiche alla Parte II della Costituzione” e pubblicato in gazzetta ufficiale n. 269 del 18-11-2005) pareva aver fatto un scelta chiara sostituendo il disposto “Il Governo può sostituirsi a organi delle Regioni, delle città metropolitane, delle Province e dei Comuni” con “Lo Stato può sostituirsi alle Regioni, alle città metropolitane, alle Province e ai Comuni nell'esercizio delle funzioni loro attribuite dagli articoli 117 e 118”. Insomma si sarebbe introdotto quello strumento che in altri Paesi prende il nome di Supremacy clause o Konkurrierende Gesetzgebung, ma quali sarebbero state le procedure e limiti che lo Stato avrebbe dovuto rispettare? Il dettato che rigidamente fissa le competenze di stato e regioni, assieme alla reintroduzione espressa dell’interesse nazionale, non avrebbe ridotto eccessivamente l’autonomia regionale? Tali interrogativi mirano a riflettere non tanto intorno a quelli che potrebbero essere gli sviluppi dell’istituto dei poteri sostitutivi. Piuttosto essi sembrano rappresenterebbe l’ulteriore punto di vista per tentare di comprendere quale percorso avrebbe potuto (o potrebbe domani) prendere il regionalismo italiano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I comportamenti nutrizionali stanno assumendo sempre maggiore rilievo all’interno delle politiche comunitarie e questo sottolinea che la dieta sta avendo, negli ultimi anni, una maggiore importanza come fattore di causa e allo stesso tempo prevenzione nella diffusione di malattie croniche come il cancro, malattie cardiovascolari, diabete, osteoporosi e disturbi dentali. Numerosi studi mostrano infatti che i tassi di obesità sono triplicati nelle ultime due decadi e si è stimato che, se i livelli di obesità continueranno a crescere allo stesso tasso del 1990, nel 2010 il numero di persone obese raggiungerà i 150 milioni tra gli adulti e i 15 milioni tra bambini e adolescenti. I governi nazionali stanno quindi cercando di risolvere questo problema, a cui sono inoltre legati alti costi nazionali, tramite l’implementazione di politiche nutrizionali. Analisi di tipo cross-section sono già state evidenziate da studiosi come Schmidhuber e Traill (2006), i quali hanno effettuato un’analisi di convergenza a livello europeo per esaminare la distanza tra le calorie immesse da 426 prodotti diversi. In quest’analisi hanno così dimostrato la presenza di una similarità distinta e crescente tra i paesi europei per quanto riguarda la composizione della dieta. Srinivasan et al. invece hanno osservato la relazione esistente tra ogni singolo prodotto alimentare consumato e le norme nutrizionali dell’ Organizzazione Mondiale della Sanità (World Health Organization, WHO) Lo scopo di questa tesi è quello di evidenziare il problema a livello di aggregati nutritivi e di specifiche componenti nutrizionali come zucchero, frutta e verdura e non relativamente ad ogni singolo prodotto consumato. A questo proposito ci si è basati sulla costruzione di un indicatore (Recommendation Compliance Index) in modo da poter misurare le distanze tra la dieta media e le raccomandazioni del WHO. Lo scopo è quindi quello di riuscire a quantificare il fenomeno del peggioramento della dieta in diverse aree del mondo negli ultimi quattro decenni, tramite un’analisi panel, basandosi sui dati sui nutrienti consumati, provenienti dal database della FAO (e precisamente dal dataset Food Balance Sheets – FBS). Nella prima fase si introduce il problema dell’obesità e delle malattie croniche correlate, evidenziando dati statistici in diversi paesi europei e mondiali. Si sottolineano inoltre le diverse azioni dei governi e del WHO, tramite l’attuazione di campagne contro l’obesità e in favore di una vita più salutare e di una maggiore attività fisica. Nella seconda fase si è costruito un indicatore aggregato (Recommendation Compliance Index) in modo da analizzare le caratteristiche nella dieta dei diversi Paesi a livello mondiale rispetto alle norme del WHO. L’indicatore si basa sui dati ottenuti da FAOSTAT ed è calcolato per 149 paesi del database dell’FBS per il periodo 1961-2002. Nell’analisi si sono utilizzati i dati sulle percentuali di energia prodotta dalle varie componenti nutritive, quali grassi, grassi saturi e transaturi, zuccheri, carboidrati, proteine e le quantità di frutta e verdura consumate. Inoltre si è applicato un test statistico per testare se il valore del RCI è significativamente cambiato nel tempo, prendendo in considerazione gruppi di Paesi (Paesi OECD, Paesi in via di sviluppo e sottosviluppati). Si è voluto poi valutare la presenza o meno di un processo di convergenza, applicando l’analisi di σ-convergenza per osservare ad esempio se la variabilità è diminuita nel tempo in modo significativo. Infine si è applicato l’indicatore ad un livello micro, utilizzando il database del National Diet and Nutrition Survey, che raccoglie dati di macrocomponenti nutritive e misure antropometriche della popolazione inglese dai 16 ai 64 anni per il periodo 2000-2001. Si sono quindi effettuate analisi descrittive nonché analisi di correlazione, regressione lineare e ordinale per osservare le relazioni tra l’indicatore, i macronutrienti, il reddito e le misure antropometriche dell’ Indice di Massa Corporea (Body Mass Index, BMI) e del rapporto vita-fianchi (Waist-hip ratio, WHR).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ambito dell’ingegneria dei tessuti, la possibilità di rigenerazione del miocardio post-infartuale è un argomento “caldo”, che suscita grandi speranze ma solleva altrettanto grandi interrogativi - sostenuti dal sussistere di dubbi di base sulle scelte operative praticabili. Esiste tuttavia concordanza nel considerare fondamentale l’utilizzo di un “supporto” che possa mantenere nella sede peri-infartuale le cellule competenti. Infatti, la semplice iniezione di cellule staminali per via endovenosa o direttamente nell’area infartuata non si è dimostrata particolarmente efficace, soprattutto a causa della cospicua perdita cellulare che si verifica rapidamente dopo il trapianto. Ci si orienta quindi verso la strategia di seminare cellule in grado di transdifferenziare in senso muscolare cardiaco su un materiale biocompatibile in vitro e di impiantare successivamente il costrutto ottenuto in vivo dove ci si attende il riassorbimento del biomateriale e l’integrazione delle cellule. Tuttavia, mentre in altri settori della medicina - quali ortopedia e dermatologia - l’impiego di pseudotessuti ingegnerizzati ha già permesso di conseguire ottimi risultati nella rigenerazione di tessuti danneggiati, allo stato attuale, i progressi ottenuti nell’ambito della rigenerazione del miocardio infartuato appaiono ancora aneddotici e distanti dall’ottenere protocolli condivisi per l’impiego in clinica. Il lavoro presentato in questa ricerca, condotto grazie alla sinergia di competenze interdisciplinari negli ambiti chimico, biologico e dell’ingegneria biomedica meccanica ed elettronica, è uno studio di fattibilità di una metodica standardizzata in grado di indirizzare cellule staminali mesenchimali (MSCs) indifferenziate verso l’acquisizione in vitro di caratteri fenotipici confrontabili con quelli delle cellule muscolari cardiache attraverso il paradigma della coltura dinamica in bioreattore. Il prototipo di bioreattore impiegato, in quanto sviluppato originalmente nel corso di questa attività di ricerca, presenta rispetto ad altri strumenti descritti l’innovazione e il vantaggio di non richiedere l’utilizzo di un incubatore, in quanto esso stesso permette di coltivare cellule al suo interno in condizioni controllate di temperatura, pH e concentrazione di CO2. La sua flessibilità operativa consente di impostare e controllare da personal computer leggi di moto di qualsiasi forma anche con cicliche molto veloci. Infine, la presenza di estensimetri in grado di misurare finemente la variazione di tensione esercitata sulla matrice polimerica utilizzata, posta in trazione tra due afferraggi, permette di applicare nel tempo una forza di stiramento costante, ottenendo deformazioni controllate e risultati riproducibili in termini di modificazioni cellulari. Il superamento delle problematiche sorte durante la fase di messa a punto del sistema, che deve essere ritenuto parte integrante del lavoro di sviluppo condotto, ha permesso di studiare l’adattamento di MSCs allo stiramento ciclico, mostrando che questo effettivamente determina alcune differenze fenotipiche rispetto al controllo statico. Inoltre le cellule hanno acquistato una disposizione orientata lungo l’asse longitudinale delle fibre, dato questo particolarmente importante se si considera la disposizione ordinata delle cellule del miocardio, le quali costituiscono un vero e proprio sincizio, indispensabile per una diffusione sincrona dell’impulso elettrico di contrazione. La creazione di uno pseudotessuto cardiaco ottimale richiederà ovviamente ulteriore lavoro, ma la metodica qui presentata si propone al tempo stesso come uno strumento di studio e come una strategia operativa per un approccio innovativo e standardizzabile alla medicina rigenerativa del miocardio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio condotto si propone l’approfondimento delle conoscenze sui processi di evoluzione spontanea di comunità vegetali erbacee di origine secondaria in cinque siti all’interno di un’area protetta del Parco di Monte Sole (Bologna, Italia), dove, come molte aree rurali marginali in Italia e in Europa, la cessazione o riduzione delle tradizionali pratiche gestionali negli ultimi cinquant’anni, ha determinato lo sviluppo di fitocenosi di ridotto valore floristico e produttivo. Tali siti si trovano in due aree distinte all’interno del parco, denominate Zannini e Stanzano, selezionate in quanto rappresentative di situazioni di comunità del Mesobrometo. Due siti appartenenti alla prima area e uno appartenente alla seconda, sono gestiti con sfalcio annuale, i rimanenti non hanno nessun tipo di gestione. Lo stato delle comunità erbacee di tali siti è stato valutato secondo più punti di vista. E’ stata fatta una caratterizzazione vegetazionale dei siti, mediante rilievo lineare secondo la metodologia Daget-Poissonet, permettendo una prima valutazione relativa al numero di specie presenti e alla loro abbondanza all’interno della comunità vegetale, determinando i Contributi Specifici delle famiglie principali e delle specie dominanti (B. pinnatum, B. erectus e D. glomerata). La produttività è stata calcolata utilizzando un indice di qualità foraggera, il Valore Pastorale, e con la determinazione della produzione di Fitomassa totale, Fitomassa fotosintetizzante e Necromassa. A questo proposito sono state trovate correlazioni negative tra la presenza di Graminacee, in particolare di B. pinnatum, e i Contributi Specifici delle altre specie, soprattutto a causa dello spesso strato di fitomassa e necromassa prodotto dallo stesso B. pinnatum che impedisce meccanicamente l’insediamento e la crescita di altre piante. E’ stata inoltre approfonditamente sviluppata un terza caratterizzazione, che si propone di quantificare la diversità funzionale dei siti medesimi, interpretando le risposte della vegetazione a fattori globali di cambiamento, sia abiotici che biotici, per cogliere gli effetti delle variazioni ambientali in atto sulla comunità, e più in generale, sull’intero ecosistema. In particolare, nello studio condotto, sono stati proposti alcuni caratteri funzionali, cosiddetti functional traits, scelti perché correlati all’acquisizione e alla conservazione delle risorse, e quindi al trade-off dei nutrienti all’interno della pianta, ossia: Superficie Fogliare Specifica, SLA, Tenore di Sostanza Secca, LDMC, Concentrazione di Azoto Fogliare, LNC, Contenuto in Fibra, LFC, separato nelle componenti di Emicellulosa, Cellulosa, Lignina e Ceneri. Questi caratteri sono stati misurati in relazione a tre specie dominanti: B. pinnatum, B. erectus e D. glomerata. Si tratta di specie comunemente presenti nelle praterie semi-mesofile dell’Appennino Settentrionale, ma caratterizzate da differenti proprietà ecologiche e adattative: B. pinnatum e B. erectus sono considerati competitori stress-toleranti, tipicamente di ambienti poveri di risorse, mentre D. glomerata, è una specie più mesofila, caratteristica di ambienti produttivi. Attraverso l’analisi dei traits in riferimento alle diverse strategie di queste specie, sono stati descritti specifici adattamenti alle variazioni delle condizioni ambientali, ed in particolare in risposta al periodo di stress durante l’estate dovuto a deficit idrico e in risposta alla diversa modalità di gestione dei siti, ossia alla pratica o meno dello sfalcio annuale. Tra i caratteri funzionali esaminati, è stato identificato LDMC come il migliore per descrivere le specie, in quanto più facilmente misurabile, meno variabile, e direttamente correlato con altri traits come SLA e le componenti della fibra. E’ stato quindi proposto il calcolo di un indice globale per caratterizzare i siti in esame, che tenesse conto di tutti questi aspetti, riunendo insieme sia i parametri di tipo vegetativo e produttivo, che i parametri funzionali. Tale indice ha permesso di disporre i siti lungo un gradiente e di cogliere differenti risposte in relazione a variazioni stagionali tra primavera o autunno e in relazione al tipo di gestione, valutando le posizioni occupate dai siti stessi e la modalità dei loro eventuali spostamenti lungo questo gradiente. Al fine di chiarire se le variazioni dei traits rilevate fossero dovute ad adattamento fenotipico dei singoli individui alle condizioni ambientali, o piuttosto fossero dovute a differenziazione genotipica tra popolazioni cresciute in siti diversi, è stato proposto un esperimento in condizioni controllate. All’interno di un’area naturale in UK, le Chiltern Hills, sono stati selezionati cinque siti, caratterizzati da diverse età di abbandono: Bradenham Road MaiColtivato e Small Dean MaiColtivato, di cui non si conosce storia di coltivazione, caratterizzati rispettivamente da vegetazione arborea e arbustiva prevalente, Butterfly Bank 1970, non più coltivato dal 1970, oggi prateria seminaturale occasionalmente pascolata, Park Wood 2001, non più coltivato dal 2001, oggi prateria seminaturale mantenuta con sfalcio annuale, e infine Manor Farm Coltivato, attualmente arato e coltivato. L’esperimento è stato condotto facendo crescere i semi delle tre specie più comuni, B. sylvaticum, D. glomerata e H. lanatus provenienti dai primi quattro siti, e semi delle stesse specie acquistati commercialmente, nei cinque differenti tipi di suolo dei medesimi siti. Sono stati misurati quattro caratteri funzionali: Massa Radicale Secca (DRM), Massa Epigea Secca (DBM), Superficie Fogliare Secca (SLA) e Tenore di Sostanza Secca (LDMC). I risultati ottenuti hanno evidenziato che ci sono significative differenze tra le popolazioni di una stessa specie ma con diversa provenienza, e tra individui appartenenti alla stessa popolazione se fatti crescere in suoli diversi. Tuttavia, queste differenze, sembrano essere dovute ad adattamenti locali legati alla presenza di nutrienti, in particolare N e P, nel suolo piuttosto che a sostanziali variazioni genotipiche tra popolazioni. Anche per questi siti è stato costruito un gradiente sulla base dei quattro caratteri funzionali analizzati. La disposizione dei siti lungo il gradiente ha evidenziato tre gruppi distinti: i siti più giovani, Park Wood 2001 e Manor Farm Coltivato, nettamente separati da Butterfly Bank 1970, e seguiti infine da Small Dean MaiColtivato e Bradenham Road MaiColtivato. L’applicazione di un indice così proposto potrebbe rivelarsi un utile strumento per descrivere ed indagare lo stato della prateria e dei processi evolutivi in atto, al fine di meglio comprendere e dominare tali dinamiche per proporre sistemi di gestione che ne consentano la conservazione anche in assenza delle tradizionali cure colturali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il carcinoma polmonare rappresenta un problema socio-sanitario di grande rilievo, essendo la prima causa di morte per neoplasia. Il carcinoma polmonare non a piccole cellule (non small cell lung cancer - NSCLC) rappresenta la variante istologica più frequente (80% dei casi di tumore polmonare). Al momento della diagnosi circa il 60-70% dei pazienti presenta una malattia in stadio avanzato o metastatico non essendo suscettibile di trattamento chirurgico. Per questi pazienti il trattamento chemioterapico determina un prolungamento della sopravvivenza e un miglioramento della qualità  della vita rispetto alla sola terapia di supporto, identificandosi come standard terapeutico. L'individuazione del migliore trattamento chemioterapico per questo subset di pazienti rappresenta pertanto una delle principali sfide della ricerca oncologica. I regimi polichemioterapici si possono dividere schematicamente in tre generazioni in relazione all'introduzione nel corso degli anni di nuovi agenti chemioterapici. Con l'avvento dei regimi di terza generazione, il trattamento del NSCLC avanzato sembra aver raggiunto un plateau, mancando infatti chiare dimostrazioni di superiorità  di un regime di ultima generazione rispetto ad un altro. Tra questi l'associazione cisplatino e gemcitabina rappresenta uno dei regimi standard più utilizzati in considerazione del suo favorevole rapporto costo-beneficio. Al fine di migliorare i risultati del trattamento chemioterapico in termini di attività  ed efficacia, una possibilità  consiste nell'individuazione di parametri predittivi che ci consentano di identificare il miglior trattamento per il singolo paziente. Tra i vari parametri predittivi valutabili, un crescente interesse è stato rivolto a quelli di carattere genetico, anche grazie all'avvento di nuove tecniche di biologia molecolare e al sequenziamento del genoma umano che ha dato nuovo impulso a studi di farmacogenetica e farmacogenomica. Sulla base di queste considerazioni, in questa tesi è stato effettuato uno studio mirato a valutare l'espressione di determinanti molecolari coinvolti nel meccanismo di azione di gemcitabina e cisplatino in pazienti affetti dai due tipi istologici principali di NSCLC, adenocarcinomi e carcinomi squamocellulari. Lo studio dei livelli di espressione genica è stata effettuata in tessuti di 69 pazienti affetti da NSCLC arruolati presso l'Istituto Europeo di Oncologia di Milano. In particolare, mediante Real Time PCR è stata valutata l'espressione genica di ERCC1, hENT1, dCK, 5'-NT, CDA, RRM1 e RRM2 in 85 campioni isolati con microdissezione da biopsie provenienti dai tessuti polmonari normali o tumorali o dalle metastasi linfonodali. Le analisi di questi tessuti hanno mostrato differenze significative per i pattern di espressione genica di diversi determinanti molecolari potenzialmente utile nel predire l'efficacia di gemcitabina/cisplatino e per personalizzare i trattamenti in pazienti affetti da cancro. In conclusione, l'evoluzione delle tecniche di biologia molecolare promossa dagli studi di farmacogenetica racchiude in sè notevoli potenzialità  per quanto concerne l'ideazione di nuovi protocolli terapeutici. Identificando le caratteristiche genotipiche e i livelli di espressione geniche di determinanti molecolari implicati nella risposta ai farmaci potremmo infatti predisporre delle mappe di chemiosensibilità-chemioresistenza per ciascun paziente, nell'ottica di approntare di volta in volta le più appropriate terapie antitumorali in base alle caratteristiche genetiche del paziente e della sua patologia neoplastica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di tesi, inizialmente, è stato concentrato sull’approfondimento, e studio, delle problematiche relative alla costruzione delle linee ad Alta Velocità, che hanno recentemente segnato il territorio italiano, da nord a sud e da ovest ad est. Proseguendo l’analisi sul sistema ferroviario, tramite il confronto con le altre realtà europee, ho compreso quali fossero le principali criticità e doti del trasporto su ferro in Italia, che è ancora molto lontano dalla sua miglior ottimizzazione, ma che comunque, ci tengo a dire, in rapporto a ciò che succede negli altri paesi d’Europa, non è così deficitario come si è portati a pensare. L’entrata in funzione delle linee ad Alta Velocità, infatti, ha cambiato lo scenario di relazioni tra infrastruttura, città e territorio, proprio in questo ambito nasce la volontà di proporre un modello di sviluppo urbano che comprenda, nella sua pianificazione originale, città, infrastruttura ed architettura, e che anzi rivendichi l’importanza di quest’ultima nelle scelte urbanistiche, al contrario di quanto purtroppo avviene oggi. Dopo uno studio dei contesti possibili in cui inserire un progetto di questa portata, è stata individuata la zona che meglio si adatta alle premesse iniziali, ad ovest di Milano tra Novara e l’aeroporto di Milano Malpensa. Qui la scarsa razionalizzazione dei trasporti pregiudica lo sfruttamento delle potenzialità dell’aeroporto da una parte, e della nuova linea ad Alta Velocità dell’altra, così aggiungendo una nuova tratta di ferrovia ad alte prestazioni e riorganizzando trasporti e territorio, ho tentato di dare risposta alle mancanze del sistema della mobilità. In questo quadro si inserisce la città lineare studiata per dimostrare la possibile integrazione tra trasporti, città ed architettura, il modello, partendo dallo studio del blocco milanese giunge a definire un piano di tipo composto, con un asse principale in cui sono concentrate le vie di trasporto, ed una serie di assi ortogonali secondari che individuano le emergenze architettoniche, punti notevoli che devono fungere da catalizzatori. In uno di questi punti, posto in posizione baricentrica è stato collocato il centro di ricerca avanzata, in particolare è stato inserito in una zona difficilmente raggiungibile, questo per enfatizzare l’isolamento e la riservatezza che sono necessarie alla funzione. Il campus avrebbe potuto trovarsi anche in un altro punto del piano e questo non avrebbe inficiato le premesse iniziali, il progetto dell’università è solo un pretesto per dimostrare l’ipotesi prima dichiarata, l’architettura può e deve svolgere un ruolo importante nella pianificazione anche infrastrutturale.